`
gushuizerotoone
  • 浏览: 174683 次
  • 性别: Icon_minigender_1
  • 来自: 杭州
社区版块
存档分类
最新评论
文章列表
1.how to run hama example. before the run Hama, Pls check whether you able to create tables via hbase shell.http://old.nabble.com/Fwd:-What-should-we-expect-from-Hama-Examples-Rand--td26791710.html 2. Finds the eigenvalues and eigenvectors associated with the symmetric matrix A http://issues.apache ...
执行$HAMA_HOME/bin/hama Permission denied的权限问题,解决方法 chmod a+x bin/hama 就可以了, 如果想让bin下的所有文件都可执行 则 chmod a+x bin/*
http://philippeadjiman.com/blog/2009/11/11/flexible-collaborative-filtering-in-java-with-mahout-taste/
1. 注意reduce(IntWritable key, Iterable<Text> values, Context context)函数,不是Iterator(旧版的hadoop) 2.每次mapper, context(new IntWritable(center),new Text(""));的时候,传送给reducer 的new IntWritable(center), 虽然center值相同,但是new 出来的IntWritable(center)的对象是不同的, 参照我的AssignPointsToCenterMapper做法写一个intWrita ...
0.lucene源代码研究http://xxiongdi.iteye.com/blog/400816 http://pavel.iteye.com/category/54565和上面那个一样 http://forfuture1978.iteye.com/category/89151 lucene提速方面: 索引: http://wiki.apache.org/lucene-java/ImproveIndexingSpeed 搜索: http://wiki.apache.org/lucene-java/ImproveSearchingSpeed 1. Java RMI + Luce ...
1.选初始点的时候是不是可以先sort一下 1.初始中心的选取,可以<key--- value1,value2,value3...> 如果value1>key的话,则不选value1,  value2,value3....雷同 2.聚合和拆分
hadoop 技术论坛。http://bbs.hadoopor.com/index.php 1.hadoop0.20.0 + eclipse环境搭建http://bbs.hadoopor.com/thread-43-1-1.html 台湾一个人写的,很好。hadoop0.20.0 + eclipse环境搭建http://trac.nchc.org.tw/cloud/wiki/waue/2009/0617教怎么打包成jar,制作jar包 注意里面的那个Makefile文件“jar -cvf ${JarFile} -C bin/ .” ”hadoop jar ${JarFile} ${MainFun ...
1.This page describes the JRuby IRB-based HBase Shell. It replaces the SQL-like HQL, the Shell found in HBase versions 0.1.x and previous. Some discussion of new shell requirements can be found in the Shell Replacement document. http://wiki.apache.org/hadoop/Hbase/Shell
1.Job tracker parameters permit setting limits on the number of maps (or reduces) per job and/or per node. https://issues.apache.org/jira/browse/HADOOP-5170
standalone&pseudo-distributed: 主要参照http://fishyu0817.iteye.com/blog/505818 从该页面的第11点看起 注意几点 1.hadoop 安装成功,并且已经启动了,hadoop 启动可能需要一段时间(20s?),可以通过hadoop的web显示看看有没有hadoop有没有彻底启动 ...
1.比较多的一些讲解http://beyiwork.iteye.com/category/75028 3.hbase安装配置http://fishyu0817.iteye.com/blog/505818 4.hbase shell操作http://yuhai-china.iteye.com/blog/563951 5.hbase的程序编写教程http://beyiwork.iteye.com/blog/418058                  http://yuhai-china.iteye.com/blog/564197                  http://zkl-1987. ...
1. 生成vector: MapVector output = _vectorFactory.zeroVector(); if(vector != null) { for(Map.Entry<Integer, MapVector> entry : this) { output.set(entry.getKey(), vector.dot(entry.getValue())); } } return output;
1. double--->char256   typedef char char256[256]; char256 strDouble; sprintf(strDouble,   "%lf",   2.02); int--->char256 typedef char char256[256]; char256 strDouble; sprintf(strDouble,   "%d",   2); 2.CString ---> string string s; CString str; s = str.GetBuffer(st ...
在ap官方网站上下 matlab代码 apcluster.m。 放到C:\Documents and Settings\gushui\My Documents\MATLAB下 把生成的相似值的那个文件simForAP.txt也放在这个文件夹下C:\Documents and Settings\gushui\My Documents\MATLAB 打开matlab >>load (注意后面有一个空格,这样不输出结果?) 这样simForAP.txt就load进来了 >>s=simForAp (注意后面有一个空格,把simForAp赋给s) >>p=0.0281 ...
更全的参照如下连接http://hi.baidu.com/general_li/blog/item/6db0107bc8c3a3fc0ad1879e.html 读: BufferedReader br = new BufferedReader(new InputStreamReader(new FileInputStream("ming.txt"))); String data = null; while((data = br.readLine())!=null) { System.out.println(data); } 写: FileWriter fw = new F ...
Global site tag (gtag.js) - Google Analytics