- 浏览: 174683 次
- 性别:
- 来自: 杭州
最新评论
-
qjm201000:
您好,问下怎么进入后台管理啊?管理员后台管理在哪边?
Jforum的安装使用 -
yuchao86:
src/ext/thrift_protocol/modules ...
安装thrift -
灵魂工程师:
-intel-2.7/src/protocol/fastbin ...
安装thrift -
左看右看:
学习了,不错!
hbase的安装配置 -
asialee:
谢谢了,我对linux不熟悉,装了maven后也出现这样的问题 ...
permission denied的解决方法
文章列表
1.how to run hama example.
before the run Hama, Pls check whether you able to create tables via hbase shell.http://old.nabble.com/Fwd:-What-should-we-expect-from-Hama-Examples-Rand--td26791710.html
2. Finds the eigenvalues and eigenvectors associated with the symmetric matrix A
http://issues.apache ...
执行$HAMA_HOME/bin/hama Permission denied的权限问题,解决方法
chmod a+x bin/hama
就可以了,
如果想让bin下的所有文件都可执行
则 chmod a+x bin/*
http://philippeadjiman.com/blog/2009/11/11/flexible-collaborative-filtering-in-java-with-mahout-taste/
1. 注意reduce(IntWritable key, Iterable<Text> values, Context context)函数,不是Iterator(旧版的hadoop)
2.每次mapper, context(new IntWritable(center),new Text(""));的时候,传送给reducer 的new IntWritable(center), 虽然center值相同,但是new 出来的IntWritable(center)的对象是不同的, 参照我的AssignPointsToCenterMapper做法写一个intWrita ...
0.lucene源代码研究http://xxiongdi.iteye.com/blog/400816
http://pavel.iteye.com/category/54565和上面那个一样
http://forfuture1978.iteye.com/category/89151
lucene提速方面:
索引:
http://wiki.apache.org/lucene-java/ImproveIndexingSpeed
搜索:
http://wiki.apache.org/lucene-java/ImproveSearchingSpeed
1. Java RMI + Luce ...
我写的那个聚类备忘
- 博客分类:
- 我的那个聚类方法备忘
1.选初始点的时候是不是可以先sort一下
1.初始中心的选取,可以<key--- value1,value2,value3...>
如果value1>key的话,则不选value1, value2,value3....雷同
2.聚合和拆分
hadoop 技术论坛。http://bbs.hadoopor.com/index.php
1.hadoop0.20.0 + eclipse环境搭建http://bbs.hadoopor.com/thread-43-1-1.html
台湾一个人写的,很好。hadoop0.20.0 + eclipse环境搭建http://trac.nchc.org.tw/cloud/wiki/waue/2009/0617教怎么打包成jar,制作jar包
注意里面的那个Makefile文件“jar -cvf ${JarFile} -C bin/ .”
”hadoop jar ${JarFile} ${MainFun ...
1.This page describes the JRuby IRB-based HBase Shell. It replaces the SQL-like HQL, the Shell found in HBase versions 0.1.x and previous. Some discussion of new shell requirements can be found in the Shell Replacement document.
http://wiki.apache.org/hadoop/Hbase/Shell
1.Job tracker parameters permit setting limits on the number of maps (or reduces) per job and/or per node. https://issues.apache.org/jira/browse/HADOOP-5170
standalone&pseudo-distributed:
主要参照http://fishyu0817.iteye.com/blog/505818
从该页面的第11点看起
注意几点
1.hadoop 安装成功,并且已经启动了,hadoop 启动可能需要一段时间(20s?),可以通过hadoop的web显示看看有没有hadoop有没有彻底启动 ...
1.比较多的一些讲解http://beyiwork.iteye.com/category/75028
3.hbase安装配置http://fishyu0817.iteye.com/blog/505818
4.hbase shell操作http://yuhai-china.iteye.com/blog/563951
5.hbase的程序编写教程http://beyiwork.iteye.com/blog/418058
http://yuhai-china.iteye.com/blog/564197
http://zkl-1987. ...
1. 生成vector:
MapVector output = _vectorFactory.zeroVector();
if(vector != null)
{
for(Map.Entry<Integer, MapVector> entry : this)
{
output.set(entry.getKey(), vector.dot(entry.getValue()));
}
}
return output;
1. double--->char256
typedef char char256[256];
char256 strDouble;
sprintf(strDouble, "%lf", 2.02);
int--->char256
typedef char char256[256];
char256 strDouble;
sprintf(strDouble, "%d", 2);
2.CString ---> string
string s;
CString str;
s = str.GetBuffer(st ...
在ap官方网站上下 matlab代码 apcluster.m。
放到C:\Documents and Settings\gushui\My Documents\MATLAB下
把生成的相似值的那个文件simForAP.txt也放在这个文件夹下C:\Documents and Settings\gushui\My Documents\MATLAB
打开matlab
>>load (注意后面有一个空格,这样不输出结果?)
这样simForAP.txt就load进来了
>>s=simForAp (注意后面有一个空格,把simForAp赋给s)
>>p=0.0281 ...
更全的参照如下连接http://hi.baidu.com/general_li/blog/item/6db0107bc8c3a3fc0ad1879e.html
读:
BufferedReader br = new BufferedReader(new InputStreamReader(new FileInputStream("ming.txt")));
String data = null;
while((data = br.readLine())!=null)
{
System.out.println(data);
}
写:
FileWriter fw = new F ...