浏览 3342 次
锁定老帖子 主题:katta的分布式
精华帖 (0) :: 良好帖 (0) :: 新手帖 (0) :: 隐藏帖 (0)
|
|
---|---|
作者 | 正文 |
发表时间:2009-04-10
最后修改:2009-04-10
我使用的三台机器分别为master,node1,node2,系统都为Centos 5 在下载回来的文件解压后进入conf文件夹,在里面需要改几个文件 masters文件 把localhost改成master(主节点名) nodes文件 node1 node2(加入你的节点机器的名称) katta.zk.propeties文件 # comma serperated list of host:port that should run a zookeeper server, # make sure you use hostnames and not ip addresses zookeeper.servers=<master>:2181 (把localhost改成master) ... katta-env.sh文件 # Set Katta-specific environment variables here. ... # The java implementation to use. Required. export JAVA_HOME=/usr/lib/j2sdk1.5-sun (JDK目录) ... # host:path where hadoop code should be rsync'd from. Unset by default. export KATTA_MASTER=server0:/home/$USER/katta-distribution ... 在三台机器上做同样的部署 启动:bin/start-all.sh 关闭:bin/stop-all.sh 接下来部署索引,让Katta来管理索引 部署索引的格式 bin/katta addIndex <name of index> [file:///<path to index>|hdfs://<server name>/<path to index>] <lucene analyzer class name> <replication level> 如果你有装hadoop集群的话,可以把在hadoop上的索引部署到Katta上,让Katta来管理 查找的格式 bin/katta search <index name>[,<index name>,...] “<query>” [count] 然后当然是列出你要查找的数据咯 声明:ITeye文章版权属于作者,受法律保护。没有作者书面许可不得转载。
推荐链接
|
|
返回顶楼 | |
发表时间:2009-07-02
如果master fail-over,你怎么处理呢?
|
|
返回顶楼 | |