`
sunasheng
  • 浏览: 124411 次
  • 性别: Icon_minigender_1
  • 来自: 北京
文章分类
社区版块
存档分类
最新评论
文章列表
程序中session都有一个默认的过期时间,其中tomcat中的默认时间为30分钟,根据需要我们可以去手动设置session的过期时间,以下是设置session的过期时间的三个方法: 1.在tomcat-->conf-->conf/web.xm中的<session-config>中设置: <session-config>       <session-timeout>30</session-timeout> </session-config> 2.在项目的web.xml中定义: <session-conf ...
Java实现远程访问(RMI-Naming) 1,编写服务器端接口 新建项目:ITest,编写接口IServer ,有几点有求: (1)接口必须实现类Remote (2)接口中的方法必须抛出异常RemoteException
Ubuntu下Hadoop的集群版的安装 0,准备两个服务器 机器名    IP        作用 hadoop.main   192.168.1.102    NameNode,JobTracker,DataNode,TaskTracker hadoop.slave
Ubuntu下Hadoop的单机版的安装 1,安装ssh sudo apt-get install ssh 2,安装rsync sudo apt-get install rsync 3,配置ssh免密码登录 ssh-keygen -t rsa -p '' -f ~/.ssh/id_rsa
public class MapReduceDemo extends Configured implements Tool {     public static class MapClass extends MapReduceBase implements Mapper<Text,T
当Lucene为数据库中数据建立索引时应该注意: 当数据量比较大的时候(笔者此处遇到的是360多万条数据),书写java代码为数据库数据的某一字段建立索引时通常会相到以下解决方案: 方案一:select语句读数据,读一条建立一条的索引。 方案二:select语句读数据,将数据全部读入内存,然后在一起建立索引。 方案三:select语句读数据,将数据存入文件中,然后从文件中读出数据建立索引。 以上三种方案本人都一一实现过,并且进行了测试,发现方案三是最有效的,建立索引的时间是最短的!
  4,读和写 MapReduce读取输入数据以及写入数据支持多种数据格式。输入数据通常驻留在较大的文件中(通常是几十或者几百 GB 甚至更大), MapReduce 处理数据的原理是将其分割成为块,这些块可以在多个计算机上并行处 ...
  3,剖析 MapReduce 程序 <1>hadoop的数据类型 实现Writable 接口额类可以是值,而实现 WritableComparable 接口的类既可以是键也可以是值。 以下这些是常用的数据类型,均用于实现WritableComparable 借口: BooleanWritable ByteWritable DoubleWritable FloatWritable IntWritable LongWritable
  1, HDFS 文件操作 HDFS是一种文件系统,是专门为 MapReduce 这类框架下的大规模分布式数据处理而设计的。 文件命令的格式: hadoop fs -cmd <args> URI:scheme://authority/path scheme类似于一个协议,可以是 file 或者 hdfs authority是 NameNode 的主机名 path是文件或者目录的路径
读书笔记:Hadoop 初始及单机版和集群版的安装 1, hadoop 的第一个程序(统计文档中个单词出现的次数) /* public class WordCount extends Configured implements Tool{ public static class MapClass extends MapReduceBase implements Mapper<LongWritable,Text,Text,IntWritable>{ private final static IntWritable one ...
  <1>为 hadoop 集群安装 SSH 安装hadoop 集群时,需要专门指定一个服务器作为主节点,这个服务器会常驻 NameNode 和 JobTracker 守护进程,它也将作为一个基站,负责联络并激活所有从节点上的 DataNode 和 TaskTracker 。因此我们要为主节点定义一种手段,使他能够远程的访问到集群中的每个节点。因此, Hadoop 使用了无口令的 SSH 协议。 <2>定义一个公共账号 hadoop-user <3>SSH的安装 ·切换到
1. CouchDB 所用语言: Erlang 特点:DB一致性,易于使用 使用许可: Apache 协议: HTTP/REST 双向数据复制, 持续进行或临时处理, 处理时带冲突检查, 因此,采用的是master-master复制(见编注2) MVCC – 写操作不阻塞读操作 ...
  Lucene搜索引擎开发高级部分(索引的管理) 1,查看索引的信息 通过IndexWriter类读取索引的相关信息,将其显示出来。 通过IndexReader及其子类读取索引的相关信息,将其显示出来。 通过可视化工具(Luke,Limo)查看索引的相关信息。 2,删除索引中的文档 删除指定序号的文档: 使用IndexReader类的deleteDocument(int id)可以从索引中删除指定序号的文档。但是,被删除的文档并没有
Lucene搜索引擎开发高级部分(索引的建立和优化) 1,文本的分析 对于不同的文本要使用不同的分析器 IndexWriter writer = new IndexWriter(indexPath,new StandardAnalyzer()); writer.addDocument(doc); 这是我们一般常用的方法,但是对于我们处理的文档中不仅含有中文文档(如还有法语)这样的情况,使用单一的分析器就会使得对于一种语言的文档分析的很好,而另外一种则不行,这样就要使用到addDocument方法的一个重载的方法:
第一种方式:IndexWriter类中关系到索引创建效率的几个方法 一、SetMergeFactor(合并因子) SetMergeFactor是控制segment合并频率的,其决定了一个索引块中包括多少个文档,当硬盘上的索引块达到多少时, 将它们合并成一个较大的索 ...
Global site tag (gtag.js) - Google Analytics