seq2sparse对应于mahout中的org.apache.mahout.vectorizer.SparseVectorsFromSequenceFiles,从昨天跑的算法中的任务监控界面可以看到这一步包含了7个Job信息,分别是:(1)DocumentTokenizer(2)WordCount(3)MakePartialVectors(4)MergePartialVectors(5)VectorTfIdf Document Frequency Count(6)MakePartialVectors(7)MergePartialVectors。打印SparseVectorsFromSequenceFiles的参数帮助信息可以看到如下的信息:
- Usage:
- [--minSupport <minSupport> --analyzerName <analyzerName> --chunkSize
- <chunkSize> --output <output> --input <input> --minDF <minDF> --maxDFSigma
- <maxDFSigma> --maxDFPercent <maxDFPercent> --weight <weight> --norm <norm>
- --minLLR <minLLR> --numReducers <numReducers> --maxNGramSize <ngramSize>
- --overwrite --help --sequentialAccessVector --namedVector --logNormalize]
- Options
- --minSupport (-s) minSupport (Optional) Minimum Support. Default
- Value: 2
- --analyzerName (-a) analyzerName The class name of the analyzer
- --chunkSize (-chunk) chunkSize The chunkSize in MegaBytes. 100-10000 MB
- --output (-o) output The directory pathname for output.
- --input (-i) input Path to job input directory.
- --minDF (-md) minDF The minimum document frequency. Default
- is 1
- --maxDFSigma (-xs) maxDFSigma What portion of the tf (tf-idf) vectors
- to be used, expressed in times the
- standard deviation (sigma) of the
- document frequencies of these vectors.
- Can be used to remove really high
- frequency terms. Expressed as a double
- value. Good value to be specified is 3.0.
- In case the value is less then 0 no
- vectors will be filtered out. Default is
- -1.0. Overrides maxDFPercent
- --maxDFPercent (-x) maxDFPercent The max percentage of docs for the DF.
- Can be used to remove really high
- frequency terms. Expressed as an integer
- between 0 and 100. Default is 99. If
- maxDFSigma is also set, it will override
- this value.
- --weight (-wt) weight The kind of weight to use. Currently TF
- or TFIDF
- --norm (-n) norm The norm to use, expressed as either a
- float or "INF" if you want to use the
- Infinite norm. Must be greater or equal
- to 0. The default is not to normalize
- --minLLR (-ml) minLLR (Optional)The minimum Log Likelihood
- Ratio(Float) Default is 1.0
- --numReducers (-nr) numReducers (Optional) Number of reduce tasks.
- Default Value: 1
- --maxNGramSize (-ng) ngramSize (Optional) The maximum size of ngrams to
- create (2 = bigrams, 3 = trigrams, etc)
- Default Value:1
- --overwrite (-ow) If set, overwrite the output directory
- --help (-h) Print out help
- --sequentialAccessVector (-seq) (Optional) Whether output vectors should
- be SequentialAccessVectors. If set true
- else false
- --namedVector (-nv) (Optional) Whether output vectors should
- be NamedVectors. If set true else false
- --logNormalize (-lnorm) (Optional) Whether output vectors should
- be logNormalize. If set true else false
在昨天算法的终端信息中该步骤的调用命令如下:
- ./bin/mahout seq2sparse -i /home/mahout/mahout-work-mahout/20news-seq -o /home/mahout/mahout-work-mahout/20news-vectors -lnorm -nv -wt tfidf
我们只看对应的参数,首先是-lnorm 对应的解释为输出向量是否要使用log函数进行归一化(设置则为true),-nv解释为输出向量被设置为named 向量,这里的named是啥意思?(暂时不清楚),-wt tfidf解释为使用权重的算法,具体参考http://zh.wikipedia.org/wiki/TF-IDF 。
第(1)步在SparseVectorsFromSequenceFiles的253行的:
- DocumentProcessor.tokenizeDocuments(inputDir, analyzerClass, tokenizedPath, conf);
这里进入可以看到使用的Mapper是:SequenceFileTokenizerMapper,没有使用Reducer。Mapper的代码如下:
- protected void map(Text key, Text value, Context context) throws IOException, InterruptedException {
- TokenStream stream = analyzer.reusableTokenStream(key.toString(), new StringReader(value.toString()));
- CharTermAttribute termAtt = stream.addAttribute(CharTermAttribute.class);
- StringTuple document = new StringTuple();
- stream.reset();
- while (stream.incrementToken()) {
- if (termAtt.length() > 0) {
- document.add(new String(termAtt.buffer(), 0, termAtt.length()));
- }
- }
- context.write(key, document);
- }
该Mapper的setup函数主要设置Analyzer的,关于Analyzer的api参考:http://lucene.apache.org/core/3_0_3/api/core/org/apache/lucene/analysis/Analyzer.html ,其中在map中用到的函数为reusableTokenStream(String fieldName, Reader reader) :Creates a TokenStream that is allowed to be re-used from the previous time that the same thread called this method.
编写下面的测试程序:
- package mahout.fansy.test.bayes;
- import java.io.IOException;
- import java.io.StringReader;
- import org.apache.hadoop.conf.Configuration;
- import org.apache.hadoop.io.Text;
- import org.apache.lucene.analysis.Analyzer;
- import org.apache.lucene.analysis.TokenStream;
- import org.apache.lucene.analysis.tokenattributes.CharTermAttribute;
- import org.apache.mahout.common.ClassUtils;
- import org.apache.mahout.common.StringTuple;
- import org.apache.mahout.vectorizer.DefaultAnalyzer;
- import org.apache.mahout.vectorizer.DocumentProcessor;
- public class TestSequenceFileTokenizerMapper {
- /**
- * @param args
- */
- private static Analyzer analyzer = ClassUtils.instantiateAs("org.apache.mahout.vectorizer.DefaultAnalyzer",
- Analyzer.class);
- public static void main(String[] args) throws IOException {
- testMap();
- }
- public static void testMap() throws IOException{
- Text key=new Text("4096");
- Text value=new Text("today is also late.what about tomorrow?");
- TokenStream stream = analyzer.reusableTokenStream(key.toString(), new StringReader(value.toString()));
- CharTermAttribute termAtt = stream.addAttribute(CharTermAttribute.class);
- StringTuple document = new StringTuple();
- stream.reset();
- while (stream.incrementToken()) {
- if (termAtt.length() > 0) {
- document.add(new String(termAtt.buffer(), 0, termAtt.length()));
- }
- }
- System.out.println("key:"+key.toString()+",document"+document);
- }
- }
得出的结果如下:
- key:4096,document[today, also, late.what, about, tomorrow]
其中,TokenStream有一个stopwords属性,值为:[but, be, with, such, then, for, no, will, not, are, and, their, if, this, on, into, a, or, there, in, that, they, was, is, it, an, the, as, at, these, by, to, of],所以当遇到这些单词的时候就不进行计算了。
http://blog.csdn.net/fansy1990/article/details/10478515
相关推荐
基于springboot教育资源共享平台源码数据库文档.zip
linux开发篇,配套视频:https://www.bilibili.com/list/474327672?sid=4493702&spm_id_from=333.999.0.0&desc=1
ReadEra 这个阅读应用能够打开下列任何格式的文档: EPUB, PDF, DOC, RTF, TXT, DJVU, FB2, MOBI, 和 CHM. 基本上来说,你可以用它阅读你的设备内存中的任何书籍或者文本文档。 这个应用与划分成章节的文档兼。,有一个书签功能,可以在你阅读的时候,自动保存你的进度。另外,它让你更改页面模式,从几种不同的主题中进行挑选(夜间,白天,棕黑色调,还有控制台)。
软件环境:KEIL4 硬件环境:STM32单片机+舵机 控制原理:通过控制输出信号的占空比调节舵机旋转的角度
基于springboot仓库管理系统源码数据库文档.zip
酒店管理系统源码C++实现的毕业设计项目源码.zip,个人大四的毕业设计、经导师指导并认可通过的高分设计项目,评审分98.5分。主要针对计算机相关专业的正在做毕设的学生和需要项目实战练习的学习者,也可作为课程设计、期末大作业。 酒店管理系统源码C++实现的毕业设计项目源码.zip,酒店管理系统源码C++实现的毕业设计项目源码.zip个人大四的毕业设计、经导师指导并认可通过的高分设计项目,评审分98.5分。主要针对计算机相关专业的正在做毕设的学生和需要项目实战练习的学习者,也可作为课程设计、期末大作业。酒店管理系统源码C++实现的毕业设计项目源码.zip酒店管理系统源码C++实现的毕业设计项目源码.zip酒店管理系统源码C++实现的毕业设计项目源码.zip,个人大四的毕业设计、经导师指导并认可通过的高分设计项目,评审分98.5分。主要针对计算机相关专业的正在做毕设的学生和需要项目实战练习的学习者,也可作为课程设计、期末大作业。酒店管理系统源码C++实现的毕业设计项目源码.zip,个人大四的毕业设计、经导师指导并认可通过的高分设计项目,评审分98.5分。主要针对计算机相关专业的正在做毕
58商铺全新UI试客试用平台网站源码
springboot vue3前后端分离 基于SpringBoot+Vue的轻量级定时任务管理系统.zip
该资源内项目源码是个人的课程设计、毕业设计,代码都测试ok,都是运行成功后才上传资源,答辩评审平均分达到96分,放心下载使用! ## 项目备注 1、该资源内项目代码都经过严格测试运行成功才上传的,请放心下载使用! 2、本项目适合计算机相关专业(如计科、人工智能、通信工程、自动化、电子信息等)的在校学生、老师或者企业员工下载学习,也适合小白学习进阶,当然也可作为毕设项目、课程设计、作业、项目初期立项演示等。 3、如果基础还行,也可在此代码基础上进行修改,以实现其他功能,也可用于毕设、课设、作业等。 下载后请首先打开README.md文件(如有),仅供学习参考, 切勿用于商业用途。
4D毫米波雷达点云数据处理方法研究.caj
S M 2 2 5 8 X T 量产工具供大家下载使用
基于springboot的文物管理系统源码数据库文档.zip
基于springboot的电影院售票管理系统源码数据库文档.zip
基于Java web 实现的仓库管理系统源码,适用于初学者了解Java web的开发过程以及仓库管理系统的实现。
美容美发项目,使用django框架,前后端一体化项目
在线票务:2023年中国在线票务行业市场规模约为24.99亿元,挖掘市场蓝海新机遇 在数字浪潮的席卷下,传统的票务销售模式正经历着前所未有的变革。纸质门票逐渐淡出人们的视野,取而代之的是便捷、高效的数字和移动票务。这一转变不仅为消费者带来了前所未有的购票体验,更为在线票务平台开辟了广阔的发展空间和市场机遇。随着国民经济的持续增长和文体娱乐行业的蓬勃发展,中国在线票务行业正站在时代的风口浪尖,等待着每一位有志之士的加入。那么,这片蓝海市场究竟蕴藏着怎样的潜力?又该如何把握机遇,实现突破?让我们一同探索。 市场概况: 近年来,中国在线票务行业市场规模持续扩大,展现出强劲的增长势头。据QYResearch数据显示,2023年中国在线票务行业市场规模约为24.99亿元,尽管受到宏观经济的影响,市场规模增速放缓,但整体趋势依然向好。这一增长主要得益于国民人均收入的不断提高、电影及演出行业的快速发展以及政府政策的支持。例如,2023年财政部、国家电影局发布的《关于阶段性免征国家电影事业发展专项资金政策的公告》,为电影行业注入了强劲动力,进而推动了在线票务市场规模的扩大。 技术创新与趋势: 技术进步
基于SpringBoot的养老院管理系统源码数据库文档.zip
该资源内项目源码是个人的课程设计、毕业设计,代码都测试ok,都是运行成功后才上传资源,答辩评审平均分达到96分,放心下载使用! ## 项目备注 1、该资源内项目代码都经过严格测试运行成功才上传的,请放心下载使用! 2、本项目适合计算机相关专业(如计科、人工智能、通信工程、自动化、电子信息等)的在校学生、老师或者企业员工下载学习,也适合小白学习进阶,当然也可作为毕设项目、课程设计、作业、项目初期立项演示等。 3、如果基础还行,也可在此代码基础上进行修改,以实现其他功能,也可用于毕设、课设、作业等。 下载后请首先打开README.md文件(如有),仅供学习参考, 切勿用于商业用途。
内容概要:本文档是一份详细的Go语言教程,从基础概念介绍到高级主题均有覆盖。主要内容包括Go语言的基础语法、数据类型、控制结构、函数、结构体、接口和并发编程等方面。通过具体示例介绍了如何使用Go语言进行开发。 适合人群:初学者和有一定经验的程序员都可以从这篇教程中受益,特别是那些想要快速掌握Go语言并应用于实际项目的开发者。 使用场景及目标:适用于初学者系统学习Go语言的基础知识和常用功能;也可以作为已有开发经验者的参考资料,帮助他们解决具体的编程问题,提高开发效率。 其他说明:本教程不仅包含了Go语言的基本知识点,还重点讲解了其独特的并发编程模型。读者在学习过程中应该注重理论与实践相结合,通过实际编写代码来加深理解和记忆。
基于springboot计算机基础网上考试系统源码数据库文档.zip