略做分析,忘批评指正。
mahout源码版本:0.7
mahout官方算法说明是根据原google的几位大牛的论文进行实现,详情请参见:
https://cwiki.apache.org/confluence/display/MAHOUT/Parallel+Frequent+Pattern+Mining
在实际应用中,貌似有些问题:
I1: 不能通过指定谓词进行挖掘。
I2: 不能通过约束规则进行挖掘。
在实际的使用中还需要进行一些改动来实现这些功能。
1 起始类:FPGrowthDriver。
输入参数:minSupport 最小支持计数,默认是3.
maxHeapSize 最大的堆大小,表示top K的item数,默认是50。
numGroups 分组数,即将数据分成多少组来进行频繁树的建立。
splitterPattern 特征的分割方式。
numTreeCacheEntries 树的entry的缓存数,用来防止树的重复建立。
method 指定是顺序方式,还是mapreduce计算方式。
encoding 文件的编码集。
userFPG2 用替换的FPG实现方式。
2 并行频繁树。
如果使用的mapreduce计算方式,则调用PFPGrowth的runPFPGrowth方法。
第一个job统计所有feature的支持度计数,用于之后的排序等工作。
2.1 startingParallelCounting
ParallelCountingMapper 将一行transaction的每个特征按其名字分布出去。
ParallelCountingReducer 对特征值进行计数。
结果存到PARALLEL_COUNTING中。
3 第二个步骤将第一步得到的feature存入DistributeCache。
然后会把支持度大于指定最小支持度(默认为3)以上的feature列表载入到内存中。这里如果feature列表大于内存能承受的大小,则需要将feature分到不同的文件中,因为hdfs不支持随机
saveFList 将feature列表存入到hdfs中。
4 第三步,对feature进行分布,各自建TransactionTree,然后导出频繁模式。
startParallelFPGrowth
4.1 从原始feature文件中,读入feature,根据支持度计数排列后的feature进行分组,分组的feature即为规则的右值。
ParallelFPGrowthMapper的setup方法中会载入所有的满足最小支持度的feature及其支持度,并对feature进行increment的index的建立。根据item对应的index对item进行分组。
对每个transaction,从后取feature作为分组分布的key,把列表中feature前的feature做为TransactionTree分布出去。
ParallelFPGrowthCombiner 构造TransactionTree,将所有相同index的feature相关的TransactionTree合并到一个中。
TransactionTree
childCount 是一个数组,保存节点的子节点的个数。
nodeCount 是一个数组,保存节点的频繁度计数。
attribute 是一个数组,保存feature的编号,不同分支下的相同名字的节点,所在位置不同。
nodeChildren 是一个二维数组,保持某节点的第n个子节点在attribute数组中的位置编号。
addPattern() 在现有的树中添加一个模式。遍历新加入的模式的各属性,首先默认是增量状态,从根节点找与模式想匹配的频繁树的分支,在没有找到现有模式节点的地方,切换成新建模式的状态,开始创建模式的节点。
context.write(key, cTree.getCompressedTree()), combiner导出的是一个压缩树,这里又涉及到了TransactionTreeIterator对象对TransactionTree的遍历,对树的路径的遍历。computeNext中:
while(top[1] + 1 == transactionTree.childCount(top[0])),这行用于判断child node是否都被访问过了(因为top[1]从-1开始增量计数)。
getCompressedTree()中node表示树中独立节点的个数,size代表事物集中项的个数加上2乘以transaction的个数,如果node×4 + 树的所有节点的子节点个数小于等于 size,则直接返回重新构成的树,否则用compressedTransactionSet构造一个TransactionTree。
最后将压缩的TransactionTree分布出去。
4.2 ParallelFPGrowthReducer
setup中,从Configuration中取到PFPGrowth.PFP_PARAMETERS参数;从DistributedCache中读入feature freq list(需要ensure PFPGrowth.readFList方法读入的文件是否已经按freq从大到小排列好!!!),feature存入到featureReverseMap中,频繁计数值存入到freqList中。
reduce中,对接收到的Transaction列表进行合并,构造一棵新的TransactionTree—cTree;从cTree中导出feature->freq的列表localFList(这个是选用FPGrowth的处理方法时使用的,可以放在条件判断分支中???),记录了所有feature及其freq计数的列表,将localFList的元素按freq计数倒序排列。
判断是用FPGrowthIds还是用FPGrowth进行频繁模式的导出。
FPGrowthIds.generateTopKFreqentPatterns(cTree.iterator(),
freqList,
minSupport,
maxHeapSize,
PFPGrowth.getGroupMembers(key.get(),
maxPerGroup,
numFeatures),
IntegerStringOutputConverter,
ContextStatusUpdater)
首先,将freqList进行截断,只保留频繁度大于minSupport的feature,这个feature列表returnFeatures用于之后的频繁模式的导出;然后构造FPTree,遍历cTree中的所有事务,即树的所有分支,并将这些事务用来构造频繁树。
FPTree.java中添加事物项集到频繁树中的方法:
/**
* Adds an itemset with the given occurrance count.
*/
publicvoid accumulate(IntArrayList argItems, long count) {
// boxed primitive used so we can use custom comparitor in sort
List<Integer> items = Lists.newArrayList();
for (int i = 0; i < argItems.size(); i++) {
items.add(argItems.get(i));
}
/* 对这个transaction中的itemcode根据支持度计数进行排序。 */
Collections.sort(items, attrComparator);
FPNode currNode = root;
for (int i = 0; i < items.size(); i++) {
int item = items.get(i);
long attrCount = 0;
if (item < attrCountList.size())
attrCount = attrCountList.get(item);
/* 只收支持度高于minSupport的 */
if (attrCount < minSupport)
continue;
/* 查看当前节点是否有子节点是item */
FPNode next = currNode.child(item);
/* 如果没有子节点是item,则创建此子节点 */
if (next == null) {
next = new FPNode(currNode, item, count);
currNode.addChild(next);
/* 读item的节点索引 */
List<FPNode> nodeList = (List<FPNode>) attrNodeLists.get(item);
if (nodeList == null) {
nodeList = Lists.newArrayList();
attrNodeLists.put(item, nodeList);
}
nodeList.add(next);
} else {
next.accumulate(count);
}
currNode = next;
}
}
4.3 用频繁模树导出频繁模式。
调用fpGrowth()方法来对每个满足最小支持度的feature进行频繁模式FrequentPatternMaxHeap的导出;对某个feature,从FPTree中导出其频繁模式的growth()方法。
growth()方法,如果当前feature的频繁度计数不够大,则直接返回一个空的FrequentPatternMaxHeap;否则调用FPTree的createMoreFreqConditionalTree方法,找到这个节点出现的所有位置,往根节点扫描,导出路径上的频繁节点,构造一个condTree;然后调用splitSinglePrefix方法,将共享的feature放入到pTree中,底层的feature放到qTree中。
ptree和qtree分别保存往上挖和往下挖频繁模式得到的结果。如下图,从x节点开始挖,ptree包含n,qtree包含x的子节点中的频繁项。
导出的FrequentPatternMaxHeap用TopKPatternsOutputConverter发送出去。结果的存储路径为“fpgrowth”。
5 AggregateMapper
读入fpgrowth中的数据,根据模式中的每个feature将模式及其支持度发送出去。
6 AggregateReducer
对某一个feature,将所有相关的模式进行合并,即可得到最终的频繁模式的结果。
相关推荐
Mahout关联推荐算法是Apache Mahout项目中的一种推荐系统算法,它基于用户的历史行为数据,通过挖掘用户之间的关联性来生成个性化的推荐。在Mahout中,关联推荐算法主要应用于发现用户行为模式,例如用户购买商品A后...
Mahout 聚类算法是数据挖掘和机器学习领域中的一种重要算法,它可以将相似的数据点聚集在一起,以便更好地理解和分析数据。Mahout 聚类算法可以分为多种类型,如 Canopy、KMeans、Fuzzy-KMeans、Spectral Clustering...
在Mahout中,MapReduce被用来并行化计算,处理大量数据以提高推荐算法的效率。Map阶段将输入数据拆分成键值对,Reduce阶段则根据相同的键聚合这些对,并执行必要的计算。 在使用Mahout和MapReduce进行推荐算法的...
mahout中的贝叶斯算法的拓展开发包,提供了相关接口可以供用户调用,直接即可跑出结果,相关运行方式参考blog《mahout贝叶斯算法开发思路(拓展篇)》
mahout有哪些算法,这个图片上列举了mahout上的算法的名字
《Mahout算法解析与案例实战》是一本深入探讨Apache Mahout框架的专著,适合对机器学习感兴趣的开发者和数据科学家阅读。这本书详细介绍了如何利用Mahout进行大规模数据挖掘和预测模型构建,旨在帮助读者理解并掌握...
mahout中bayesian算法的数据流,可以根据excel中的公式来推断出该算法的数据流
Apache Mahout 是一个开源机器学习库,它提供了一系列的算法,用于实现数据挖掘中的聚类、分类和推荐系统。Canopy 算法是 Mahout 中的一种快速聚类方法,适用于大数据集。Canopy 算法是为了解决层次聚类(如 K-Means...
**Apache Mahout 源码解析** Apache Mahout 是一个基于Java的开源机器学习库,旨在简化大规模数据集上的机器学习算法实现。它为开发者提供了一系列预构建的、可扩展的机器学习算法,包括分类、聚类、推荐系统以及...
Mahout算法解析与案例实战_PDF电子书下载 带书签目录 完整版【编辑推荐】, 全面分析Mahout算法库中不同模块中各个算法的原理及其Mahout实现流程, 每个算法都辅之以实战案例,同时还包括4个系统级案例,实战性强, ...
《Mahout推荐算法实战》是一本深度探讨Apache Mahout库在推荐系统开发中的应用书籍。Apache Mahout是一个基于Hadoop的机器学习库,它提供了多种推荐算法,旨在帮助开发者构建大规模的数据挖掘和机器学习系统。这本书...
《基于Java+Mahout的协同过滤推荐算法图书推荐系统源码及项目说明》 本项目是一个采用Java语言开发,结合Apache Mahout库实现的协同过滤推荐算法图书推荐系统。协同过滤是推荐系统中最常见的一种算法,它基于用户的...
Mahout算法解析与案例实战是一本经典的Mahout著作,原理与实战并重。不仅全面分析了Mahout算法库不同模块中的各个算法的原理及其实现流程,而且每个算法都辅之以实战案例。此外,还包括4个系统级案例,实战性非常强...
Mahout算法解析与案例实战是一本经典的Mahout著作,原理与实战并重。不仅全面分析了Mahout算法库不同模块中的各个算法的原理及其实现流程,而且每个算法都辅之以实战案例。此外,还包括4个系统级案例,实战性非常强...
Mahout算法解析与案例实战。全面分析mahout算法库中不同模块中各个算法的原理及其mahout实现流程。
源码仓库中的`MiA-master`包含了《Mahout in Action》一书中的所有示例代码,这对于读者理解和实现书中介绍的算法非常有帮助。你可以跟随这些示例,逐步学习如何使用Mahout进行数据预处理、模型训练和评估。通过实际...
樊哲是Mahout的积极学习者和实践者,他在CSDN上分享了关于Mahout算法的解析与案例实战的博客,获得了“CSDN2013博客之星”的荣誉。樊哲的经验表明,虽然Hadoop平台上算法开发一般需要耗费很长时间,但Mahout已经实现...
本项目是一款集HTML、Java、Scala、JavaScript、Shell和CSS于一体的机器学习算法设计源码,总计包含6041个文件,涵盖3575个HTML文件、1245个Java源文件、284个Scala源文件等多样化文件类型。旨在开发可伸缩的机器...