- 浏览: 75673 次
最新评论
1. 挖掘关联规则
1.1 什么是关联规则
一言蔽之,关联规则是形如 X → Y 的蕴涵式,表示通过 X 可以推导 “ 得到 ” Y ,其中 X 和 Y 分别称为关联规则的先导 (antecedent 或 left-hand-side, LHS) 和后继 (consequent 或 right-hand-side, RHS)
1.2 如何量化关联规则
关联规则挖掘的一个典型例子便是购物车分析。通过关联规则挖掘能够发现顾客放入购物车中 的不同商品之间的关联,分析顾客的消费习惯。这种关联规则的方向能够帮助卖家了解哪些商品被顾客频繁购买,从而帮助他们开发更好的营销策略。比如:将经常 同时购买的商品摆近一些,以便进一步刺激这些商品一起销售;或者,将两件经常同时购买的商品摆远一点,这样可能诱发买这两件商品的用户一路挑选其他商品。
在数据挖掘当中,通常用 “ 支持度 ” ( support )和 “ 置性度 ” ( confidence )两个概念来量化事物之间的关联规则。它们分别反映所发现规则的有用性和确定性。比如:
Computer => antivirus_software , 其中 support=2%, confidence=60%
表示的意思是所有的商品交易中有 2% 的顾客同时买了电脑和杀毒软件,并且购买电脑的顾客中有 60% 也购买了杀毒软件。在关联规则的挖掘过程中,通常会设定最小支持度阈值和最小置性度阈值,如果某条关联规则满足最小支持度阈值和最小置性度阈值,则认为该规则可以给用户带来感兴趣的信息。
1.3 关联规则挖掘过程
1 )几个基本概念:
关联规则 A->B 的支持度 support=P(AB) ,指的是事件 A 和事件 B 同时发生的概率。
置信度 confidence=P(B|A)=P(AB)/P(A), 指的是发生事件 A 的基础上发生事件 B 的概率。
同时满足最小支持度阈值和最小置信度阈值的规则称为强规则 。
如果事件 A 中包含 k 个元素,那么称这个事件 A 为 k 项集, 并且事件 A 满足最小支持度阈值 的事件称为频繁 k 项集 。
2 )挖掘过程:
第一,找出所有的频繁项集;
第二,由频繁项集产生强规则。
2. 什么是 Apriori
2.1 Apriori 介绍
Apriori 算法使用频繁项集的先验知识,使用一种称作逐层搜索的迭代方法, k 项集用于探索 (k+1) 项集。首先,通过扫描事务(交易)记录,找出所有的频繁 1 项集,该集合记做 L1 ,然后利用 L1 找频繁 2 项集的集合 L2 , L2 找 L3 ,如此下去,直到不能再找到任何频繁 k 项集。最后再在所有的频繁集中找出强规则,即产生用户感兴趣的关联规则。
其中, Apriori 算法具有这样一条性质 :任一频繁项集的所有非空子集也必须是频繁的。因为假如 P(I)< 最小支持度阈值,当有元素 A 添加到 I 中时,结果项集( A ∩ I )不可能比 I 出现次数更多。因此 A ∩ I 也不是频繁的。
2.2 连接步和剪枝步
在上述的关联规则挖掘过程的两个步骤中,第一步往往是总体性能的瓶颈。 Apriori 算法采用连接步和剪枝步两种方式来找出所有的频繁项集。
1) 连接步
为找出 Lk (所有的频繁 k 项集的集合),通过将 Lk-1 (所有的频繁 k-1 项集的集合)与自身连接产生候选 k 项集的集合。候选集合记作 Ck 。设 l1 和 l2 是 Lk-1 中的成员。记 li [j] 表示 li 中的第 j 项。假设 Apriori 算法对事务或项集中的项按字典次序排序,即对于( k-1 )项集 li , li [1]<li [2]< ……… .<li [k-1] 。将 Lk-1 与自身连接,如果 (l1 [1]=l2 [1])&&( l1 [2]=l2 [2])&& …… ..&& (l1 [k-2]=l2 [k-2])&&(l1 [k-1]<l2 [k-1]) ,那认为 l1 和 l2 是可连接。连接 l1 和 l2 产生的结果是 {l1 [1],l1 [2], …… ,l1 [k-1],l2 [k-1]} 。
2) 剪枝步
CK 是 LK 的超集,也就是说, CK 的成员可能是也可能不是频繁的。通过扫描所有的事务(交易),确定 CK 中每个候选的计数,判断是否小于最小支持度计数,如果不是,则认为该候选是频繁的。为了压缩 Ck , 可以利用 Apriori 性质: 任一频繁项集的所有非空子集也必须是频繁的,反之,如果某个候选的非空子集不是频繁的,那么该候选肯定不是频繁的,从而可以将其从 CK 中删除。
( Tip :为什么要压缩 CK 呢?因为实际情况下事务记录往往是保存在外存储上,比如数据库或者其他格式的文件上,在每次计算候选计数时都需要将候选与所有事务进行比对,众所周知,访问外存的效率往往都比较低,因此 Apriori 加入了所谓的剪枝步,事先对候选集进行过滤,以减少访问外存的次数。)
2.3 Apriori 算法实例
交易 ID |
商品 ID 列表 |
T100 |
I1 , I2 , I5 |
T200 |
I2 , I4 |
T300 |
I2 , I3 |
T400 |
I1 , I2 , I4 |
T500 |
I1 , I3 |
T600 |
I2 , I3 |
T700 |
I1 , I3 |
T800 |
I1 , I2 , I3 , I5 |
T900 |
I1 , I2 , I3 |
上图为某商场的交易记录,共有 9 个事务,利用 Apriori 算法寻找所有的频繁项集的过程如下 :
详细介绍下候选 3 项集的集合 C3 的产生过程:从连接步,首先 C3={{I1,I2,I3} , {I1,I2,I5} , {I1,I3,I5} , {I2,I3,I4} , {I2,I3,I5} , {I2,I4,I5}} ( C3 是由 L2 与自身连接产生)。根据 Apriori 性质,频繁项集的所有子集也必须频繁的,可以确定有 4 个候选集 {I1,I3,I5} , {I2,I3,I4} , {I2,I3,I5} , {I2,I4,I5}} 不可能时频繁的,因为它们存在子集不属于频繁集,因此将它们从 C3 中删除。注意,由于 Apriori 算法使用逐层搜索技术,给定候选 k 项集后,只需检查它们的( k-1 )个子集是否频繁。
3. Apriori 伪代码
算法: Apriori 输入: D - 事务数据库; min_sup - 最小支持度计数阈值 输出: L - D 中的频繁项集 方法: L1 =find_frequent_1-itemsets(D); // 找出所有频繁 1 项集 For(k=2;Lk-1 !=null;k++){ Ck =apriori_gen(Lk-1 ); // 产生候选,并剪枝 For each 事务 t in D{ // 扫描 D 进行候选计数 Ct =subset(Ck ,t); // 得到 t 的子集 For each 候选 c 属于 Ct c.count++; } Lk ={c 属于 Ck | c.count>=min_sup} } Return L= 所有的频繁集;
Procedure apriori_gen (Lk-1 :frequent(k-1)-itemsets) For each 项集 l1 属于 Lk-1 For each 项集 l2 属于 Lk-1 If( (l1 [1]=l2 [1])&&( l1 [2]=l2 [2])&& …… .. && (l1 [k-2]=l2 [k-2])&&(l1 [k-1]<l2 [k-1]) ) then{ c=l1 连接 l2 // 连接步:产生候选 if has_infrequent_subset(c,Lk-1 ) then delete c; // 剪枝步:删除非频繁候选 else add c to Ck ; } Return Ck;
Procedure has_infrequent_sub (c:candidate k-itemset; Lk-1 :frequent(k-1)-itemsets) For each(k-1)-subset s of c If s 不属于 Lk-1 then Return true; Return false;
|
4. 由频繁项集产生关联规则
Confidence(A->B)=P(B|A)=support_count(AB)/support_count(A)
关联规则产生步骤如下:
1) 对于每个频繁项集 l ,产生其所有非空真子集;
2) 对于每个非空真子集 s, 如果 support_count(l)/support_count(s)>=min_conf ,则输出 s->(l-s) ,其中, min_conf 是最小置信度阈值。
例如,在上述例子中,针对频繁集 {I1 , I2 , I5} 。可以产生哪些关联规则?该频繁集的非空真子集有 {I1 , I2} , {I1 , I5} , {I2 , I5} , {I1 } , {I2} 和 {I5} ,对应置信度如下:
I1&&I2->I5 confidence=2/4=50%
I1&&I5->I2 confidence=2/2=100%
I2&&I5->I1 confidence=2/2=100%
I1 ->I2&&I5 confidence=2/6=33%
I2 ->I1&&I5 confidence=2/7=29%
I5 ->I1&&I2 confidence=2/2=100%
如果 min_conf=70%, 则强规则有 I1&&I5->I2 , I2&&I5->I1 , I5 ->I1&&I2 。
5. Apriori Java 代码
package com.apriori;
import java.util.ArrayList;
import java.util.Collections;
import java.util.HashMap;
import java.util.List;
import java.util.Map;
import java.util.Set;
public class Apriori {
private final static int SUPPORT = 2; // 支持度阈值
private final static double CONFIDENCE = 0.7; // 置信度阈值
private final static String ITEM_SPLIT=";"; // 项之间的分隔符
private final static String CON="->"; // 项之间的分隔符
private final static List<String> transList=new ArrayList<String>(); // 所有交易
static{// 初始化交易记录
transList.add("1;2;5;");
transList.add("2;4;");
transList.add("2;3;");
transList.add("1;2;4;");
transList.add("1;3;");
transList.add("2;3;");
transList.add("1;3;");
transList.add("1;2;3;5;");
transList.add("1;2;3;");
}
public Map<String,Integer> getFC(){
Map<String,Integer> frequentCollectionMap=new HashMap<String,Integer>();// 所有的频繁集
frequentCollectionMap.putAll(getItem1FC());
Map<String,Integer> itemkFcMap=new HashMap<String,Integer>();
itemkFcMap.putAll(getItem1FC());
while(itemkFcMap!=null&&itemkFcMap.size()!=0){
Map<String,Integer> candidateCollection=getCandidateCollection(itemkFcMap);
Set<String> ccKeySet=candidateCollection.keySet();
// 对候选集项进行累加计数
for(String trans:transList){
for(String candidate:ccKeySet){
boolean flag=true;// 用来判断交易中是否出现该候选项,如果出现,计数加 1
String[] candidateItems=candidate.split(ITEM_SPLIT);
for(String candidateItem:candidateItems){
if(trans.indexOf(candidateItem+ITEM_SPLIT)==-1){
flag=false;
break;
}
}
if(flag){
Integer count=candidateCollection.get(candidate);
candidateCollection.put(candidate, count+1);
}
}
}
// 从候选集中找到符合支持度的频繁集项
itemkFcMap.clear();
for(String candidate:ccKeySet){
Integer count=candidateCollection.get(candidate);
if(count>=SUPPORT){
itemkFcMap.put(candidate, count);
}
}
// 合并所有频繁集
frequentCollectionMap.putAll(itemkFcMap);
}
return frequentCollectionMap;
}
private Map<String,Integer> getCandidateCollection(Map<String,Integer> itemkFcMap){
Map<String,Integer> candidateCollection=new HashMap<String,Integer>();
Set<String> itemkSet1=itemkFcMap.keySet();
Set<String> itemkSet2=itemkFcMap.keySet();
for(String itemk1:itemkSet1){
for(String itemk2:itemkSet2){
// 进行连接
String[] tmp1=itemk1.split(ITEM_SPLIT);
String[] tmp2=itemk2.split(ITEM_SPLIT);
String c="";
if(tmp1.length==1){
if(tmp1[0].compareTo(tmp2[0])<0){
c=tmp1[0]+ITEM_SPLIT+tmp2[0]+ITEM_SPLIT;
}
}else{
boolean flag=true;
for(int i=0;i<tmp1.length-1;i++){
if(!tmp1[i].equals(tmp2[i])){
flag=false;
break;
}
}
if(flag&&(tmp1[tmp1.length-1].compareTo(tmp2[tmp2.length-1])<0)){
c=itemk1+tmp2[tmp2.length-1]+ITEM_SPLIT;
}
}
// 进行剪枝
boolean hasInfrequentSubSet = false;
if (!c.equals("")) {
String[] tmpC = c.split(ITEM_SPLIT);
for (int i = 0; i < tmpC.length; i++) {
String subC = "";
for (int j = 0; j < tmpC.length; j++) {
if (i != j) {
subC = subC+tmpC[j]+ITEM_SPLIT;
}
}
if (itemkFcMap.get(subC) == null) {
hasInfrequentSubSet = true;
break;
}
}
}else{
hasInfrequentSubSet=true;
}
if(!hasInfrequentSubSet){
candidateCollection.put(c, 0);
}
}
}
return candidateCollection;
}
private Map<String,Integer> getItem1FC(){
Map<String,Integer> sItem1FcMap=new HashMap<String,Integer>();
Map<String,Integer> rItem1FcMap=new HashMap<String,Integer>();// 频繁 1 项集
for(String trans:transList){
String[] items=trans.split(ITEM_SPLIT);
for(String item:items){
Integer count=sItem1FcMap.get(item+ITEM_SPLIT);
if(count==null){
sItem1FcMap.put(item+ITEM_SPLIT, 1);
}else{
sItem1FcMap.put(item+ITEM_SPLIT, count+1);
}
}
}
Set<String> keySet=sItem1FcMap.keySet();
for(String key:keySet){
Integer count=sItem1FcMap.get(key);
if(count>=SUPPORT){
rItem1FcMap.put(key, count);
}
}
return rItem1FcMap;
}
public Map<String,Double> getRelationRules(Map<String,Integer> frequentCollectionMap){
Map<String,Double> relationRules=new HashMap<String,Double>();
Set<String> keySet=frequentCollectionMap.keySet();
for (String key : keySet) {
double countAll=frequentCollectionMap.get(key);
String[] keyItems = key.split(ITEM_SPLIT);
if(keyItems.length>1){
List<String> source=new ArrayList<String>();
Collections.addAll(source, keyItems);
List<List<String>> result=new ArrayList<List<String>>();
buildSubSet(source,result);// 获得 source 的所有非空子集
for(List<String> itemList:result){
if(itemList.size()<source.size()){// 只处理真子集
List<String> otherList=new ArrayList<String>();
for(String sourceItem:source){
if(!itemList.contains(sourceItem)){
otherList.add(sourceItem);
}
}
String reasonStr="";// 前置
String resultStr="";// 结果
for(String item:itemList){
reasonStr=reasonStr+item+ITEM_SPLIT;
}
for(String item:otherList){
resultStr=resultStr+item+ITEM_SPLIT;
}
double countReason=frequentCollectionMap.get(reasonStr);
double itemConfidence=countAll/countReason;// 计算置信度
if(itemConfidence>=CONFIDENCE){
String rule=reasonStr+CON+resultStr;
relationRules.put(rule, itemConfidence);
}
}
}
}
}
return relationRules;
}
private void buildSubSet(List<String> sourceSet, List<List<String>> result) {
// 仅有一个元素时,递归终止。此时非空子集仅为其自身,所以直接添加到 result 中
if (sourceSet.size() == 1) {
List<String> set = new ArrayList<String>();
set.add(sourceSet.get(0));
result.add(set);
} else if (sourceSet.size() > 1) {
// 当有 n 个元素时,递归求出前 n-1 个子集,在于 result 中
buildSubSet(sourceSet.subList(0, sourceSet.size() - 1), result);
int size = result.size();// 求出此时 result 的长度,用于后面的追加第 n 个元素时计数
// 把第 n 个元素加入到集合中
List<String> single = new ArrayList<String>();
single.add(sourceSet.get(sourceSet.size() - 1));
result.add(single);
// 在保留前面的 n-1 子集的情况下,把第 n 个元素分别加到前 n 个子集中,并把新的集加入到 result 中 ;
// 为保留原有 n-1 的子集,所以需要先对其进行复制
List<String> clone;
for (int i = 0; i < size; i++) {
clone = new ArrayList<String>();
for (String str : result.get(i)) {
clone.add(str);
}
clone.add(sourceSet.get(sourceSet.size() - 1));
result.add(clone);
}
}
}
public static void main(String[] args){
Apriori apriori=new Apriori();
Map<String,Integer> frequentCollectionMap=apriori.getFC();
System.out.println("---------------- 频繁集 "+"----------------");
Set<String> fcKeySet=frequentCollectionMap.keySet();
for(String fcKey:fcKeySet){
System.out.println(fcKey+" : "+frequentCollectionMap.get(fcKey));
}
Map<String,Double> relationRulesMap=apriori.getRelationRules(frequentCollectionMap);
System.out.println("---------------- 关联规则 "+"----------------");
Set<String> rrKeySet=relationRulesMap.keySet();
for(String rrKey:rrKeySet){
System.out.println(rrKey+" : "+relationRulesMap.get(rrKey));
}
}
}
发表评论
-
话题监测与发现之热点新闻发现技术
2013-01-25 09:51 3769最近在帮朋友做一 ... -
【转载】推荐几个数据分析网站
2013-01-04 09:45 1319From http://blog.sina.com.cn/ ... -
数据挖掘只言片语
2013-01-04 09:44 1996写了好几篇关于数据挖掘算法的帖子,都属于技术上的细节贴。这篇文 ... -
【转载】如何预测用户query意图
2013-01-03 17:57 1414From http://www.searchtb.com/20 ... -
关联规则(二)强关联规则一定就是用户感兴趣的规则吗
2012-12-28 08:58 2473关联规则算法 Apriori 表明 , 当蕴含式 A ... -
聚类分析(七)离群点分析
2012-12-28 08:57 5107一、 ... -
聚类分析(六)基于密度的聚类算法 — OPTICS
2012-12-28 08:57 16401 什么是 OPTICS 算法 在前面介绍的 ... -
数据分布倾斜性风险浅析
2012-12-28 08:56 995数据分布倾斜性指的是数据分布过度集中于数据空间的某端, ... -
聚类分析(五)基于密度的聚类算法 — DBSCAN
2012-12-27 15:35 6393一 什么是基于密度的聚类算法 由于层次聚类算法和划分式 ... -
聚类分析(四)层次聚类算法
2012-12-27 15:31 3720层次聚类算法: 前面 ... -
聚类分析(三) K中心点算法(k-mediods)
2012-12-27 15:28 5104K 中心点算法( K-medoids ) ... -
聚类分析(二) K-MEANS
2012-12-27 15:24 2180K-means 算法 一般情况,聚类算法可以划分为 ... -
聚类分析(一) 什么是聚类分析
2012-12-27 15:22 1944将一群物理对 ...
相关推荐
Apriori算法是关联规则挖掘中最经典、最广泛使用的算法之一,由Rakesh Agrawal和Ramakrishnan Srikant在1994年提出。这个算法主要目标是从交易数据库中找出频繁项集和强关联规则。 首先,我们来理解“关联规则”。...
用java实现了关联规则中的Apriori算法
这是以前我做过的一个题,《大型超市购物栏分析》,详细的题目、数据、MATLAB源程序、以及Apriori算法的简介和流程 都在压缩包里面,在这里我就不再赘述了。 Apriori算法进行购物篮关联分析.rar
在“关联规则挖掘Apriori算法的研究与改进”这个主题中,可能涉及了对原始Apriori算法的上述优化策略,以及针对特定问题的新方法。通过阅读提供的PDF文件,我们可以深入理解这些改进是如何实现的,以及它们在实际...
总的来说,"c++实现关联规则Apriori算法"涉及的知识点包括数据挖掘、关联规则学习、Apriori算法、C++编程、VS2010开发环境、数据结构和算法优化。掌握这些知识,将有助于我们开发出适用于各种场景的高效数据挖掘工具...
关联规则简介与Apriori算法
本实验报告主要聚焦于使用Apriori算法进行关联规则挖掘,这是由Rakesh Agrawal和Ramakrishnan Srikant在1994年提出的经典算法。此算法主要应用于零售数据分析,例如发现顾客购买商品之间的关联性。 Apriori算法的...
标题中的“关联规则apriori算法”指的是使用Apriori原理来挖掘数据中的关联规则。关联规则通常表示为“如果事件A发生,那么事件B发生的概率增加”,其中A和B是项集,概率增加的量度由支持度和置信度两个指标衡量。...
Apriori算法是关联规则挖掘中的经典算法,由Rakesh Agrawal和Ramakrishnan Srikant于1994年提出,它的主要思想是基于频繁项集的递归生成和剪枝。 **Apriori算法的基本步骤:** 1. **生成候选集**:首先,算法从...
Apriori算法是一种用于挖掘频繁项集和生成关联规则的经典算法。它基于一个简单的观察:任何频繁项集的所有子集也必须是频繁的。这一观察使得Apriori算法能够有效地减少搜索空间,从而提高效率。Apriori算法主要包括...
关联规则挖掘 Apriori 算法是关联规则挖掘中的一种经典算法。本文对国内外有关 Apriori 算法的研究现状、算法的原理、优化算法的思想进行了探讨,综述了 Apriori 算法的主要优化方法,并指出了 Apriori 算法在实际中...
"关联规则之Apriori算法的一种改进算法" 关联规则挖掘是数据挖掘研究的一个重要分支,Apriori算法是关联规则挖掘中最有影响的经典算法。本文在介绍了关联规则的概念,在分析Apriori算法的基础上提出一种基于划分的...
Apriori算法是一种经典的用于关联规则挖掘的算法,它利用了一个重要的事实:频繁项集的所有非空子集也一定是频繁的。基于这一原则,算法通过迭代的方式,逐层构建候选项集,并计算这些候选项集的支持度来识别频繁项...
这个“1.rar_association_关联规则_关联规则 matlab_关联规则Apriori算法”压缩包文件显然是一个关于使用MATLAB实现Apriori算法的例子。Apriori算法是关联规则学习中最著名的算法之一,由 Agrawal 和 Srikant 在1994...
标题中的“基于Apriori算法的关联规则挖掘系统的设计与实现”揭示了本文的核心主题,主要探讨了如何利用Apriori算法在大数据环境下构建关联规则挖掘系统。关联规则挖掘是数据挖掘领域的一个重要方法,其目标是从大...
数据挖掘中关联规则算法Apriori的java程序
Apriori算法是关联规则挖掘的经典算法之一,由Rajagopalan和Srikant于1994年提出,它基于频繁项集的概念来生成有效的关联规则。 在关联规则挖掘中,我们首先定义一些基本概念。假设我们有一个项集I,包含所有可能的...
总之,Apriori算法是数据挖掘中一种重要的关联规则学习方法,其MATLAB实现可以帮助我们更直观地理解算法并应用于实际数据集。在实际使用中,需要注意选择合适的最小支持度和置信度阈值,以及有效管理内存以避免处理...