Classification
==============
#1. C4.5
Quinlan, J. R. 1993. C4.5: Programs for Machine Learning.
Morgan Kaufmann Publishers Inc.
#2. CART
L. Breiman, J. Friedman, R. Olshen, and C. Stone. Classification and
Regression Trees. Wadsworth, Belmont, CA, 1984.
#3. K Nearest Neighbours (kNN)
Hastie, T. and Tibshirani, R. 1996. Discriminant Adaptive Nearest
Neighbor Classification. IEEE Trans. Pattern
Anal. Mach. Intell. (TPAMI). 18, 6 (Jun. 1996), 607-616.
DOI= http://dx.doi.org/10.1109/34.506411
#4. Naive Bayes
Hand, D.J., Yu, K., 2001. Idiot's Bayes: Not So Stupid After All?
Internat. Statist. Rev. 69, 385-398.
Statistical Learning
====================
#5. SVM
Vapnik, V. N. 1995. The Nature of Statistical Learning
Theory. Springer-Verlag New York, Inc.
#6. EM
McLachlan, G. and Peel, D. (2000). Finite Mixture Models.
J. Wiley, New York.
Association Analysis
====================
#7. Apriori
Rakesh Agrawal and Ramakrishnan Srikant. Fast Algorithms for Mining
Association Rules. In Proc. of the 20th Int'l Conference on Very Large
Databases (VLDB '94), Santiago, Chile, September 1994.
http://citeseer.comp.nus.edu.sg/agrawal94fast.html
#8. FP-Tree
Han, J., Pei, J., and Yin, Y. 2000. Mining frequent patterns without
candidate generation. In Proceedings of the 2000 ACM SIGMOD
international Conference on Management of Data (Dallas, Texas, United
States, May 15 - 18, 2000). SIGMOD '00. ACM Press, New York, NY, 1-12.
DOI= http://doi.acm.org/10.1145/342009.335372
Link Mining
===========
#9. PageRank
Brin, S. and Page, L. 1998. The anatomy of a large-scale hypertextual
Web search engine. In Proceedings of the Seventh international
Conference on World Wide Web (WWW-7) (Brisbane,
Australia). P. H. Enslow and A. Ellis, Eds. Elsevier Science
Publishers B. V., Amsterdam, The Netherlands, 107-117.
DOI= http://dx.doi.org/10.1016/S0169-7552(98)00110-X
#10. HITS
Kleinberg, J. M. 1998. Authoritative sources in a hyperlinked
environment. In Proceedings of the Ninth Annual ACM-SIAM Symposium on
Discrete Algorithms (San Francisco, California, United States, January
25 - 27, 1998). Symposium on Discrete Algorithms. Society for
Industrial and Applied Mathematics, Philadelphia, PA, 668-677.
Clustering
==========
#11. K-Means
MacQueen, J. B., Some methods for classification and analysis of
multivariate observations, in Proc. 5th Berkeley Symp. Mathematical
Statistics and Probability, 1967, pp. 281-297.
#12. BIRCH
Zhang, T., Ramakrishnan, R., and Livny, M. 1996. BIRCH: an efficient
data clustering method for very large databases. In Proceedings of the
1996 ACM SIGMOD international Conference on Management of Data
(Montreal, Quebec, Canada, June 04 - 06, 1996). J. Widom, Ed.
SIGMOD '96. ACM Press, New York, NY, 103-114.
DOI= http://doi.acm.org/10.1145/233269.233324
Bagging and Boosting
====================
#13. AdaBoost
Freund, Y. and Schapire, R. E. 1997. A decision-theoretic
generalization of on-line learning and an application to
boosting. J. Comput. Syst. Sci. 55, 1 (Aug. 1997), 119-139.
DOI= http://dx.doi.org/10.1006/jcss.1997.1504
Sequential Patterns
===================
#14. GSP
Srikant, R. and Agrawal, R. 1996. Mining Sequential Patterns:
Generalizations and Performance Improvements. In Proceedings of the
5th international Conference on Extending Database Technology:
Advances in Database Technology (March 25 - 29, 1996). P. M. Apers,
M. Bouzeghoub, and G. Gardarin, Eds. Lecture Notes In Computer
Science, vol. 1057. Springer-Verlag, London, 3-17.
#15. PrefixSpan
J. Pei, J. Han, B. Mortazavi-Asl, H. Pinto, Q. Chen, U. Dayal and
M-C. Hsu. PrefixSpan: Mining Sequential Patterns Efficiently by
Prefix-Projected Pattern Growth. In Proceedings of the 17th
international Conference on Data Engineering (April 02 - 06,
2001). ICDE '01. IEEE Computer Society, Washington, DC.
Integrated Mining
=================
#16. CBA
Liu, B., Hsu, W. and Ma, Y. M. Integrating classification and
association rule mining. KDD-98, 1998, pp. 80-86.
http://citeseer.comp.nus.edu.sg/liu98integrating.html
Rough Sets
==========
#17. Finding reduct
Zdzislaw Pawlak, Rough Sets: Theoretical Aspects of Reasoning about
Data, Kluwer Academic Publishers, Norwell, MA, 1992
Graph Mining
============
#18. gSpan
Yan, X. and Han, J. 2002. gSpan: Graph-Based Substructure Pattern
Mining. In Proceedings of the 2002 IEEE International Conference on
Data Mining (ICDM '02) (December 09 - 12, 2002). IEEE Computer
Society, Washington, DC.
最终确定的十大算法为以下:C4.5, K-Means, SVM, Apriori, EM, PageRank, AdaBoost, kNN, Naive Bayes, and CART.
分享到:
相关推荐
### 数据挖掘经典算法综述 #### 一、引言 数据挖掘是一门融合了数据库技术、统计学、机器学习等多个领域的综合性学科。随着信息技术的飞速发展,数据挖掘已成为企业和研究机构的重要工具,用于从海量数据中提取有...
在《数据挖掘经典算法大全》中,提到了几种重要的数据挖掘算法,这些算法在解决实际问题时扮演着关键角色。 1. **逻辑回归**(Logistic Regression):这是一种分类算法,通常用于二分类问题,通过构建一个 ...
随着大数据技术的不断进步和数据挖掘技术的深入发展,新的数据挖掘算法和模型仍在不断涌现。数据挖掘领域的研究与应用将会继续扩展,对各类行业产生积极的推动作用。对于相关领域的研究人员和实际工作者来说,理解并...
这是数据挖掘经典算法——Apriori算法(C实现),有详细的注释,希望能够与更多的朋友分享,谢谢!
浅析数据挖掘经典算法之Apriori算法.pdf
第一部分给出了常用数据挖掘算法的介绍资料以及对应的C语言源代码,第二部分给出了实例应用的具体实例,第三部分分享了经典PPT教程。
mongodb 之滴滴、摩拜都在用的索引数据挖掘经典算法案例 本案例选自南京工业大学信息管理与信息系统专业的数据挖掘课程。本课程主要以机器学习入门算法为主,涉及回归、分类、聚类等经典算法。 代码包含四个课程案例...
本资源包含一系列用Java编程语言实现的经典数据挖掘算法,这些算法是数据挖掘领域的基石,对于理解算法原理及应用具有很高的价值。 1. C4.5算法: C4.5是由Ross Quinlan开发的决策树学习算法,是对ID3算法的改进。C...
1、环境的安装与使用2、基本术语与线性回归3、数据挖掘经典算法介绍
数据挖掘是一种从海量数据中提取有价值知识的过程,而Apriori算法是数据挖掘领域中最为经典和基础的关联规则学习算法之一。它由Raghu Ramakrishnan和Ganesh Raghavan在1994年提出,主要用于发现数据库中频繁项集以及...
通过阅读和理解这段代码,你可以更深入地了解Apriori算法的内部工作原理,并可能对其进行修改或扩展以适应不同的数据挖掘任务。对于学习数据挖掘或者关联规则挖掘的初学者,这是一个很好的实践资源。
本文重点讨论了数据挖掘中的经典算法,以及这些算法的应用和未来的发展趋势。 首先,数据挖掘的关联分析(频繁模式、关联和相关)是数据挖掘的重要组成部分,它主要致力于发现数据集中有趣的关联和相关关系。频繁...
IEEE评出的十大数据挖掘算法,包括C4.5、K-means、SVM等,都是在数据挖掘领域具有代表性和重要影响的算法。 在深入探讨这些算法之前,需要了解数据挖掘的一些基本概念和方法。数据挖掘通常包括几个关键任务:分类、...
数据挖掘十大经典机器学习算法,国际权威的学术组织 the IEEE International Conference on Data Mining (ICDM) 2006 年 12 月评选出了数据挖掘领域的十大经典算法: C4.5, k-Means, SVM, Apriori, EM, PageRank, ...
本书作为国内第一本对数据挖掘技术基础算法进行详细描述的实用性教材,旨在为读者提供数据挖掘原理的介绍以及实用的数据挖掘经典算法。 在数据挖掘领域,本书共分为九个章节,内容涵盖了数据挖掘的各个方面。第1章...
这份“数据挖掘资料(经典算法)”压缩包包含了对数据挖掘领域核心算法的深入讲解,对于学习者来说是一份非常宝贵的资源。下面我们将详细探讨这些经典算法以及它们在实际应用中的价值。 首先,数据挖掘通常分为三大...