LDA和HLDA:
(1)D. M. Blei, et al., "Latent Dirichlet allocation," Journal of Machine Learning Research, vol. 3, pp. 993-1022, 2003.
(2)T. L. Griffiths and M. Steyvers, "Finding scientific topics," Proceedings of the National Academy of Sciences, vol. 101, pp. 5228-5235, 2004.
(3)D. M. Blei, et al., "Hierarchical Topic Models and the Nested Chinese Restaurant Process," NIPS, 2003.
(4)Blei的LDA视频教程:http://videolectures.net/mlss09uk_blei_tm/
(5)Teh的关于Dirichlet Processes的视频教程:http://videolectures.net/mlss07_teh_dp/
(6)Blei的毕业论文:http://www.cs.princeton.edu/~blei/papers/Blei2004.pdf
(7)Jordan的报告:http://www.icms.org.uk/downloads/mixtures/jordan_talk.pdf
(8)G. Heinrich, "Parameter Estimation for Text Analysis," http://www.arbylon.net/publications/text-est.pdf
基础知识:
(1)P. Johnson and M. Beverlin, “Beta Distribution,” http://pj.freefaculty.org/ps707/Distributions/Beta.pdf
(2)M. Beverlin and P. Johnson, “The Dirichlet Family,” http://pj.freefaculty.org/stat/Distributions/Dirichlet.pdf
(3)P. Johnson, “Conjugate Prior and Mixture Distributions”, http://pj.freefaculty.org/stat/TimeSeries/ConjugateDistributions.pdf
(4)P.J. Green, “Colouring and Breaking Sticks:Random Distributions and Heterogeneous Clustering”, http://www.maths.bris.ac.uk/~mapjg/papers/GreenCDP.pdf
(5)Y. W. Teh, "Dirichlet Process", http://www.gatsby.ucl.ac.uk/~ywteh/research/npbayes/dp.pdf
(6)Y. W. Teh and M. I. Jordan, "Hierarchical Bayesian Nonparametric Models with Applications,”
http://www.stat.berkeley.edu/tech-reports/770.pdf
(7)T. P. Minka, "Estimating a Dirichlet Distribution", http://research.microsoft.com/en-us/um/people/minka/papers/dirichlet/minka-dirichlet.pdf
(8)北邮论坛的LDA导读:[导读]文本处理、图像标注中的一篇重要论文Latent Dirichlet Allocation,http://bbs.byr.edu.cn/article/PR_AI/2530?p=1
(9)Zhou Li的LDA Note:http://lsa-lda.googlecode.com/files/Latent%20Dirichlet%20Allocation%20note.pdf
(10)C. M. Bishop, “Pattern Recognition And Machine Learning,” Springer, 2006.
代码:
(1)Blei的LDA代码(C):http://www.cs.princeton.edu/~blei/lda-c/index.html
(2)BLei的HLDA代码(C):http://www.cs.princeton.edu/~blei/downloads/hlda-c.tgz
(3)Gibbs LDA(C++):http://gibbslda.sourceforge.net/
(4)Delta LDA(Python):http://pages.cs.wisc.edu/~andrzeje/research/deltaLDA.tgz
(5)Griffiths和Steyvers的Topic Modeling工具箱:http://psiexp.ss.uci.edu/research/programs_data/toolbox.htm
(6)LDA(Java):http://www.arbylon.net/projects/
(7)Mochihashi的LDA(C,Matlab):http://chasen.org/~daiti-m/dist/lda/
(8)Chua的LDA(C#):http://www.mysmu.edu/phdis2009/freddy.chua.2009/programs/lda.zip
(9)Chua的HLDA(C#):http://www.mysmu.edu/phdis2009/freddy.chua.2009/programs/hlda.zip
其他:
(1)S. Geman and D. Geman, "Stochastic Relaxation, Gibbs Distributions, and the Bayesian Restoration of Images," Pattern Analysis and Machine Intelligence, IEEE Transactions on, vol. PAMI-6, pp. 721-741, 1984.
(2)B. C. Russell, et al., "Using Multiple Segmentations to Discover Objects and their Extent in Image Collections," in Computer Vision and Pattern Recognition, 2006 IEEE Computer Society Conference on, 2006, pp. 1605-1614.
(3)J. Sivic, et al., "Discovering objects and their location in images," in Computer Vision, 2005. ICCV 2005. Tenth IEEE International Conference on, 2005, pp. 370-377 Vol. 1.
(4)F. C. T. Chua, "Summarizing Amazon Reviews using Hierarchical Clustering," http://www.mysmu.edu/phdis2009/freddy.chua.2009/papers/amazon.pdf
(5)F. C. T. Chua, "Dimensionality Reduction and Clustering of Text Documents,” http://www.mysmu.edu/phdis2009/freddy.chua.2009/papers/probabilisticIR.pdf
(6)D Bacciu, "Probabilistic Generative Models for Machine Vision," http://www.math.unipd.it/~sperduti/AI09/bacciu_unipd_handouts.pdf
分享到:
相关推荐
本文讨论了一种基于潜在狄利克雷分配(Latent Dirichlet Allocation, LDA)的无监督语言识别方法。该方法旨在从原始语料库中自动识别并排除非目标语言的数据,这对于构建针对新语言的语音合成系统至关重要。研究背景...
主题模型(Latent Dirichlet Allocation,LDA)是一种在文本挖掘领域广泛应用的概率模型,主要用于揭示文档中的潜在主题结构。LDA是基于概率的生成模型,它假设每个文档是由多个主题混合生成的,而每个主题又对应着...
本文的主题是使用带有标签的潜在狄利克雷分配(Labeled Latent Dirichlet Allocation,简称L-LDA)模型进行人类行为识别的研究。L-LDA模型是基于无监督学习的潜在狄利克雷分配(LDA)模型发展而来的,通过在LDA的...
LDA(Latent Dirichlet Allocation)是一种概率图模型,用于在文本数据中发现隐藏的主题结构。它假设每个文档是由多个主题混合而成,而每个主题又由一组特定的词汇组成。LDA的核心理念是通过概率分布来理解文本中的...
R代码_MATLAB的_bayes_LDA_朴素贝叶斯_贝叶斯模型”指的是一个包含多种贝叶斯模型实现的压缩文件,特别是HDP(Hierarchical Dirichlet Process)模型,以及R语言和MATLAB环境下的LDA(Latent Dirichlet Allocation)...
这里我们关注的是“LDA_LDA关键词_主题词提取_”这一主题,它涉及到一种常用的主题建模技术——潜在狄利克雷分配(Latent Dirichlet Allocation, LDA)。LDA是一种统计模型,它能够从文档集合中自动发现隐藏的主题...
LDA(Latent Dirichlet Allocation)算法是一种主题模型,常用于文本挖掘和自然语言处理领域。它通过分析文档中的词频,试图发现隐藏在文本背后的潜在主题,并且每个文档可以由多个主题混合而成。在Python中,我们...
本文介绍了一种基于隐含狄利克雷分配(LDA)的新型层次模型(h-LDA),该模型专为行为识别设计。h-LDA模型通过两层主题来学习人类行为的空间时间模式(Spatial Temporal Patterns, STPs)。模型包含两个主要组成部分...
在这个项目中,我们关注的是"基于LDA模型的电商用户评价分析",这涉及到主题建模(Topic Modeling)中的Latent Dirichlet Allocation(LDA)算法。 LDA是一种概率图模型,主要用于发现文本数据中的隐藏主题。在电商...
LDA(Latent Dirichlet Allocation)主题模型是一种在文本挖掘领域广泛应用的概率主题模型。该模型假设文档是由多个主题组成的,而每个主题又由一系列单词概率分布定义。LDA的核心思想是揭示隐藏在大量文本数据背后...
**主题模型:LDA(Latent Dirichlet Allocation)** LDA,全称为Latent Dirichlet Allocation(潜在狄利克雷分配),是一种基于概率的统计建模方法,广泛应用于文本挖掘、信息检索和自然语言处理领域。它是一种生成...
LDA(Latent Dirichlet Allocation)是一种主题模型,它在自然语言处理和文本挖掘领域广泛应用。本资料整理集合了从基础知识到深入研究的LDA相关资料,旨在帮助读者全面理解这一方法,并能够在此基础上进行自己的...
LDA(Latent Dirichlet Allocation)是一种常用的主题建模方法,主要用于从非结构化的文本数据中发现隐藏的主题结构。它假设文档是由多个主题混合而成,而每个主题又由一系列单词概率分布定义。LDA的核心思想是通过...
Pachinko Allocation Model(PAM)是主题模型中的一种,它在现有的模型基础上提出了改进,尤其在捕捉话题间复杂相关性的能力上。 首先,让我们来介绍PAM模型的核心概念——有向无环图(DAG)。在PAM中,使用DAG结构...
Tomotopy主要实现了LDA(Latent Dirichlet Allocation)和LDA-C(Collaborative Topic Regression)两种主题模型,它们在推荐系统、文本分类和信息检索等领域有着广泛的应用。 LDA是一种概率图模型,假设每个文档是...
8. **扩展模型**:除了LDA,还有其他主题模型,如pLSA(probabilistic Latent Semantic Analysis)、CTM(Correlated Topic Model)和HDP(Hierarchical Dirichlet Process)。每种模型都有其特点和适用场景,了解...
潜在Dirichlet分配(Latent Dirichlet Allocation, LDA)是主题建模领域的一种广泛应用的统计模型,它允许我们从文档集合中发现隐藏的主题结构。而分层Dirichlet过程(Hierarchical Dirichlet Process, HDP)则是无...
LDA(Latent Dirichlet Allocation)是主题建模中广泛应用的一种概率模型,由David Blei等人在2003年提出。LDA的核心思想是将文档视为主题的混合物,而主题则作为词的分布。 在LDA中,我们首先设定一个主题数量,...
这些模型可以是贝叶斯网络(Bayesian Networks),马尔科夫随机场(Markov Random Fields),或者潜在狄利克雷分配(Latent Dirichlet Allocation, LDA)等。例如,“Scalable group level probabilistic sparse factor ...