2006年11月16日 上午 06:50:00
发表者:Google 研究员,吴军
我们上次谈到用最大熵模型可以将各种信息综合在一起。我们留下一个问题没有回答,就是如何构造最大熵模型。我们已经所有的最大熵模型都是指数函数的形式,现在只需要确定指数函数的参数就可以了,这个过程称为模型的训练。
最原始的最大熵模型的训练方法是一种称为通用迭代算法 GIS(generalized iterative scaling) 的迭代 算法。GIS 的原理并不复杂,大致可以概括为以下几个步骤:
1. 假定第零次迭代的初始模型为等概率的均匀分布。
2. 用第 N 次迭代的模型来估算每种信息特征在训练数据中的分布,如果超过了实际的,就把相应的模型参数变小;否则,将它们便大。
3. 重复步骤 2 直到收敛。
GIS 最早是由 Darroch 和 Ratcliff 在七十年代提出的。但是,这两人没有能对这种算法的物理含义进行很好地解释。后来是由数学家希萨(Csiszar)解释清楚的,因此,人们在谈到这个算法时,总是同时引用 Darroch 和Ratcliff 以及希萨的两篇论文。GIS 算法每次迭代的时间都很长,需要迭代很多次才能收敛,而且不太稳定,即使在 64 位计算机上都会出现溢出。因此,在实际应用中很少有人真正使用 GIS。大家只是通过它来了解最大熵模型的算法。
八十年代,很有天才的孪生兄弟的达拉皮垂(Della Pietra)在 IBM 对 GIS 算法进行了两方面的改进,提出了改进迭代算法 IIS(improved iterative scaling)。这使得最大熵模型的训练时间缩短了一到两个数量级。这样最大熵模型才有可能变得实用。即使如此,在当时也只有 IBM 有条件是用最大熵模型。
由于最大熵模型在数学上十分完美,对科学家们有很大的诱惑力,因此不少研究者试图把自己的问题用一个类似最大熵的近似模型去套。谁知这一近似,最大熵模型就变得不完美了,结果可想而知,比打补丁的凑合的方法也好不了多少。于是,不少热心人又放弃了这种方法。第一个在实际信息处理应用中验证了最大熵模型的优势的,是宾夕法尼亚大学马库斯的另一个高徒原 IBM 现微软的研究员拉纳帕提(Adwait Ratnaparkhi)。拉纳帕提的聪明之处在于他没有对最大熵模型进行近似,而是找到了几个最适合用最大熵模型、而计算量相对不太大的自然语言处理问题,比如词性标注和句法分析。拉纳帕提成功地将上下文信息、词性(名词、动词和形容词等)、句子成分(主谓宾)通过最大熵模型结合起来,做出了当时世界上最好的词性标识系统和句法分析器。拉纳帕提的论文发表后让人们耳目一新。拉纳帕提的词性标注系统,至今仍然是使用单一方法最好的系统。科学家们从拉纳帕提的成就中,又看到了用最大熵模型解决复杂的文字信息处理的希望。
但是,最大熵模型的计算量仍然是个拦路虎。我在学校时花了很长时间考虑如何简化最大熵模型的计算量。终于有一天,我对我的导师说,我发现一种数学变换,可以将大部分最大熵模型的训练时间在 IIS 的基础上减少两个数量级。我在黑板上推导了一个多小时,他没有找出我的推导中的任何破绽,接着他又回去想了两天,然后告诉我我的算法是对的。从此,我们就建造了一些很大的最大熵模型。这些模型比修修补补的凑合的方法好不少。即使在我找到了快速训练算法以后,为了训练一个包含上下文信息,主题信息和语法信息的文法模型(language model),我并行使用了 20 台当时最快的 SUN 工作站,仍然计算了三个月。由此可见最大熵模型的复杂的一面。最大熵模型快速算法的实现很复杂,到今天为止,世界上能有效实现这些算法的人也不到一百人。有兴趣实现一个最大熵模型的读者可以阅读我的论文。
最大熵模型,可以说是集简与繁于一体,形式简单,实现复杂。值得一提的是,在Google的很多产品中,比如机器翻译,都直接或间接地用到了最大熵模型。
讲到这里,读者也许会问,当年最早改进最大熵模型算法的达拉皮垂兄弟这些年难道没有做任何事吗?他们在九十年代初贾里尼克离开 IBM 后,也退出了学术界,而到在金融界大显身手。他们两人和很多 IBM 语音识别的同事一同到了一家当时还不大,但现在是世界上最成功对冲基金(hedge fund)公司----文艺复兴技术公司 (Renaissance Technologies)。我们知道,决定股票涨落的因素可能有几十甚至上百种,而最大熵方法恰恰能找到一个同时满足成千上万种不同条件的模型。达拉皮垂兄弟等科学家在那里,用于最大熵模型和其他一些先进的数学工具对股票预测,获得了巨大的成功。从该基金 1988 年创立至今,它的净回报率高达平均每年 34%。也就是说,如果 1988 年你在该基金投入一块钱,今天你能得到 200 块钱。这个业绩,远远超过股神巴菲特的旗舰公司伯克夏哈撒韦(Berkshire Hathaway)。同期,伯克夏哈撒韦的总回报是 16 倍。
值得一提的是,信息处理的很多数学手段,包括隐含马尔可夫模型、子波变换、贝叶斯网络等等,在华尔街多有直接的应用。由此可见,数学模型的作用。
分享到:
相关推荐
最大熵模型是基于最大熵原理的一种概率模型学习方法,它的核心思想是选择随机变量的统计特性最符合客观情况的分布,即熵最大化分布。这种方法可以应用于分类问题,将最大熵原理推广到分类问题就得到了最大熵模型。 ...
最大熵模型(maximum entropy model, MaxEnt)也是很典型的分类算法了,它和逻辑回归类似,都是属于对数线性分类模型。在损失函数优化的过程中,使用了和支持向量机类似的凸优化...本文就对最大熵模型的原理做一个小结。
最大熵模型的核心思想是通过最大化熵来构建模型,熵是一个衡量系统不确定性的度量,对于分类问题,这意味着在没有额外信息的情况下,模型应尽可能地保持不确定性。模型的构建通常涉及以下几个步骤: 1. **特征选择*...
最大熵模型,全称为最大熵马尔科夫模型(MaxEnt Markov Model),是一种在概率模型中广泛应用的统计学习方法。该模型的核心思想是,在所有可能的概率分布中,选择熵最大的那个,以此来保证模型的预测不确定性最小,...
最大熵模型是一种在统计学和机器学习领域广泛应用的概率模型,其基本思想是寻找最不确定的分布,即熵最大的概率模型,同时满足已知的先验条件。这种模型能够充分利用有限的训练数据,避免过拟合问题,从而在各种任务...
机器学习是人工智能的一个重要分支, maximum entropy 模型(最大熵模型)是一个基本的机器学习算法。本文将通过 Python 实现最大熵模型,揭开机器学习的面纱。 一、最大熵模型简介 最大熵模型是一种常用的机器...
最大熵模型(MaxEnt Model)是一种在统计学习理论中广泛使用的概率模型,特别是在自然语言处理领域,用于诸如文本分类、词性标注、句法分析等任务。它的核心思想是通过最大化熵来寻找最不确定但又与观测数据一致的...
最大熵模型(MaxEnt,全称为Maximum Entropy Modeling)是一种统计学方法,广泛应用于各种领域,包括信息检索、自然语言处理、生物信息学等。在生态学中,它被用作物种分布模型(Species Distribution Models,SDMs...
自然语言处理中的最大熵模型是一种广泛应用的统计方法,尤其在汉语信息处理中具有显著优势。最大熵模型(Maximum Entropy Model, MEM)以其控制细微特征的能力、可重用性、简单性和易理解性而受到青睐。该模型首次被...
最大熵模型(MaxEnt Model)是一种在统计学和机器学习领域广泛应用的概率模型。它基于最大熵原理,即在满足一定约束条件的情况下,选择具有最大熵的分布,因为最大熵的分布对未知信息提供了最少的假设,体现了“无偏...
最大熵模型代码
当我们在有限的数据条件下构建模型时,最大熵模型能够提供最不偏见的概率分布,即在满足所有已知约束条件的情况下,选择熵最大的概率分布。 首先,我们要理解熵的基本概念。熵是信息论中的核心概念,由克劳德·香农...
最大熵模型可以被视为极大似然估计的一个特例,在某些条件下,最大熵模型与极大似然估计相等。 #### EM算法 **EM算法(Expectation-Maximization Algorithm)**是一种迭代算法,用于求解含有隐变量的概率模型的...
Maxent最大熵模型是一种广泛应用的生态学预测工具,主要用于研究物种分布、生态系统的适生区以及环境变量对这些分布的影响。这个压缩包包含了运行Maxent模型所需的各种组件,包括Java安装包、Maxent模型的执行文件...
数学之美系列完整版是由吴军,Google研究员编写的一系列关于数学在自然语言处理和信息检索中的应用。这系列文章涵盖了统计语言模型、中文分词、隐含马尔科夫模型、信息论、图论、网络爬虫、有限状态机、信息指纹、...
介绍matlab中最大熵模型及解法,并进行详细介绍和学习!