- 浏览: 45598 次
- 性别:
- 来自: 厦门
最新评论
-
muyinliu:
第一个例子写错了。
Common Lisp状况系统(condition system)的学习和理解
文章列表
梯度下降方法通过学习样本不断修改theta值,使得h(x)不断拟合,今天实验的是一种数学的方式来进行theta值的确定,目的跟之前是一样的,求J(θ)达到最小(极小)值,那么有:
令上式等于0,得:
下面用昨天的实验进行验证:
from numpy import *
x=mat('[1,1,4;1,2,5;1,5,1;1,4,2]')
y=mat('[19,26,19,20]')
print (x.T * x).I * x.T * y.T
结果为:
[[ -
看了3集斯坦福大学的机器学习课程,很有意思,开始着手回顾以及一些代码的实现,这次做的是批量梯度下降以及随机梯度下降。讲义在 http://cs229.stanford.edu/notes/cs229-notes1.pdf1)批量梯度下降: 2)随机梯度下降: 实验内容借鉴了pennyliang 在CSDN上的博文http://blog.csdn.net/pennyliang/article/details/6998517,假定有这样一个对衣服估价的训练样本,代码中matrix表示,第一列表示色彩的评分,第二列表示对料子质地的评分,例如第一个样本1,4表示这件衣服色彩打1分,料子打4分。我们需 ...