`
daweibalong
  • 浏览: 45598 次
  • 性别: Icon_minigender_1
  • 来自: 厦门
社区版块
存档分类
最新评论
文章列表
  梯度下降方法通过学习样本不断修改theta值,使得h(x)不断拟合,今天实验的是一种数学的方式来进行theta值的确定,目的跟之前是一样的,求J(θ)达到最小(极小)值,那么有: 令上式等于0,得: 下面用昨天的实验进行验证: from numpy import * x=mat('[1,1,4;1,2,5;1,5,1;1,4,2]') y=mat('[19,26,19,20]') print (x.T * x).I * x.T * y.T   结果为: [[ -
看了3集斯坦福大学的机器学习课程,很有意思,开始着手回顾以及一些代码的实现,这次做的是批量梯度下降以及随机梯度下降。讲义在 http://cs229.stanford.edu/notes/cs229-notes1.pdf1)批量梯度下降: 2)随机梯度下降:  实验内容借鉴了pennyliang 在CSDN上的博文http://blog.csdn.net/pennyliang/article/details/6998517,假定有这样一个对衣服估价的训练样本,代码中matrix表示,第一列表示色彩的评分,第二列表示对料子质地的评分,例如第一个样本1,4表示这件衣服色彩打1分,料子打4分。我们需 ...
    新浪博客写技术博客太垃圾了,以前总想着将就一下就ok了,但最近写博客越来越不爽!干脆转到这儿来算了,吼吼
Global site tag (gtag.js) - Google Analytics