`
backsnow
  • 浏览: 130935 次
  • 性别: Icon_minigender_1
  • 来自: 广州
社区版块
存档分类
最新评论
文章列表
康奈尔大学做笔记的方法,从此学习工作效率提高100%      5R笔记法,又叫做康乃笔记法,是用产生这种笔记法的大学校名命名的。这一方法几乎适用于一切讲授或阅读课,特别是对于听课笔记,5R笔记法应是最佳首选。这种方法是记与学,思考与运用相结合的有效方法。具体包括以下几个步骤:   1.记录(Record)。在听讲或阅读过程中,在主栏(将笔记本的一页分为左大右小两部分,左侧为主栏,右侧为副栏)内尽量多记有意义的论据、概念等讲课内容。    2.简化(Reduce)。下课以后,尽可能及早将这些论据、概念简明扼要地概括(简化)在回忆栏,
1、日常用语类 sporting house 妓院(不是“体育室”) dead president 美钞(上印有总统头像)(并非“死了的总统”) lover 情人(不是“爱人”)busboy 餐馆勤杂工(不是“公汽售票员”)busybody 爱管闲事的人(不是“大忙人”)dry g ...
作者:刘大鹏   大数据量的问题是很多面试笔试中经常出现的问题,比如baidu google 腾讯 这样的一些涉及到海量数据的公司经常会问到。 下面的方法是我对海量数据的处理方法进行了一个一般性的总结,当然这些方法可能并不能 ...
fail 原来还可以做辜负的意思,  levee system failed the city. 大坝系统辜负了这座城市(新奥尔良). shut down businesses 停掉业务 arm oneselves 武装自己 money exchanger 外币兑换商 He died a hero 他是烈士 committed Christian 虔诚的基督徒 In the wake of 尾随    
 文章首先针对adarank, svm-map提出它们的共同点:均是优化IR measure的上界, 但是前者的界 是基于IR measure,     后者的界是基于最优排序和非最优排序的对,形式为: 仔细观察发现,将PERMU-rank写成类似(9)的形式,和SVMMAP的区别仅仅是把max变成了求和!  这篇文章太扯蛋了...  permurank利用了第二种bound的构造形式,说白了就是仿照SVM-MAP的loss来构造,构造出对第i个查询的loss形式为 对它进行优化.该形式中的B_i和C_i是最大违反约束集,实质是大PI_i*和大PI_i的子集.     这篇文 ...
Inf. Retr. 2010, tendency correlation for direct optimization of evaluation measure in information retrieval.   svm-map与svm-ndcg的区别; lambdarank仅仅是weighted pairwise的方法,从chappelle09年设计的listwise方法中找寻答案; softrank和ndcgboost两者似乎只有两个区别,一个区别是两者对rank position的期望近似方法不同,另一个区别是求解技术不同,前者用gradient descent,后者用b ...

I heart mathematics

链接: http://shirt.woot.com/Blog/ViewEntry.aspx?Id=14093  
链接至: http://www.web20share.com/2010/08/2010-times-best-50.html 《时代》每年都会评选当年度的最佳的50网站,前两天也评选出了本年度的最佳的50个网站。 这次评选出的最佳网站分为十个大类,分别为:分10大类别,分别为音乐视频 ...
colt2010上: Adaptive Bound Optimization for Online Convex Optimization :http://www.colt2010.org/papers/104mcmahan.pdf     colt2010上: Adaptive Subgradient Methods for Online Learning and Stochastic Optimization: http://www.colt2010.org/papers/023Duchi.pdf   nips2009上: adaptive regularization of w ...
Regularized Boost for Semi-Supervised Learning, study/ML/NIPS目录下: 这篇文章沿用了Functional Gradient technique的框架. 在原框架中, 每轮得到的base learner需要使得<-\delta C(F),f> 最大化,这样保证每一轮得到的f都能使C(F)尽可能减小. 文章中找base learner时, 最大化<-\delta C(F),f>+\sum_i \beta_i R_i, 后一项是不同的地方,是regularizer.   文章discussion部分说它与grap ...
 Chapter 2 Overview of Supervised learning 2.1 几个常用且意义相同的术语: inputs在统计类的文献中,叫做predictors, 但经典叫法是independently variables,在模式识别中,叫做feature. outputs,叫做responses, 经典叫法是dependently variables. 2.2 给出了回归和分 ...

svm的复杂度

原始问题的时间复杂度为O(d^3+n*d^2),但是如果不显示求解Hessian矩阵,时间复杂度为O(nd+P), 随机次梯度的时间复杂度是TO(d),对偶的时间解法时间复杂度为O(n_sv^3+n*n_sv^2)
1、首先利用rails depot建立rails应用,进入depot目录 //2、在depot目录下建立数据库 mysqladmin -u root create depot_development 配置应用时,可直接利用命令ranlis --database mysql depot,同时生成与depot应用相关的数据库depot_development 2、测试配置是否无误: rake db:migrate 检查是否能连到数据库,在MySQL下,用mysql -u root depot_development 检查是否能建表:mysql> create table ...
Google的工程师为了方便内部人员使用MapReduce,研发了一种名为Sawzall的DSL,同时Hadoop也推出了类似Sawzall的Pig语言,但在语法上面有一定的区别。今天就给大家贴一下Sawall的论文,值得注意的是其第一作者是UNIX大师之一(Rob Pike) ...
Google的十大核心技术 作者:互联网的那点事 本系列是基于公开资料对Google App Engine是如何实现的这个话题进行深度探讨。而且在切入Google App Engine之前,首先会对Google的核心技术和其整体架构进行分析,以帮助大家之后更好地理 ...
Global site tag (gtag.js) - Google Analytics