`
wx1568037608
  • 浏览: 35793 次
最近访客 更多访客>>
文章分类
社区版块
存档分类
最新评论
文章列表
用Python循环创建多个变量, 如创建 a1=   、a2=   、a3=   、a4=   、a5=    或  self.a1=    、self.a2=   、 self.a3= 一. 可以通过python的内置函数locals 来完成 locals是python的内置函数,他可以以字典的方式去访问局部和全局变量。python里面用名字空间记录着变量,就像javascript的window一样,他记录着各种全局变量。每个模块,每个函数都有自己的名字空间,记录着变量,常量,类的命名和值。就像JS一样,当python在使用变量时,会按照下面的步骤去搜索:1、函数或类的局部变量。2、 ...
现代的机器学习系统均利用大量的数据,利用梯度下降算法或者相关的变体进行训练。传统上,最早出现的优化算法是SGD,之后又陆续出现了AdaGrad、RMSprop、ADAM等变体,那么这些算法之间又有哪些区别和联系呢?本文试图对比的介绍目前常用的基于一阶梯度的优化算法,并给出它们的(PyTorch)实现。 SGD 算法描述 随机梯度下降法(Stochastic Gradient Descent,SGD)是对传统的梯度下降算法(Gradient Descent,GD)进行的一种改进。在应用GD时,我们需要对整个训练集进行一次反向传播计算梯度后再进行参数更新,对系统的计算能力和内存的需求较高, ...
描述 Python join() 方法用于将序列中的元素以指定的字符连接生成一个新的字符串。 语法 join()方法语法: str.join(sequence) 参数 sequence -- 要连接的元素序列。 返回值 返回通过指定字符连接序列中元素后生成的新字符串。 实例 以下实例展示了join()的使用方法: 实例(Python 2.0+) #!/usr/bin/python # -*- coding: UTF-8 -*- str = "-"; seq = ("a", "b", "c"); # 字符 ...
在前面两篇文章中,我们用一个框架梳理了各大优化算法,并且指出了以Adam为代表的自适应学习率优化算法可能存在的问题。那么,在实践中我们应该如何选择呢?   本文介绍Adam+SGD的组合策略,以及一些比较有用的tricks.   回顾前文: Adam那么棒,为什么还对SGD念念不忘 (1) Adam那么棒,为什么还对SGD念念不忘 (2)   不同优化算法的核心差异:下降方向   从第一篇的框架中我们看到,不同优化算法最核心的区别,就是第三步所执行的下降方向: 这个式子中,前半部分是实际的学习率(也即下降步长),后半部分是实际的下降方向。SGD算法的下降方向就是该位置的梯度方向的反方 ...
https://wenku.baidu.com/view/5715234adc36a32d7375a417866fb84ae55cc347.html
一、函数的渐近的界   我们在研究算法性能的时候,往往会在意算法的运行时间,而运行时间又与算法输入的规模相关,对于一个算法,我们可以求出运行时间和输入规模的函数,当输入规模足够大时,站在极限的角度看,就可以求出运行时间如何随着输入规模的无限增长而增长。   这种令输入规模无限大 而研究运行时间增长情况的做法,就是在研究算法的渐近效率。 几种符号的直观理解:   Θ,O,Ω的图像表示 Θ(渐近紧确界):若 f ( n ) = Θ ( g ( n )),则存在 c1>0 ,c2 >0,s.t. n→∞时, f ( n )夹在 c1 g ( n )和 c2 ...
Python 字典(Dictionary) get()方法 描述 Python 字典(Dictionary) get() 函数返回指定键的值,如果值不在字典中返回默认值。 语法 get()方法语法: dict.get(key, default=None) 参数 key -- 字典中要查找的键。 default -- 如果指定键的值不存在时,返回该默认值值。 返回值 返回指定键的值,如果值不在字典中返回默认值None。 实例 以下实例展示了 get()函数的使用方法: #!/usr/bin/python dict = {'Name': 'Zara', 'Age': 27} print ...
Θ,读音:theta、西塔;既是上界也是下界(tight),等于的意思。 Ο,读音:big-oh、欧米可荣(大写);表示上界(tightness unknown),小于等于的意思。 ο,读音:small-oh、欧米可荣(小写);表示上界(not tight),小于的意思。 Ω,读音:big omega、欧米伽(大写);表示下界(tightness unknown),大于等于的意思。 ω,读音:small omega、欧米伽(小写);表示下界(not tight),大于的意思。 大O符号(英语:Big O notation)是用于描述函数渐近行为的数学符号。更确切地说,   它是用另一 ...
在计算机编程实现中有常常两种方法:一曰迭代(iterate);二曰递归(recursion)。   从“编程之美”的角度看,可以借用一句非常经典的话:“迭代是人,递归是神!”来从宏观上对二者进行把握。   从概念上讲,递归就是指程序调用自身的编程思想,即一个函数调用本身;迭代是利用已知的变量值,根据递推公式不断演进得到变量新值得编程思想。   从直观上讲,递归是将大问题化为相同结构的小问题,从待求解的问题出发,一直分解到已经已知答案的最小问题为止,然后再逐级返回,从而得到大问题的解(一个非常形象的例子就是分类回归树 classification and regression tree, ...
  阅读目录 隐马尔可夫模型(HMM) 回到目录 隐马尔可夫模型(HMM) 原文地址:http://www.cnblogs.com/jacklu/p/7753471.html 本文结合了王晓刚老师的ENGG 5202 Pattern Recognition课程内容知识,和搜集的资料和自己理解的总结。 1 概述 隐马尔可夫模型(Hidden Markov Model,HMM)是结构最简单的贝叶斯网,这是一种著名的有向图模型,主要用于时序数据建模(语音识别、自然语言处理等数据在时域有依赖性的问题)。 如果考虑t时刻数据依赖于0到t-1时间段的所有数据,即,在计算复杂度上是不可 ...
本文主要内容转载自:http://www.cnblogs.com/skyme/p/4651331.html 和 http://www.cnblogs.com/Denise-hzf/p/6612212.html 并增加了自己的一点总结     HMM(隐马尔可夫模型)   隐马尔可夫模型(Hidden Markov Model,HMM)是统计模型,它用来描述一个含有隐含未知参数的马尔可夫过程。其难点是从可观察的参数中确定该过程的隐含参数。然后利用这些参数来作进一步的分析,例如模式识别。 是在被建模的系统被认为是一个马尔可夫过程与未观测到的(隐藏的)的状态的统计马尔可夫模型。 下面用一个简 ...
\ 这是引用符,用来将这里列出的这些元字符当作普通的字符来进行匹配。例如正则表达式\$被用来匹配美元符号,而不是行尾,类似的,正则表达式\.用来匹配点字符,而不是任何字符的通配符。
jieba “结巴”中文分词:做最好的 Python 中文分词组件 "Jieba" (Chinese for "to stutter") Chinese text segmentation: built to be the best Python Chinese word segmentation module. Scroll down for English documentation. 特点 支持三种分词模式: 精确模式,试图将句子最精确地切开,适合文本分析; 全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义; ...
描述 isinstance() 函数来判断一个对象是否是一个已知的类型,类似 type()。 isinstance() 与 type() 区别: type() 不会认为子类是一种父类类型,不考虑继承关系。 isinstance() 会认为子类是一种父类类型,考虑继承关系。 如果要判断两个类型是否相同推荐使用 isinstance()。 语法 以下是 isinstance() 方法的语法: isinstance(object, classinfo) 参数 object -- 实例对象。 classinfo -- 可以是直接或间接类名、基本类型或者由它们组成的元组。 返回值 ...
“?:”非获取匹配,匹配冒号后的内容但不获取匹配结果,不进行存储供以后使用。 单独的“?”:匹配前面的子表达式零次或一次。 当“?”紧跟在任何一个其他限制符(*,+,?,{n},{n,},{n,m})后面时,匹配模式是非贪婪的。非贪婪模式尽可能少地匹配所搜索的字符串,而默认的贪婪模式则尽可能多地匹配所搜索的字符串。 扩展资料 正则表达式是对字符串(包括普通字符(例如,a 到 z 之间的字母)和特殊字符(称为“元字符”))操作的一种逻辑公式,就是用事先定义好的一些特定字符、及这些特定字符的组合,组成一个“规则字符串”,这个“规则字符串”用来表达对字符串的一种过滤逻辑。正则表达式 ...
Global site tag (gtag.js) - Google Analytics