- 浏览: 1307430 次
- 性别:
- 来自: 江苏
最新评论
-
honey_fansy:
的确,不要自己的支持就说完美支持,我的就不行,别说我的不是fi ...
无js实现text-overflow: ellipsis; 完美支持Firefox -
fanchengfei:
事件长微博,欢迎转发:http://weibo.com/332 ...
《在路上 …》 写代码也需要一点演技 – python2.6 的 class decorator -
blued:
没有报错,但排版效果一点都没有 咋回事。请指教
python排版工具 -
szxiaoli:
耍人呀,效果在哪儿呀
滑动效果 -
accaolei:
这个能监到控子目录吗?,我测试了一下,发现子目录里的文件监控不 ...
windows监控目录改动
2009-05-19 14:10:38
#!/usr/bin/env python
#coding:utf-8
#不少文本引用自
#http://blog.csdn.net/Felomeng/archive/2009/04/09/4058669.aspx
#和其他等等地方
from svm import *
#一个有3个类的问题
labels = [0, 1, 1, 2]
samples = [0, 0], [0, 1], [1, 0], [1, 1]
"""
可以理解为这个图
B-C
| |
A-B
"""
problem = svm_problem(labels, samples)
#结构体svm_problem将问题形式化:
#struct svm_problem
#{
# int l;
# double *y;
# struct svm_node **x;
#};
#
#
#其中“l”表示训练数据的实例数,
#而“y”是一个数组,用于存放它们的目标值。(类型值用整型数据,回归值用实数)
#“x”是一个数组指针,每一个指针指向一个稀疏的训练向量(即一个svm_node数组)。
#
#例如,如果我们有如下的训练数据:
#
#
#LABEL ATTR1 ATTR2 ATTR3 ATTR4 ATTR5
#----- ----- ----- ----- ----- -----
# 1 0 0.1 0.2 0 0
# 2 0 0.1 0.3 -1.2 0
# 1 0.4 0 0 0 0
# 2 0 0.1 0 1.4 0.5
# 3 -0.1 -0.2 0.1 1.1 0.1
#
#
#于是svm_problem的构成如下:
#l = 5
#y -> 1 2 1 2 3
#x -> [ ] -> (2,0.1) (3,0.2) (-1,?)
# [ ] -> (2,0.1) (3,0.3) (4,-1.2) (-1,?)
# [ ] -> (1,0.4) (-1,?)
# [ ] -> (2,0.1) (4,1.4) (5,0.5) (-1,?)
# [ ] -> (1,-0.1) (2,-0.2) (3,0.1) (4,1.1) (5,0.1) (-1,?)
#
#其中(索引,值)存储在结构“svm_node”中:
#struct svm_node{
# int index;
# double value;
#};
#
#当索引为-1时表示已经到达向量的末端。注意索引必须“升序”排列。
size = len(samples)
param = svm_parameter(C = 10, nr_weight = 2, weight_label = [1, 0], weight = [10, 1])
#结构体svm_parameter描述了一个支持向量机的参数:
#struct svm_parameter
#{
# int svm_type;
#
#svm_type可以是C_SVC、NU_SVC、ONE_CLASS、EPSILON_SVR或NU_SVR其中的一种。
#C_SVC: C-SVM 分类
#NU_SVC: nu-SVM 分类
#ONE_CLASS: one-class-SVM
#EPSILON_SVR: epsilon-SVM回归
#NU_SVR: nu-SVM回归
#
# int kernel_type;
#
#kernel_type可以是LINEAR、POLY、RBF、SIGMOID其中一种。
#LINEAR: u'*v
#POLY: (gamma*u'*v + coef0)^degree
#RBF: exp(-gamma*|u-v|^2)
#SIGMOID: tanh(gamma*u'*v + coef0)
#PRECOMPUTED:训练集文件中的核心值
#
# int degree; /* for poly */
# double gamma; /* for poly/rbf/sigmoid */
# double coef0; /* for poly/sigmoid */
#
# /* these are for training only */
# double cache_size; /* in MB */
#cache_size是核心缓存的大小,单位为MB。C是违背约束成本(惩罚值)。eps是结束条件。(一般地,我们在nu-SVC模型中使用0.00001,在其它模型中使用0.001)。nu是nu-SVM、nu-SVR与one-class-SVM中的一个参数。p 是epsilon-SVM回归对epsilon不敏感函数的epsilon值。shirnking = 1表示使用压缩,否则 = 0。 probability = 1表示得到带概率信息的模型,否则 = 0。
#
# double eps; /* stopping criteria */
#
# double C; /* for C_SVC, EPSILON_SVR, and NU_SVR */
#
# int nr_weight; /* for C_SVC */
# int *weight_label; /* for C_SVC */
# double* weight; /* for C_SVC */
#nr_weight、weight_label和weight(权重)用于改变某些类的惩罚因子(如果一个类的权重不变,则将权重值设定为1)这在使用不均衡输入数据或使用不均匀错误成本训练分类器时尤其有用。
#
#nr_weight是数组weight_label和weight中的元素个数。每个weight[i]对应一个weight_label[i],表示类weight_label[i]的惩罚是由因子weight[i]确定的。
#
#如果不想改变任何类的惩罚因子,那么只需要将nr_weight设定为0。
#
#Z注:这个可以用来调整 召回率 和 准确率
#
# double nu; /* for NU_SVC, ONE_CLASS, and NU_SVR */
# double p; /* for EPSILON_SVR */
# int shrinking; /* use the shrinking heuristics */
# int probability; /* do probability estimates */
#};
#
#
#
#*注意*因为svm_model含有指向svm_problem的指针,如果仍要使用由svm_train()产生的svm_model,那么就不要释放svm_problem的内存。
#
#*注意*为了避免错误的参数,在调用svm_train()之前应该先调用svm_check_parameter()。
#这是几个经典核函数
#有资料说 对于文本这样的高维数据 用简单的线性核函数就又快又好
kernels = [LINEAR, POLY, RBF]
kname = ['linear', 'polynomial', 'rbf']
for name, k in zip(kname, kernels):
print "---"*10, "训练:", name, "---"*10
param.kernel_type = k
#这个函数根据给定的参数和训练数据构建并返回一个支持向量机模型。
model = svm_model(problem, param)
errors = 0
print "=== 分类 ==="
for i in range(size):
thing = samples[i]
#Ok,这就分类了
prediction = model.predict(thing)
print "%s -> %s"%(thing, prediction)
if (labels[i] != prediction):
errors = errors + 1
print "核函数 %s: 错误率 = %d / %d" % (kname[param.kernel_type], errors, size)
print ">>>"*10
print "---"*10, "阴阳距:", name, "---"*10
param = svm_parameter(kernel_type = RBF, C=10)
model = svm_model(problem, param)
print "%s" % (samples[1])
print "类别数:", model.get_nr_class()
#根据libsvm的原理,他是先对一个训练集进行建模,在高维映射空间中形成一个超平面。然后再输入测试集,再对测试集根据 f(x)=wx+b 公式进行计算,如果>0,则归为阳性,反之则为阴性。根据他这个原理,那么我每个输入的训练集都应该有个 f(x) 值。
d = model.predict_values(samples[1])
for i in model.get_labels():
for j in model.get_labels():
if j > i:
print "{%d, %d} = %9.5f" % (i, j, d[i, j])
print "---"*10, "置信率:", name, "---"*10
param = svm_parameter(kernel_type = RBF, C=10, probability = 1)
model = svm_model(problem, param)
pred_label, pred_probability = model.predict_probability(samples[1])
print "%s" % (samples[1])
print "predicted class: %d" % (pred_label)
for i in model.get_labels():
print "类 %d 置信率 %f" % (i, pred_probability[i])
print "总概率 为 %s"%sum(pred_probability.itervalues())
#PRECOMPUTED: kernel values in training_set_file
#从一个训练文件中读取的核函数
print "---"*10, "文件中的核函数:", name, "---"*10
samples = [1, 0, 0, 0, 0], [2, 0, 1, 0, 1], [3, 0, 0, 1, 1], [4, 0, 1, 1, 2]
problem = svm_problem(labels, samples);
param = svm_parameter(kernel_type=PRECOMPUTED,C = 10,nr_weight = 2,weight_label = [1,0],weight = [10,1])
model = svm_model(problem, param)
pred_label = model.predict(samples[0])
print "%s %s"%(samples[0],pred_label)
"""
libsvm里面分类除了跟kernel_type有关还和许多其他参数有关,可以采用libsvm附带的easy.py工具调整参数,各个参数意义在包内的README文件里有说明,也可以参考http://www.csie.ntu.edu.tw/~cjlin/papers/guide/guide.pdf,
此外,这个入门http://ntu.csie.org/~piaip/svm/svm_tutorial.html也不错
http://huangbo929.blog.edu.cn/sort/?act=search&keyword=SVM
这里也有不少不错的文章
比如
http://huangbo929.blog.edu.cn/2008/64686.html
SVM String Kernel 核函数介绍 (2008-07-03 09:38)
http://huangbo929.blog.edu.cn/2008/64689.html
如何使用SVM基于Suffix Array的String Kernel核函数 (2008-07-03 10:07)
http://huangbo929.blog.edu.cn/2008/64688.html
the fastest SVM learning algorithm:最快的SVM算法 (2008-07-03 10:04)
http://huangbo929.blog.edu.cn/2008/64687.html
Tree Kernel SVM 介绍 (2008-07-03 09:41)
等等
"""
------------------------------------------------------------
程序输出
------------------------------------------------------------
~/svm/libsvm_study/python $ python svm_test.py
------------------------------ 训练: linear ------------------------------
.....*..*
optimization finished, #iter = 22
obj = -3.999999, rho = -0.999349
nSV = 3, nBSV = 0
*
optimization finished, #iter = 1
nu = 0.100000
obj = -1.000000, rho = -1.000000
nSV = 2, nBSV = 0
*
optimization finished, #iter = 2
obj = -4.000000, rho = -3.000000
nSV = 3, nBSV = 0
Total nSV = 4
=== 分类 ===
[0, 0] -> 0.0
[0, 1] -> 1.0
[1, 0] -> 1.0
[1, 1] -> 2.0
核函数 linear: 错误率 = 0 / 4
>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>
------------------------------ 训练: polynomial ------------------------------
*
optimization finished, #iter = 2
obj = -16.875000, rho = 0.375000
nSV = 3, nBSV = 1
*
optimization finished, #iter = 1
nu = 0.200000
obj = -2.000000, rho = -1.000000
nSV = 2, nBSV = 0
.*.*
optimization finished, #iter = 6
obj = -2.461538, rho = -1.153547
nSV = 3, nBSV = 0
Total nSV = 4
=== 分类 ===
[0, 0] -> 1.0
[0, 1] -> 1.0
[1, 0] -> 1.0
[1, 1] -> 2.0
核函数 polynomial: 错误率 = 1 / 4
>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>
------------------------------ 训练: rbf ------------------------------
..*.*
optimization finished, #iter = 9
obj = -4.247381, rho = 0.671181
nSV = 3, nBSV = 0
*
optimization finished, #iter = 1
nu = 0.158198
obj = -1.581977, rho = 0.000000
nSV = 2, nBSV = 0
.*.*
optimization finished, #iter = 7
obj = -4.247381, rho = -0.671133
nSV = 3, nBSV = 0
Total nSV = 4
=== 分类 ===
[0, 0] -> 0.0
[0, 1] -> 1.0
[1, 0] -> 1.0
[1, 1] -> 2.0
核函数 rbf: 错误率 = 0 / 4
>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>
------------------------------ 阴阳距: rbf ------------------------------
..*.*
optimization finished, #iter = 9
nu = 0.283131
obj = -4.247381, rho = 0.671181
nSV = 3, nBSV = 0
*
optimization finished, #iter = 1
nu = 0.158198
obj = -1.581977, rho = 0.000000
nSV = 2, nBSV = 0
.*.*
optimization finished, #iter = 7
nu = 0.283090
obj = -4.247381, rho = -0.671133
nSV = 3, nBSV = 0
Total nSV = 4
[0, 1]
类别数: 3
{0, 1} = -1.00013
{0, 2} = 0.00000
{1, 2} = 0.99936
------------------------------ 置信率: rbf ------------------------------
.*.*
optimization finished, #iter = 7
nu = 0.283090
obj = -4.247381, rho = -0.671133
nSV = 3, nBSV = 0
Total nSV = 3
*
optimization finished, #iter = 1
nu = 0.254149
obj = -2.541494, rho = 0.000000
nSV = 2, nBSV = 0
Total nSV = 2
.*.*
optimization finished, #iter = 7
nu = 0.283090
obj = -4.247381, rho = -0.671133
nSV = 3, nBSV = 0
Total nSV = 3
*
optimization finished, #iter = 1
nu = 0.254149
obj = -2.541494, rho = 0.000000
nSV = 2, nBSV = 0
Total nSV = 2
..*.*
optimization finished, #iter = 9
nu = 0.283131
obj = -4.247381, rho = 0.671181
nSV = 3, nBSV = 0
*
optimization finished, #iter = 1
nu = 0.158198
obj = -1.581977, rho = 0.000000
nSV = 2, nBSV = 0
Total nSV = 2
*
optimization finished, #iter = 1
nu = 0.158198
obj = -1.581977, rho = 0.000000
nSV = 2, nBSV = 0
Total nSV = 2
*
optimization finished, #iter = 1
nu = 0.158198
obj = -1.581977, rho = 0.000000
nSV = 2, nBSV = 0
Total nSV = 2
*
optimization finished, #iter = 1
nu = 0.158198
obj = -1.581977, rho = 0.000000
nSV = 2, nBSV = 0
.*.*
optimization finished, #iter = 7
nu = 0.283090
obj = -4.247381, rho = -0.671133
nSV = 3, nBSV = 0
Total nSV = 3
*
optimization finished, #iter = 1
nu = 0.254149
obj = -2.541494, rho = 0.000000
nSV = 2, nBSV = 0
Total nSV = 2
.*.*
optimization finished, #iter = 7
nu = 0.283090
obj = -4.247381, rho = -0.671133
nSV = 3, nBSV = 0
Total nSV = 3
*
optimization finished, #iter = 1
nu = 0.254149
obj = -2.541494, rho = 0.000000
nSV = 2, nBSV = 0
Total nSV = 2
.*.*
optimization finished, #iter = 7
nu = 0.283090
obj = -4.247381, rho = -0.671133
nSV = 3, nBSV = 0
Total nSV = 4
[0, 1]
predicted class: 0
类 0 置信率 0.400236
类 1 置信率 0.199806
类 2 置信率 0.399958
总概率 为 1.0
------------------------------ 文件中的核函数: rbf ------------------------------
.....*..*
optimization finished, #iter = 22
obj = -3.999999, rho = -0.999349
nSV = 3, nBSV = 0
*
optimization finished, #iter = 1
nu = 0.100000
obj = -1.000000, rho = -1.000000
nSV = 2, nBSV = 0
*
optimization finished, #iter = 2
obj = -4.000000, rho = -3.000000
nSV = 3, nBSV = 0
Total nSV = 4
[1, 0, 0, 0, 0] 0.0
zuroc@aragorn ~/svm/
#!/usr/bin/env python
#coding:utf-8
#不少文本引用自
#http://blog.csdn.net/Felomeng/archive/2009/04/09/4058669.aspx
#和其他等等地方
from svm import *
#一个有3个类的问题
labels = [0, 1, 1, 2]
samples = [0, 0], [0, 1], [1, 0], [1, 1]
"""
可以理解为这个图
B-C
| |
A-B
"""
problem = svm_problem(labels, samples)
#结构体svm_problem将问题形式化:
#struct svm_problem
#{
# int l;
# double *y;
# struct svm_node **x;
#};
#
#
#其中“l”表示训练数据的实例数,
#而“y”是一个数组,用于存放它们的目标值。(类型值用整型数据,回归值用实数)
#“x”是一个数组指针,每一个指针指向一个稀疏的训练向量(即一个svm_node数组)。
#
#例如,如果我们有如下的训练数据:
#
#
#LABEL ATTR1 ATTR2 ATTR3 ATTR4 ATTR5
#----- ----- ----- ----- ----- -----
# 1 0 0.1 0.2 0 0
# 2 0 0.1 0.3 -1.2 0
# 1 0.4 0 0 0 0
# 2 0 0.1 0 1.4 0.5
# 3 -0.1 -0.2 0.1 1.1 0.1
#
#
#于是svm_problem的构成如下:
#l = 5
#y -> 1 2 1 2 3
#x -> [ ] -> (2,0.1) (3,0.2) (-1,?)
# [ ] -> (2,0.1) (3,0.3) (4,-1.2) (-1,?)
# [ ] -> (1,0.4) (-1,?)
# [ ] -> (2,0.1) (4,1.4) (5,0.5) (-1,?)
# [ ] -> (1,-0.1) (2,-0.2) (3,0.1) (4,1.1) (5,0.1) (-1,?)
#
#其中(索引,值)存储在结构“svm_node”中:
#struct svm_node{
# int index;
# double value;
#};
#
#当索引为-1时表示已经到达向量的末端。注意索引必须“升序”排列。
size = len(samples)
param = svm_parameter(C = 10, nr_weight = 2, weight_label = [1, 0], weight = [10, 1])
#结构体svm_parameter描述了一个支持向量机的参数:
#struct svm_parameter
#{
# int svm_type;
#
#svm_type可以是C_SVC、NU_SVC、ONE_CLASS、EPSILON_SVR或NU_SVR其中的一种。
#C_SVC: C-SVM 分类
#NU_SVC: nu-SVM 分类
#ONE_CLASS: one-class-SVM
#EPSILON_SVR: epsilon-SVM回归
#NU_SVR: nu-SVM回归
#
# int kernel_type;
#
#kernel_type可以是LINEAR、POLY、RBF、SIGMOID其中一种。
#LINEAR: u'*v
#POLY: (gamma*u'*v + coef0)^degree
#RBF: exp(-gamma*|u-v|^2)
#SIGMOID: tanh(gamma*u'*v + coef0)
#PRECOMPUTED:训练集文件中的核心值
#
# int degree; /* for poly */
# double gamma; /* for poly/rbf/sigmoid */
# double coef0; /* for poly/sigmoid */
#
# /* these are for training only */
# double cache_size; /* in MB */
#cache_size是核心缓存的大小,单位为MB。C是违背约束成本(惩罚值)。eps是结束条件。(一般地,我们在nu-SVC模型中使用0.00001,在其它模型中使用0.001)。nu是nu-SVM、nu-SVR与one-class-SVM中的一个参数。p 是epsilon-SVM回归对epsilon不敏感函数的epsilon值。shirnking = 1表示使用压缩,否则 = 0。 probability = 1表示得到带概率信息的模型,否则 = 0。
#
# double eps; /* stopping criteria */
#
# double C; /* for C_SVC, EPSILON_SVR, and NU_SVR */
#
# int nr_weight; /* for C_SVC */
# int *weight_label; /* for C_SVC */
# double* weight; /* for C_SVC */
#nr_weight、weight_label和weight(权重)用于改变某些类的惩罚因子(如果一个类的权重不变,则将权重值设定为1)这在使用不均衡输入数据或使用不均匀错误成本训练分类器时尤其有用。
#
#nr_weight是数组weight_label和weight中的元素个数。每个weight[i]对应一个weight_label[i],表示类weight_label[i]的惩罚是由因子weight[i]确定的。
#
#如果不想改变任何类的惩罚因子,那么只需要将nr_weight设定为0。
#
#Z注:这个可以用来调整 召回率 和 准确率
#
# double nu; /* for NU_SVC, ONE_CLASS, and NU_SVR */
# double p; /* for EPSILON_SVR */
# int shrinking; /* use the shrinking heuristics */
# int probability; /* do probability estimates */
#};
#
#
#
#*注意*因为svm_model含有指向svm_problem的指针,如果仍要使用由svm_train()产生的svm_model,那么就不要释放svm_problem的内存。
#
#*注意*为了避免错误的参数,在调用svm_train()之前应该先调用svm_check_parameter()。
#这是几个经典核函数
#有资料说 对于文本这样的高维数据 用简单的线性核函数就又快又好
kernels = [LINEAR, POLY, RBF]
kname = ['linear', 'polynomial', 'rbf']
for name, k in zip(kname, kernels):
print "---"*10, "训练:", name, "---"*10
param.kernel_type = k
#这个函数根据给定的参数和训练数据构建并返回一个支持向量机模型。
model = svm_model(problem, param)
errors = 0
print "=== 分类 ==="
for i in range(size):
thing = samples[i]
#Ok,这就分类了
prediction = model.predict(thing)
print "%s -> %s"%(thing, prediction)
if (labels[i] != prediction):
errors = errors + 1
print "核函数 %s: 错误率 = %d / %d" % (kname[param.kernel_type], errors, size)
print ">>>"*10
print "---"*10, "阴阳距:", name, "---"*10
param = svm_parameter(kernel_type = RBF, C=10)
model = svm_model(problem, param)
print "%s" % (samples[1])
print "类别数:", model.get_nr_class()
#根据libsvm的原理,他是先对一个训练集进行建模,在高维映射空间中形成一个超平面。然后再输入测试集,再对测试集根据 f(x)=wx+b 公式进行计算,如果>0,则归为阳性,反之则为阴性。根据他这个原理,那么我每个输入的训练集都应该有个 f(x) 值。
d = model.predict_values(samples[1])
for i in model.get_labels():
for j in model.get_labels():
if j > i:
print "{%d, %d} = %9.5f" % (i, j, d[i, j])
print "---"*10, "置信率:", name, "---"*10
param = svm_parameter(kernel_type = RBF, C=10, probability = 1)
model = svm_model(problem, param)
pred_label, pred_probability = model.predict_probability(samples[1])
print "%s" % (samples[1])
print "predicted class: %d" % (pred_label)
for i in model.get_labels():
print "类 %d 置信率 %f" % (i, pred_probability[i])
print "总概率 为 %s"%sum(pred_probability.itervalues())
#PRECOMPUTED: kernel values in training_set_file
#从一个训练文件中读取的核函数
print "---"*10, "文件中的核函数:", name, "---"*10
samples = [1, 0, 0, 0, 0], [2, 0, 1, 0, 1], [3, 0, 0, 1, 1], [4, 0, 1, 1, 2]
problem = svm_problem(labels, samples);
param = svm_parameter(kernel_type=PRECOMPUTED,C = 10,nr_weight = 2,weight_label = [1,0],weight = [10,1])
model = svm_model(problem, param)
pred_label = model.predict(samples[0])
print "%s %s"%(samples[0],pred_label)
"""
libsvm里面分类除了跟kernel_type有关还和许多其他参数有关,可以采用libsvm附带的easy.py工具调整参数,各个参数意义在包内的README文件里有说明,也可以参考http://www.csie.ntu.edu.tw/~cjlin/papers/guide/guide.pdf,
此外,这个入门http://ntu.csie.org/~piaip/svm/svm_tutorial.html也不错
http://huangbo929.blog.edu.cn/sort/?act=search&keyword=SVM
这里也有不少不错的文章
比如
http://huangbo929.blog.edu.cn/2008/64686.html
SVM String Kernel 核函数介绍 (2008-07-03 09:38)
http://huangbo929.blog.edu.cn/2008/64689.html
如何使用SVM基于Suffix Array的String Kernel核函数 (2008-07-03 10:07)
http://huangbo929.blog.edu.cn/2008/64688.html
the fastest SVM learning algorithm:最快的SVM算法 (2008-07-03 10:04)
http://huangbo929.blog.edu.cn/2008/64687.html
Tree Kernel SVM 介绍 (2008-07-03 09:41)
等等
"""
------------------------------------------------------------
程序输出
------------------------------------------------------------
~/svm/libsvm_study/python $ python svm_test.py
------------------------------ 训练: linear ------------------------------
.....*..*
optimization finished, #iter = 22
obj = -3.999999, rho = -0.999349
nSV = 3, nBSV = 0
*
optimization finished, #iter = 1
nu = 0.100000
obj = -1.000000, rho = -1.000000
nSV = 2, nBSV = 0
*
optimization finished, #iter = 2
obj = -4.000000, rho = -3.000000
nSV = 3, nBSV = 0
Total nSV = 4
=== 分类 ===
[0, 0] -> 0.0
[0, 1] -> 1.0
[1, 0] -> 1.0
[1, 1] -> 2.0
核函数 linear: 错误率 = 0 / 4
>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>
------------------------------ 训练: polynomial ------------------------------
*
optimization finished, #iter = 2
obj = -16.875000, rho = 0.375000
nSV = 3, nBSV = 1
*
optimization finished, #iter = 1
nu = 0.200000
obj = -2.000000, rho = -1.000000
nSV = 2, nBSV = 0
.*.*
optimization finished, #iter = 6
obj = -2.461538, rho = -1.153547
nSV = 3, nBSV = 0
Total nSV = 4
=== 分类 ===
[0, 0] -> 1.0
[0, 1] -> 1.0
[1, 0] -> 1.0
[1, 1] -> 2.0
核函数 polynomial: 错误率 = 1 / 4
>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>
------------------------------ 训练: rbf ------------------------------
..*.*
optimization finished, #iter = 9
obj = -4.247381, rho = 0.671181
nSV = 3, nBSV = 0
*
optimization finished, #iter = 1
nu = 0.158198
obj = -1.581977, rho = 0.000000
nSV = 2, nBSV = 0
.*.*
optimization finished, #iter = 7
obj = -4.247381, rho = -0.671133
nSV = 3, nBSV = 0
Total nSV = 4
=== 分类 ===
[0, 0] -> 0.0
[0, 1] -> 1.0
[1, 0] -> 1.0
[1, 1] -> 2.0
核函数 rbf: 错误率 = 0 / 4
>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>
------------------------------ 阴阳距: rbf ------------------------------
..*.*
optimization finished, #iter = 9
nu = 0.283131
obj = -4.247381, rho = 0.671181
nSV = 3, nBSV = 0
*
optimization finished, #iter = 1
nu = 0.158198
obj = -1.581977, rho = 0.000000
nSV = 2, nBSV = 0
.*.*
optimization finished, #iter = 7
nu = 0.283090
obj = -4.247381, rho = -0.671133
nSV = 3, nBSV = 0
Total nSV = 4
[0, 1]
类别数: 3
{0, 1} = -1.00013
{0, 2} = 0.00000
{1, 2} = 0.99936
------------------------------ 置信率: rbf ------------------------------
.*.*
optimization finished, #iter = 7
nu = 0.283090
obj = -4.247381, rho = -0.671133
nSV = 3, nBSV = 0
Total nSV = 3
*
optimization finished, #iter = 1
nu = 0.254149
obj = -2.541494, rho = 0.000000
nSV = 2, nBSV = 0
Total nSV = 2
.*.*
optimization finished, #iter = 7
nu = 0.283090
obj = -4.247381, rho = -0.671133
nSV = 3, nBSV = 0
Total nSV = 3
*
optimization finished, #iter = 1
nu = 0.254149
obj = -2.541494, rho = 0.000000
nSV = 2, nBSV = 0
Total nSV = 2
..*.*
optimization finished, #iter = 9
nu = 0.283131
obj = -4.247381, rho = 0.671181
nSV = 3, nBSV = 0
*
optimization finished, #iter = 1
nu = 0.158198
obj = -1.581977, rho = 0.000000
nSV = 2, nBSV = 0
Total nSV = 2
*
optimization finished, #iter = 1
nu = 0.158198
obj = -1.581977, rho = 0.000000
nSV = 2, nBSV = 0
Total nSV = 2
*
optimization finished, #iter = 1
nu = 0.158198
obj = -1.581977, rho = 0.000000
nSV = 2, nBSV = 0
Total nSV = 2
*
optimization finished, #iter = 1
nu = 0.158198
obj = -1.581977, rho = 0.000000
nSV = 2, nBSV = 0
.*.*
optimization finished, #iter = 7
nu = 0.283090
obj = -4.247381, rho = -0.671133
nSV = 3, nBSV = 0
Total nSV = 3
*
optimization finished, #iter = 1
nu = 0.254149
obj = -2.541494, rho = 0.000000
nSV = 2, nBSV = 0
Total nSV = 2
.*.*
optimization finished, #iter = 7
nu = 0.283090
obj = -4.247381, rho = -0.671133
nSV = 3, nBSV = 0
Total nSV = 3
*
optimization finished, #iter = 1
nu = 0.254149
obj = -2.541494, rho = 0.000000
nSV = 2, nBSV = 0
Total nSV = 2
.*.*
optimization finished, #iter = 7
nu = 0.283090
obj = -4.247381, rho = -0.671133
nSV = 3, nBSV = 0
Total nSV = 4
[0, 1]
predicted class: 0
类 0 置信率 0.400236
类 1 置信率 0.199806
类 2 置信率 0.399958
总概率 为 1.0
------------------------------ 文件中的核函数: rbf ------------------------------
.....*..*
optimization finished, #iter = 22
obj = -3.999999, rho = -0.999349
nSV = 3, nBSV = 0
*
optimization finished, #iter = 1
nu = 0.100000
obj = -1.000000, rho = -1.000000
nSV = 2, nBSV = 0
*
optimization finished, #iter = 2
obj = -4.000000, rho = -3.000000
nSV = 3, nBSV = 0
Total nSV = 4
[1, 0, 0, 0, 0] 0.0
zuroc@aragorn ~/svm/
发表评论
-
关于"Google限制Python"事件我的看法
2009-11-17 15:11 8389本来做一个勤勤恳恳的 ... -
python排版工具
2009-10-15 14:22 3511http://pypi.python.org/pypi/pyt ... -
Fast Asynchronous Python Web Server (Fapws is short)
2009-08-15 12:12 1864http://github.com/william-os4y/ ... -
python奇技淫巧
2009-07-23 22:27 2514http://wiki.python.org/moin/By ... -
跨平台 获取系统信息的python库 http://support.hyperic.com/disp
2009-06-12 11:49 3648The Sigar API provides a portab ... -
频繁集统计 python 封装
2009-05-29 15:49 2665封装的是附件这篇paper的count 因为对比发现这个的综合 ... -
lcs.py 最长公共子串算法
2009-05-05 15:50 2980感觉用来匹配相似文件比最短编辑距离更靠谱,最短编辑应该是用来纠 ... -
lrucache.py 最近最少使用算法
2009-05-04 13:23 2919lrucache.py 最近最少使用算法 2009-05-04 ... -
史上最快 异步消息队列zeromq 简介
2009-04-30 21:40 27277是的,我喜欢Z开头的东西. http://www.zer ... -
相似单词
2009-03-18 00:54 1774给你一个单词a,如果通过交换单词中字母的顺序可以得到另外的单词 ... -
is_cn_char
2009-03-14 13:39 1351unicode码 def is_cn_char(i): ... -
写一个python的urldecode
2009-03-03 10:57 5127from urllib import unquote def ... -
今天才发现python的sort有个key参数,我好圡...
2009-02-28 20:59 3105>>> a=range(10) >& ... -
发一个山寨版python的Orm
2009-02-24 23:49 2244发一个山寨版的Orm 大概用法见 http://docs. ... -
pyrex学习笔记
2009-02-24 03:36 17040. easy_install pyrex 1.写pyrex ... -
python的一个有趣的细节
2009-02-24 02:00 1374python3.0一个有趣的细节 2009-02-24 01: ... -
python备玩候选者
2009-02-24 00:34 1709* 张沈鹏 推荐网址当然要有一个部署的东西 Exs ... -
python读取mp3 ID3信息
2009-02-18 16:57 2652pyid3不好用,常常有不认识的. mutagen不错,不过 ... -
又写了一个python的route模块
2009-01-14 01:18 2103是的 我很无聊 -
mxTidy - HTML Tidy for Python
2009-01-05 10:50 5229抓取的html不处理一下很容易破坏页面的布局 官网的py ...
相关推荐
安装python版的libsvm,具体参照http://blog.csdn.net/m624197265/article/details/41894261就可以了
标题中的"libsvm的Python库包"指的是`libsvm`这个开源项目的一个Python接口,它使得Python开发者能够方便地利用SVM(Support Vector Machine,支持向量机)技术进行数据挖掘和机器学习任务。`libsvm`是由Chih-Chung ...
综上所述,LIBSVM是机器学习中不可或缺的工具,尤其对于新手和专业人士来说,其Python接口和预编译版本使得SVM模型的构建和应用变得更加便捷。通过理解和掌握这些关键知识点,用户可以更好地利用LIBSVM解决实际问题...
《LibSVM 2.88:机器学习的利器》 LibSVM,全称“Library for Support Vector Machines”,是由台湾大学的Chih-Chung Chang和Chih-Jen Lin开发的一款开源工具,广泛应用于机器学习领域,特别是支持向量机(Support ...
通常情况下,LibSVM 的应用集中在 MATLAB 平台上,然而随着 Python 在科学计算领域影响力的不断增长,越来越多的研究者和开发者倾向于使用 Python 来进行机器学习任务。本文将详细介绍如何在 Python 环境下配置和...
Libsvm(Library for Support Vector Machines)是一个广泛使用的支持向量机(SVM)库,它不仅提供了C++接口,还为多种编程语言,包括Python,提供了封装。由于这里特别指出“兼容Python2.7”,我们可以推测这是针对...
在Python环境中,LIBSVM可以通过其Python接口方便地被调用,使得数据科学家和机器学习工程师能够快速地构建和测试SVM模型。 支持向量机是一种监督学习模型,它的基本思想是找到一个超平面,使两类样本点间隔最大化...
1. **下载Python(x,y)**:如果您还没有安装Python,可以从Python(x,y)官方网站下载最新版本,并根据提示完成安装。 2. **下载LIBsvm**:访问LIBsvm官网下载页面(https://www.csie.ntu.edu.tw/~cjlin/libsvm/),...
总的来说,使用Python和LibSVM实现验证码识别涉及图像处理、特征提取和机器学习模型训练等多个步骤。这个过程需要对计算机视觉和机器学习有深入理解,但通过实践和优化,可以构建出高效且准确的验证码识别系统。
### libSVM 使用方法基于 Python ...通过上述步骤,我们可以有效地在 Python 环境下使用 libSVM 进行机器学习任务的开发。无论是对于初学者还是有经验的开发者来说,这些步骤都是十分实用的指南。
python中使用libsvm库64位libsvm.dll文件.在64位系统下需要在C:\WINDOWS\system32\目录中放入此文件才运行成功demo演示。
在libsvm-3.16的python文件夹下主要包括了两个文件svm.py和svmutil.py。 svmutil.py接口主要包括了high-level的函数,这些函数的使用和LIBSVM的MATLAB接口大体类似 svmutil中主要包含了以下几个函数: svm_train...
总的来说,LibSVM是SVM算法的重要实现,其Python接口让数据科学家和机器学习工程师能方便地在Python环境中利用SVM进行建模。对于那些需要在分类或回归任务中寻找高效解决方案的人来说,LibSVM是一个强大且灵活的工具...
**LibSVM学习笔记概述** LibSVM,全称为Library for Support Vector Machines,是一个由台湾大学林智仁教授开发的开源软件库,主要用于支持向量机(Support Vector Machine,SVM)的学习和预测。SVM是一种强大的...
在多类分类问题中,通常采用one-against-one的方法,此时`y`数组中的值可能是+1或-1,而不是原始的类别标签。 在LIBSVM的源码中,还定义了枚举类型用于指定SVM的类型和核函数类型。例如,`svm_type`包括C_SVC、NU_...
python3 编写的使用libsvm包进行数据分类训练以及预测等,包含了一份训练数据、测试数据以及数据格式转换的代码
LibSVM不仅提供了C/C++接口,还支持Python绑定,使得Python开发者可以方便地在Python环境中使用SVM。Python接口通常通过swig工具生成,允许用户直接在Python脚本中调用SVM的训练和预测函数,简化了机器学习流程。 *...
本主题聚焦于使用Python编程语言和libsvm库来实现多分类算法,特别是针对模式识别问题。 libsvm(Library for Support Vector Machines)是由Chih-Chung Chang和Chih-Jen Lin开发的开源工具,它提供了广泛的支持...