- 浏览: 496242 次
- 性别:
- 来自: 广州
文章分类
- 全部博客 (502)
- Java (70)
- Linux (10)
- 数据库 (38)
- 网络 (10)
- WEB (13)
- JSP (4)
- 互联网 (71)
- JavaScript (30)
- Spring MVC (19)
- HTML (13)
- CSS (3)
- AngularJS (18)
- Redis (5)
- Bootstrap CSS (1)
- ZooKeeper (4)
- kafka (6)
- 服务器缓存 (4)
- Storm (1)
- MongoDB (9)
- Spring boot (16)
- log4j (2)
- maven (3)
- nginx (5)
- Tomcat (2)
- Eclipse (4)
- Swagger (2)
- Netty (5)
- Dubbo (1)
- Docker (7)
- Hadoop (12)
- OAuth (1)
- webSocket (4)
- 服务器性能 (7)
- Session共享 (1)
- tieye修改 (1)
- 工作 (1)
- 有用的语录 (0)
- https (2)
- common (5)
- 产品开发管理 (1)
- CDN 工作原理 (1)
- APNS、GCM (1)
- 架构图 (3)
- 功能实现分析 (1)
- JMX (1)
- 服务器相关操作命令 (1)
- img02 (0)
- 服务器环境搭建 (9)
- goodMenuBook (1)
- CEInstantPot (0)
- 有用数据 (1)
- 百度地图WEB API (2)
- 正则表达式 (1)
- 样式例子 (2)
- staticRecipePressureCooker.zip (1)
- jCanvas (1)
- 网站攻击方法原理 (1)
- 架构设计 (3)
- 物联网相关 (3)
- 研发管理 (7)
- 技术需求点 (1)
- 计划 (1)
- spring cloud (11)
- 服务器开发的一些实用工具和方法 (1)
- 每天学到的技术点 (4)
- Guava (1)
- ERP 技术注意要点 (2)
- 微信小程序 (1)
- FineRepor (1)
- 收藏夹 (1)
- temp (5)
- 服务架构 (4)
- 任职资格方案 (0)
- osno_test (1)
- jquery相关 (3)
- mybatis (4)
- ueditor (1)
- VueJS (7)
- python (10)
- Spring EL (1)
- shiro (1)
- 前端开发原理与使用 (7)
- YARN (1)
- Spark (1)
- Hbase (2)
- Pig (2)
- 机器学习 (30)
- matplotlib (1)
- OpenCV (17)
- Hystrix (1)
- 公司 (1)
- miniui (4)
- 前端功能实现 (3)
- 前端插件 (1)
- 钉钉开发 (2)
- Jenkins (1)
- elasticSearch使用 (2)
- 技术规范 (4)
- 技术实现原理 (0)
最新评论
sklearn 神经网络
https://blog.csdn.net/luanpeng825485697/article/details/79064657(sklearn——神经网络)
多层感知器的优点:
可以学习得到非线性模型。
使用partial_fit 可以学习得到实时模型(在线学习)。
scikit-learn0.18上对于Neural Network算法有三个 neural_network.BernoulliRBM ,neural_network.MLPClassifier,neural_network.MLPRgression
多层感知器(MLP)的缺点:
具有隐藏层的 MLP 具有非凸的损失函数,它有不止一个的局部最小值。 因此不同的随机权 - 重初始化会导致不同的验证集准确率。
MLP 需要调试一些超参数,例如隐藏层神经元的数量、层数和迭代轮数。
MLP 对特征归一化很敏感.
神经网络分类(神经网络用于分类)
MLPClassifier 类实现了通过 Backpropagation 进行训练的多层感知器(MLP)算法。
目前, MLPClassifier 只支持交叉熵损失函数,通过运行 predict_proba 方法进行概率估计。
MLP 算法使用的是反向传播的方式。 更准确地说,它使用了通过反向传播计算得到的梯度和某种形式的梯度下降来进行训练。 对于分类来说,它最小化交叉熵损失函数,为每个样本 x 给出一个向量形式的概率估计 P(y|x)
神经网络回归(多层线性回归)
MLPRegressor 类多层感知器(MLP)的实现,在使用反向传播进行训练时的输出层没有使用激活函数,也可以看作是使用恒等函数(identity function)作为激活函数。 因此,它使用平方误差作为损失函数,输出是一组连续值。
MLPRegressor 还支持多输出回归,其中一个样本可以有多个目标值。
https://blog.csdn.net/Gamer_gyt/article/details/51255448(自己实现神经网络算法NeuralNetwork)
神经网络线性回归
神经网络分类
https://blog.csdn.net/luanpeng825485697/article/details/79064657(sklearn——神经网络)
多层感知器的优点:
可以学习得到非线性模型。
使用partial_fit 可以学习得到实时模型(在线学习)。
scikit-learn0.18上对于Neural Network算法有三个 neural_network.BernoulliRBM ,neural_network.MLPClassifier,neural_network.MLPRgression
多层感知器(MLP)的缺点:
具有隐藏层的 MLP 具有非凸的损失函数,它有不止一个的局部最小值。 因此不同的随机权 - 重初始化会导致不同的验证集准确率。
MLP 需要调试一些超参数,例如隐藏层神经元的数量、层数和迭代轮数。
MLP 对特征归一化很敏感.
神经网络分类(神经网络用于分类)
MLPClassifier 类实现了通过 Backpropagation 进行训练的多层感知器(MLP)算法。
目前, MLPClassifier 只支持交叉熵损失函数,通过运行 predict_proba 方法进行概率估计。
MLP 算法使用的是反向传播的方式。 更准确地说,它使用了通过反向传播计算得到的梯度和某种形式的梯度下降来进行训练。 对于分类来说,它最小化交叉熵损失函数,为每个样本 x 给出一个向量形式的概率估计 P(y|x)
神经网络回归(多层线性回归)
MLPRegressor 类多层感知器(MLP)的实现,在使用反向传播进行训练时的输出层没有使用激活函数,也可以看作是使用恒等函数(identity function)作为激活函数。 因此,它使用平方误差作为损失函数,输出是一组连续值。
MLPRegressor 还支持多输出回归,其中一个样本可以有多个目标值。
https://blog.csdn.net/Gamer_gyt/article/details/51255448(自己实现神经网络算法NeuralNetwork)
神经网络线性回归
# from sklearn.naive_bayes import GaussianNB import numpy as np import matplotlib.pyplot as plt # # =============神经网络用于分类============= import numpy as np import matplotlib.pyplot as plt from sklearn.neural_network import MLPClassifier from sklearn.preprocessing import StandardScaler # # =============神经网络用于回归============= import numpy as np from sklearn.neural_network import MLPRegressor # 多层线性回归 from sklearn.preprocessing import StandardScaler data = [ [1, 1, 3], [1, 2, 5], [1, 3, 7], [2, 2, 6], [2, 3, 8], [4, 4, 12], [4, 1, 6], ] dataMat = np.array(data) X = dataMat[:, 0:2] y = dataMat[:, 2] scaler = StandardScaler() # 标准化转换 scaler.fit(X) # 训练标准化对象 X = scaler.transform(X) # 转换数据集 # solver='lbfgs', MLP的求解方法:L-BFGS 在小数据上表现较好,Adam 较为鲁棒,SGD在参数调整较优时会有最佳表现(分类效果与迭代次数);SGD标识随机梯度下降。 # alpha:L2的参数:MLP是可以支持正则化的,默认为L2,具体参数需要调整 # hidden_layer_sizes=(5, 2) hidden层2层,第一层5个神经元,第二层2个神经元),2层隐藏层,也就有3层神经网络 # clf = MLPRegressor(solver='lbfgs', alpha=1e-5, hidden_layer_sizes=(5, 2), random_state=1,max_iter=2000) clf = MLPRegressor(solver='lbfgs', alpha=1e-5, hidden_layer_sizes=(5, 2), random_state=1) clf.fit(X, y) print('预测结果:', clf.predict([[1, 3]])) # 预测某个输入对象 print('预测结果:', clf.predict([[2, 3]])) # 预测某个输入对象 cengindex = 0 for wi in clf.coefs_: cengindex += 1 # 表示底第几层神经网络。 print('第%d层网络层:' % cengindex) print('权重矩阵维度:', wi.shape) print('系数矩阵:\n', wi)
神经网络分类
# from sklearn.naive_bayes import GaussianNB import numpy as np import matplotlib.pyplot as plt # # =============神经网络用于分类============= import numpy as np import matplotlib.pyplot as plt from sklearn.neural_network import MLPClassifier from sklearn.preprocessing import StandardScaler data = [ [-0.017612, 14.053064, 0], [-1.395634, 4.662541, 1], [-0.752157, 6.53862, 0], [-1.322371, 7.152853, 0], [0.423363, 11.054677, 0], [0.406704, 7.067335, 1], [0.667394, 12.741452, 0], [-2.46015, 6.866805, 1], [0.569411, 9.548755, 0], [-0.026632, 10.427743, 0], [0.850433, 6.920334, 1], [1.347183, 13.1755, 0], [1.176813, 3.16702, 1], [-1.781871, 9.097953, 0], [-0.566606, 5.749003, 1], [0.931635, 1.589505, 1], [-0.024205, 6.151823, 1], [-0.036453, 2.690988, 1], [-0.196949, 0.444165, 1], [1.014459, 5.754399, 1], [1.985298, 3.230619, 1], [-1.693453, -0.55754, 1], [-0.576525, 11.778922, 0], [-0.346811, -1.67873, 1], [-2.124484, 2.672471, 1], [1.217916, 9.597015, 0], [-0.733928, 9.098687, 0], [1.416614, 9.619232, 0], [1.38861, 9.341997, 0], [0.317029, 14.739025, 0] ] dataMat = np.array(data) X = dataMat[:, 0:2] # 取前两个值作为特征值 y = dataMat[:, 2] # 最后一个为标签 # 神经网络对数据尺度敏感,所以最好在训练前标准化,或者归一化,或者缩放到[-1,1] scaler = StandardScaler() # 标准化转换,去均值和方差归一化 scaler.fit(X) # 训练标准化对象 X = scaler.transform(X) # 转换数据集 # solver='lbfgs', MLP的求解方法:L-BFGS 在小数据上表现较好,Adam 较为鲁棒,SGD在参数调整较优时会有最佳表现(分类效果与迭代次数);SGD标识随机梯度下降。 # alpha:L2的参数:MLP是可以支持正则化的,默认为L2,具体参数需要调整 # hidden_layer_sizes=(5, 2) hidden层2层,第一层5个神经元,第二层2个神经元),2层隐藏层,也就有3层神经网络 clf = MLPClassifier(solver='lbfgs', alpha=1e-5, hidden_layer_sizes=(5, 3), random_state=1) # 神经网络输入为2,第一隐藏层神经元个数为5,第二隐藏层神经元个数为3,输出结果为2分类。 clf.fit(X, y) print('每层网络层系数矩阵维度:\n', [coef.shape for coef in clf.coefs_]) y_pred = clf.predict([[0.317029, 14.739025]]) print('预测结果:', y_pred) y_pred_pro = clf.predict_proba([[0.317029, 14.739025]]) print('预测结果概率:\n', y_pred_pro) cengindex = 0 for wi in clf.coefs_: cengindex += 1 # 表示底第几层神经网络。 print('第%d层网络层:' % cengindex) print('权重矩阵维度:', wi.shape) print('系数矩阵:\n', wi) # 绘制分割区域 x_min, x_max = X[:, 0].min() - 1, X[:, 0].max() + 1 # 寻找每个维度的范围 y_min, y_max = X[:, 1].min() - 1, X[:, 1].max() + 1 # 寻找每个维度的范围 xx1, xx2 = np.meshgrid(np.arange(x_min, x_max, 0.01), np.arange(y_min, y_max, 0.01)) # 在特征范围以0.01位步长预测每一个点的输出结果 Z = clf.predict(np.c_[xx1.ravel(), xx2.ravel()]) # 先形成待测样本的形式,在通过模型进行预测。 Z = Z.reshape(xx1.shape) # 将输出结果转换为和网格的矩阵形式,以便绘图 # 绘制区域网格图 plt.pcolormesh(xx1, xx2, Z, cmap=plt.cm.Paired)#plt.pcolormesh()会根据y_predict的结果自动在cmap里选择颜色 # 绘制样本点 plt.scatter(X[:, 0], X[:, 1], c=y) plt.show()
发表评论
-
SVM 支持向量机
2018-11-02 17:28 355SVM 支持向量机(support vector machin ... -
Pandas 基础
2018-10-21 15:34 528Pandas 基础 Pandas处理 ... -
霍夫变换
2018-10-20 11:08 758霍夫变换 霍夫变换是一种特征检测(feature extra ... -
图像对比的方法和原理分析
2018-10-19 16:35 8657图像对比的方法和原理分析 https://blog.csdn ... -
识别手写数字 原理分析
2018-10-18 15:38 3452识别手写数字 原理分析 要识别0-9这10个数字 首先 ... -
Viola-Jones 人脸检测算法解析
2018-10-15 16:12 3221Viola-Jones 人脸检测算法解析 在计算机视觉领域中 ... -
灰度图像--形态学处理(腐蚀,膨胀,开、闭运算)
2018-10-12 17:31 8898灰度图像--形态学处理(腐蚀,膨胀,开、闭运算) http ... -
tesseract应用
2018-10-12 14:05 526tesseract应用 from PIL impo ... -
卷积神经网络(CNN)
2018-10-11 17:33 776卷积神经网络(CNN) CNN基本模块 CNN由输入和输出 ... -
python3光学字符识别模块tesserocr与pytesseract
2018-10-11 11:02 1510python3光学字符识别模块tesserocr与pytess ... -
LBP原理介绍以及算法实现(局部二值模式)
2018-10-10 17:54 2488LBP原理介绍以及算法实 ... -
神经网络学习 之 M-P模型
2018-10-09 16:58 2443神经网络学习 之 M-P模型 这种“阈值加权和”的神经元模 ... -
图片滤波
2018-10-09 11:37 779图片滤波,就是过滤去一些图片中的小点,或增强一些点,取决于滤波 ... -
灰度直方图均衡化与直方图规定化
2018-10-09 11:30 1197灰度直方图 灰度直方 ... -
图像的灰度化
2018-10-09 11:14 883图像的灰度化 而灰度图像是R、G、B三个分量相同的一种特殊的 ... -
决策树
2018-10-08 22:04 326决策树 树形模型是一个一个特征进行处理,之前线性模型是所有 ... -
人脸识别原理
2018-10-08 17:03 2084人脸识别原理 在检测 ... -
LDA降维和分类
2018-10-07 21:59 4186LDA降维和分类 LDA可以降维和分类 LinearD ... -
KNN 分类算法
2018-10-07 09:30 1901KNN 分类算法 KNN(K近邻) ... -
机器学习相关的库
2018-09-30 15:03 344机器学习相关的库 PIL:Python Imaging L ...
相关推荐
首先,我们要了解sklearn库和神经网络的基本概念。 **sklearn库**:scikit-learn(简称sklearn)是Python中最流行的机器学习库之一,提供了大量的机器学习算法,包括监督学习、无监督学习、模型选择、数据预处理等...
3. **模型选择**:`sklearn`支持多种监督和无监督学习算法,如线性回归、逻辑回归、决策树、随机森林、支持向量机、K近邻、神经网络等。这些模型分布在`linear_model`、`ensemble`、`svm`、`neighbors`等子模块中。 ...
sklearn学习02.ipynb
2. **模型分类**:sklearn包含多种模型,如线性模型(如线性回归、岭回归、Lasso回归)、树模型(如决策树、随机森林、梯度提升机)、核方法(如SVM)、神经网络(如MLP)和集成学习(如Bagging、Boosting)。...
压缩包子文件的文件名包括“sklearn神经网络—多分类数字识别.docx”和“神经网络分类.py”。前者可能是对使用Python库scikit-learn(简称sklearn)实现神经网络进行多分类任务的文档说明。sklearn是Python中广泛...
菜菜的scikit-learn课堂源码及文档 菜菜的scikit-learn课堂01 sklearn入门 & 决策树在sklearn中的实现.pdf ...菜菜的scikit-learn课堂12 sklearn中的神经网络.pdf 预处理 - 数据.zip SVM live code.zip
在文档“sklearn神经网络—多分类数字识别.docx”中,可能详细介绍了如何使用这个模型对数字进行分类,例如MNIST手写数字识别数据集。 4. **神经网络架构**: 在“神经网络分类.py”文件中,我们可能看到了一个神经...
标题中的"ANN.zip_sklearn_sklearn ANN_skleran ann_神经网络 分类"表明我们将讨论如何使用`sklearn`库中的神经网络进行分类任务。 在`sklearn`中,虽然没有直接内置完整的深度学习框架,但可以通过`sklearn.neural...
下面将详细介绍这个过程的关键步骤、涉及的技术以及sklearn库中用于神经网络的工具。 首先,手写识别的核心任务是对图像进行特征提取,然后利用这些特征训练一个模型来识别不同的手写数字。在sklearn库中,我们可以...
sklearn中的神经网络及其实现
通过 2019 年某地铁站的日客流量数据以及,每日天气因素的数据,进行相关数据处理之后,将数据分割 8:2 对应训练集及测试集,选择神经网络模型对训练集数据进行训练,并对测试集数据进行预测和可视化输出。...
人工智能-项目实践-鸢尾花分类-Python 基于BP神经网络实现鸢尾花的分类 本文用Python实现了BP神经网络分类算法,根据鸢尾花的4个特征,实现3种鸢尾花的分类。 算法参考文章:纯Python实现鸢尾属植物数据集神经网络...
python实现BP神经网络回归预测模型,使用BP神经网络的实现手写数字识别,一万字报告,matlab. Although BP neural network performs well in handwritten numeral recognition, it can not be ignored that the ...
基于BP神经网络和sklearn的digit数据集编写的手写数字识别demo。带有GUI手写画板,同时还可以根据需要保存手写数字的数据。
在本文中,我们将深入探讨如何使用两个流行的机器学习库——TensorFlow和scikit-learn(简称sklearn)来实现基于CIFAR-10数据集的前馈神经网络(Feedforward Neural Network,FNN)。CIFAR-10是一个广泛用于计算机...
标题中的“房价预测的BP神经网络实现”表明我们将探讨如何运用反向传播(BP)神经网络来预测房价。BP神经网络是一种广泛应用于机器学习领域的多层前馈神经网络,通过反向传播算法调整权重,以最小化损失函数,从而...
**Python实现BP神经网络回归预测模型** 在现代数据分析和机器学习领域,神经网络是一种强大的工具,尤其在预测任务中表现出色。本教程将深入探讨如何使用Python编程语言实现一个反向传播(Backpropagation,简称BP...
实验目的:初步学会在sklearn中使用神经网络,进行简单的图像分类识别操作。 实验内容:fashion-mnist数据集是一个用来训练图像处理系统的服饰数据集,它共包含70000幅服饰的数字图像,其中60000幅是训练数据,10000...