import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
rng = np.random
# Parameters
learning_rate = 0.01
training_epochs = 1000
display_step = 50
batch_size = 10
# Training Data
train_X = np.asarray([3.3,4.4,5.5,6.71,6.93,4.168,9.779,6.182,7.59,2.167,
7.042,10.791,5.313,7.997,5.654,9.27,3.1])
train_Y = np.asarray([1.7,2.76,2.09,3.19,1.694,1.573,3.366,2.596,2.53,1.221,
2.827,3.465,1.65,2.904,2.42,2.94,1.3])
n_samples = train_X.shape[0]
print n_samples
# tf Graph Input
X = tf.placeholder("float",[None,1])
Y = tf.placeholder("float",[None,1])
# Set model weights
W = tf.Variable(rng.randn(), name="weight")
b = tf.Variable(rng.randn(), name="bias")
# 正向计算
pred = tf.add(tf.multiply(W, X), b)
# 损失函数
#MSE:均方误差
cost = tf.reduce_mean(tf.pow(pred-Y, 2))
#设置梯度下降优化
optimizer = tf.train.GradientDescentOptimizer(learning_rate).minimize(cost)
# 初始化所有变量
init = tf.global_variables_initializer()
# Start training
with tf.Session() as sess:
sess.run(init)
# Fit all training data
for epoch in range(training_epochs):
rand_index = np.random.choice(len(train_X), size=batch_size)
rand_x = train_X[rand_index]
rand_y = train_Y[rand_index]
sess.run(optimizer, feed_dict={X: rand_x[:,None], Y: rand_y[:,None]})
#Display logs per epoch step
if (epoch+1) % display_step == 0:
c = sess.run(cost, feed_dict={X: train_X[:,None], Y:train_Y[:,None]})
print "Epoch:", '%04d' % (epoch+1), "cost=", "{:.9f}".format(c), \
"W=", sess.run(W), "b=", sess.run(b)
print "Optimization Finished!"
training_cost = sess.run(cost, feed_dict={X: train_X[:,None], Y: train_Y[:,None]})
print "Training cost=", training_cost, "W=", sess.run(W), "b=", sess.run(b), '\n'
#Graphic display
plt.plot(train_X, train_Y, 'ro', label='Original data')
plt.plot(train_X, sess.run(W) * train_X + sess.run(b), label='Fitted line')
plt.legend()
plt.show()
相关推荐
TensorNet-TF, TensorNet ( TensorFlow实现) TensorNet这是神经网络张量列压缩方法的TensorFlow实现。 它支持 tt 层 [1] 和 tt,它对应于完全连接和卷积层,但它的性能更高,更适合使用。 tt fc层也比它的未压缩模拟...
Bi-LSTM使用Tensorflow实现序列标记。 建立(双向)LSTM模型的基准。 模型中使用的超参数: learning_rate-学习率的初始值 max_lr_epoch-在max_lr_epoch之后,学习率将降低 num_layers- (Bi)LSTM层数 num_steps-...
本项目利用机器学习技术,特别是TensorFlow、XGBoost4j-Spark和Spark-ML库,构建了多个模型来预测客户流失,包括逻辑回归(LR)、因子分解机(FM)、梯度提升决策树(GBDT)和随机森林(RF)。以下是对这些技术和...
该存储库是IDN(CVPR16)的TensorFlow实现。 您可以从论文和作者的项目资料库中查看更多详细信息 Github: 论文: 网络结构 IDN-TensorFlow /模型/network.py FBlock:功能提取块 DBlock:信息蒸馏块 包括增强...
UCDAN的Tensorflow实现 准备数据 cd数据/ tar -zxvf amazon.tar.gz 焦油-zxvf webcam.tar.gz tar -zxvf dslr.tar.gz 准备预先训练的模型 通过获取AlexNet预训练模型通过获取ResNet-50预训练模型 交易脚本 对于...
添加--v2来训练MoCov2,该MoCov2使用额外的MLP层,额外的扩充和余弦LR时间表。 线性分类: 要使用预训练的特征训练线性分类器,请运行: ./main_lincls.py --load /path/to/pretrained/checkpoint --data /path/to...
这段代码实现了模型的训练过程,包括前向传播、损失计算、反向传播以及参数更新等关键步骤。 ### 8. 损失与准确率的计算 在训练过程中,通常会计算模型的损失(loss)和准确率(accuracy),并记录下来以便于后续...
以下是如何实现这一过程的详细说明: 首先,我们需要获取模型中的变量。在TensorFlow中,权重和偏置通常是以变量的形式存在的。`tf.global_variables()`函数可以用来获取所有全局变量,包括网络的权重和偏置。如果...
TensorFlow(ESPCN)中高效子像素卷积神经网络的TensorFlow实现。 基于网络和本改编的代码。 这个网络可以实现的实时性能 ,同时也超越了质量 。 先决条件 Python 2.7 TensorFlow 脾气暴躁的 Scipy版本> 0.18 ...
SSD(单发MultiBox检测器)-Tensorflow 2.0 准备 下载PASCAL VOC数据集(2007或2012)并从./data提取 安装必要的依赖项: pip install -r requirements.txt 训练 训练脚本的参数: >> python train.py --help ...
在本实践项目中,我们关注的是“GBDT+LR-Demo.zip”,这是一份使用TensorFlow实现推荐算法的示例代码。GBDT(Gradient Boosting Decision Tree)与LR(Logistic Regression)的结合通常用于提升模型预测性能,尤其是...
sgd = tflearn.SGD(learning_rate=0.1, lr_decay=0.96, decay_step=1000) top_k = tflearn.metrics.Top_k(3) net = tflearn.regression(softmax, optimizer=sgd, metric=top_k, loss='categorical_crossentropy') ...
2. 模型代码:SRCNN模型的Tensorflow实现,包括网络结构定义、损失函数设置、优化器选择以及训练过程的控制。 3. 训练脚本:用于运行模型训练的Python脚本,可能包含了参数设置、数据加载、模型保存等功能。 4. 测试...
而`Mnist_LR`可能是关于使用逻辑回归(Linear Regression)实现MNIST识别的另一种方法,虽然这不是深度学习中的常见做法,但可以作为理解不同模型性能的一个对比。 在实际项目中,可能还需要关注模型的调整、超参数...
该项目是TensorFlow实现的一种多任务学习方法,该方法在论文《。 争论 --lr,学习率 --n_epoch,纪元数 --n_batch_size,最小批处理大小 --reg_lambda,L2正则化lambda --keep_prob,退出保持概率 --cross_stitch_...
通过理解和复现这个项目,你可以深入学习图像超分辨率的最新技术,掌握如何运用GANs和深度学习解决实际问题,并利用TensorFlow实现高效、高质量的图像处理。同时,这个项目也为你提供了进一步研究和改进超分辨率算法...
在本项目中,我们主要探讨的是使用Python和TensorFlow实现基于深度学习的VDSR(Visual Deep Super-Resolution)模型,用于图像的超分辨率重建。超分辨率重建是一种技术,它能够将低分辨率(LR)图像转换成高分辨率...
该存储库是VDSR(CVPR16)的TensorFlow实现。 您可以从论文和作者的项目页面中查看更多详细信息 项目页面: 纸 : 网络结构 VDSR-TensorFlow /模型/network.py ILR表示插值的低分辨率图像 SR表示重建的超分辨率图像 ...
python基于tensorflow及多种神经网络模型实现胃癌恶性病变组织检测源码+使用说明.zip 癌恶性病变组织检测 ## Library Versions ``` tensorflow >= 2.2 tensorflow-addons >= 0.11 OpenCV ``` ## 数据准备 将图片...