- 浏览: 692382 次
- 性别:
- 来自: 北京
文章分类
- 全部博客 (181)
- Matlab (16)
- Java (26)
- autoHotkey (4)
- openCV (1)
- C++ (50)
- PDF-XChange Viewer (2)
- 学术 (11)
- javascript (4)
- linux (11)
- SWT (9)
- latex (7)
- GAE (2)
- windows (6)
- C# (3)
- PS (20)
- JNI (4)
- latex,批处理 (0)
- 批处理 (4)
- Android (5)
- 矩阵论 (1)
- SVM (1)
- 概率图模型 (0)
- Python (12)
- Eigen (5)
- 编程题 (1)
- MKL (1)
- 神经网络 (9)
- 最优化 (2)
- 摄影 (1)
- PPT (0)
- After Effects (3)
- CUDA (3)
- caffe (0)
- MXNet (2)
- svn (1)
- R (0)
- 虚拟机 (0)
- tensorflow (7)
- theano (1)
- Keras (1)
- vim (1)
- xgboost (1)
- spark (6)
- eclipse (2)
- word2vec (0)
- hadoop (1)
- dmlc (1)
- git (0)
最新评论
-
jeffersonz:
请问大神,这个插件记录下来的脚本为什么不能再Extendscr ...
PhotoShop - 记录PS的所有操作为JavaScript代码 -
cherishLC:
Andy__Zou 写道cherishLC 写道Andy__Z ...
Eigen的编译选项;MKL的使用 -
Andy__Zou:
cherishLC 写道Andy__Zou 写道cherish ...
Eigen的编译选项;MKL的使用 -
cherishLC:
Andy__Zou 写道cherishLC 写道Andy__Z ...
Eigen的编译选项;MKL的使用 -
Andy__Zou:
cherishLC 写道Andy__Zou 写道 您好,您的工 ...
Eigen的编译选项;MKL的使用
将category变量输入到神经网络中时需要进行embedding表示,
最著名的莫过于word2vec,相应的tensorflow官方教程为:https://www.tensorflow.org/versions/r0.9/tutorials/word2vec/index.html#vector-representations-of-words
本文参考以上教程中的embedding代码,,重点练习两方面:
示例输出:
epoch=96, avg_loss: 0.000034
epoch=97, avg_loss: 0.000034
epoch=98, avg_loss: 0.000034
epoch=99, avg_loss: 0.000033
type(outputs)
<type 'numpy.ndarray'>
3 + 5 = 8 ; is Correct? True
2 + 5 = 7 ; is Correct? True
4 + 3 = 7 ; is Correct? True
0 + 1 = 1 ; is Correct? True
话不多说,代码如下:
最著名的莫过于word2vec,相应的tensorflow官方教程为:https://www.tensorflow.org/versions/r0.9/tutorials/word2vec/index.html#vector-representations-of-words
本文参考以上教程中的embedding代码,,重点练习两方面:
- 1、category变量的embedding表示
- 2、多变量embedding表示的串联
- 输入:两个整数,, 取值范围 [0,5]
- 输出:两个整数的和(one-hot 表示),即输出共有11个单元,对应于 0~11
- 样本来源:每次随机产生一组输入(10*2个 0~5之间的整数 及其 和的one-hot 表示)
示例输出:
epoch=96, avg_loss: 0.000034
epoch=97, avg_loss: 0.000034
epoch=98, avg_loss: 0.000034
epoch=99, avg_loss: 0.000033
type(outputs)
<type 'numpy.ndarray'>
3 + 5 = 8 ; is Correct? True
2 + 5 = 7 ; is Correct? True
4 + 3 = 7 ; is Correct? True
0 + 1 = 1 ; is Correct? True
话不多说,代码如下:
''' Created on Jul 28, 2016 @author: colinliang ''' from __future__ import absolute_import from __future__ import division from __future__ import print_function import numpy as np import tensorflow as tf minv = np.int32(0); maxv = np.int32(5); totalLength = (maxv - minv + 1) * 2 - 1; def generate_batch(batch_size): x1 = np.random.randint(minv, maxv + 1, batch_size).astype(np.int32) x2 = np.random.randint(minv, maxv + 1, batch_size).astype(np.int32) y = x1 + x2; yDistributed = np.zeros(shape=(batch_size, totalLength), dtype=np.float32) for i in range(batch_size): yDistributed[i,y[i]]=1.0 yDistributed=yDistributed+1e-20; yDistributed/=np.sum(yDistributed, axis=1, keepdims=True) return x1, x2, yDistributed x1, x2, yD = generate_batch(10) # print(x1) # print(x2) # print(yD) batch_size = 10; graph = tf.Graph() with graph.as_default(): # Input data. train_inputs1 = tf.placeholder(tf.int32, shape=[batch_size]) train_inputs2 = tf.placeholder(tf.int32, shape=[batch_size]) train_labels = tf.placeholder(tf.float32, shape=[batch_size, totalLength]) #embedding layer embedding_size = 8; embeddings = tf.Variable(tf.random_uniform([totalLength , embedding_size], -1.0, 1.0)) embed1 = tf.nn.embedding_lookup(embeddings, train_inputs1); embed2 = tf.nn.embedding_lookup(embeddings, train_inputs2) embed = tf.concat(concat_dim=1, values=[embed1, embed2]) # concat two matrix print('shape of embed1 : \t', str(embed1.get_shape())) print('shape of embed2: \t', str(embed2.get_shape())) print('shape of embed : \t', str(embed.get_shape())) #layer 1 nh1 = 100; w1 = tf.Variable(tf.random_uniform([embedding_size*2, nh1], -1.0, 1.0)); print('w1 shape: ', w1.get_shape()) b1 = tf.Variable(tf.zeros([nh1])) print('b1 shape: ', b1.get_shape()) y1 = tf.matmul(embed, w1) + b1; z1 = tf.nn.relu(y1); #layer 2 nh2 = 100; w2 = tf.Variable(tf.random_uniform([nh1, nh2], -1, 1)) b2 = tf.Variable(tf.zeros([nh2])) y2 = tf.matmul(z1, w2) + b2; z2 = tf.nn.relu(y2); #layer 3-- output layer wo = tf.Variable(tf.random_uniform([nh2, totalLength], -1., 1.)) bo = tf.Variable(tf.zeros([totalLength])) yo = tf.matmul(z2, wo) + bo; print('yo shape: ', yo.get_shape()) print('train_labels shape: ', train_labels.get_shape()) loss = tf.nn.softmax_cross_entropy_with_logits(yo, train_labels,); optimizer = tf.train.GradientDescentOptimizer(1e-3).minimize(loss); # init = tf.initialize_all_variables() num_steps = 10000; with tf.Session(graph=graph) as session: init.run(); print('inited') average_loss = 0 for epoch in range(100): total_loss=0.0; avg_loss=0.0 nstep=1000; for step in range(nstep): x1,x2,yd=generate_batch(batch_size=batch_size) feed_dict = {train_inputs1 : x1, train_inputs2:x2, train_labels : yd}; _, loss_val = session.run([optimizer, loss], feed_dict=feed_dict) total_loss+=np.mean(loss_val) # print(total_loss) avg_loss=total_loss/float(nstep); # print(avg_loss) print('epoch=%d, avg_loss: %f'%(epoch, avg_loss)) # use add to add two number for step in range(5): x1,x2,yd=generate_batch(batch_size=batch_size) feed_dict = {train_inputs1 : x1, train_inputs2:x2, train_labels : yd}; yo.eval(feed_dict); outputs = session.run(yo, feed_dict=feed_dict) sums=np.argmax(outputs, axis=1) for i in range(outputs.shape[0]): print(str(x1[i]), '+', str(x2[i]),'=', str(sums[i]), ';\tis Correct? ', str(x1[i]+x2[i]==sums[i]))
发表评论
-
tensorflow 静态编译笔记 -- linux系统
2018-11-05 14:26 0注: 1、编译tensorflow静态库 很简单,参见: h ... -
通过multiprocessing模块及时释放tensorflow的资源
2018-09-18 13:29 4203在使用tf.data等模块时,tensorflow会产生内存泄 ... -
Tensorflow 通过性能分析工具查看变量位置
2017-03-30 16:20 5296发现个更好的方法,只 ... -
tensorflow中的word2vec
2017-03-21 11:12 0官方tutorial: https://www.tensorf ... -
tensorflow 字符串转数字(hash函数, 字符串解析为数字)
2017-02-10 10:42 0问题描述 tensorflow可以直接解析csv文件, 但是对 ... -
tensorflow 单机多卡示例--数据并行
2017-01-05 14:44 9528本文参考自官方的cifar10 ... -
神经网络的初始误差估计-采用cross-entropy误差时
2016-09-28 10:14 1581初始状态下,由于网络的权重时随机初始化的,任意一个样本被分配到 ... -
tensorflow杂记
2016-09-18 12:04 11627本文记录使用tensorflow AP ... -
Keras切换backend : theano --> tensorflow
2016-09-07 10:57 67131、切换backend 修改~/.keras/keras.js ... -
Ubuntu16.04 源码安装GPU版tensorflow
2016-08-07 16:18 56542017年2月16日更新: tenso ... -
tensorflow 之tensorboard
2016-07-12 11:15 01、端口被占用 开启第二个tensorboard时会出现此种情 ... -
windows 10下安装GPU版MXNet
2016-06-03 21:28 8591上回说到编译CPU版的MXNet: http://cheris ... -
cs231n 笔记
2016-05-26 23:36 01、python3中 cifar10数据库的读取 cs231n ... -
mxnet资料汇总
2016-05-23 23:13 0MXNet设计和实现简介(中文版):http://mxnet. ... -
windows下安装CPU版mxnet
2016-05-23 23:14 17596MXnet (mix net)类似Caffe,Tensorfl ... -
吐槽一下UFLDL上神经网络反向传播算法的公式
2014-09-28 21:52 4085在斯坦福的神经网络课件的反向传播算法一节(http://ufl ...
相关推荐
经过处理的腾讯中文词汇/短语向量 tencent-ailab-embedding-zh-d200-v0.2.0-s。包含使用方法和训练方法。
在这个名为"Face-recognition-Using-Facenet-On-Tensorflow-2.X-master.zip"的压缩包文件中,我们找到了一个基于Python的人脸识别项目。该项目利用了TensorFlow 2.x框架和Facenet库来实现高效且精准的人脸识别。下面...
这是论文“FaceNet: A Unified Embedding for Face Recognition and Clustering”中描述的人脸识别器的TensorFlow实现。 该项目还使用了牛津视觉几何小组的论文“Deep Face Recognition”中的想法
循环神经网络2-Embedding层的源码
在这个项目中,“Python-用卷积神经网络基于Tensorflow实现的中文文本分类”,我们将深入探讨如何利用Tensorflow这个强大的深度学习库来构建和训练一个针对中文文本的分类模型。 首先,Tensorflow是一个开源的计算...
传统的机器学习模型如线性回归和决策树可以被纳入到深度学习框架中,通过神经网络结构进行特征工程和模型训练。此外,对于半结构化数据,可以使用序列模型或自注意力机制来捕获不同列之间的关系。 TensorFlow 2.0...
总的来说,“Natural-Language-Processing-in-TensorFlow”项目是一个全面的教程,涵盖了从基础的文本预处理到复杂的模型训练,旨在帮助开发者和研究人员掌握在TensorFlow中进行高效且强大的自然语言处理的方法。...
在本文中,我们将深入探讨如何将人工智能应用于项目实践,特别是构建一个高效的个人搜索引擎。这个项目融合了文本向量搜索和GPT(Generative Pre-trained Transformer)技术,旨在提供更为精准和智能的搜索体验。...
CogDL-TensorFlow CogDL-TensorFlow :的TensorFlow实现 。 在教授的支持下。CogDL CogDL是一种图形表示学习工具包,使研究人员和开发人员可以轻松地训练和比较基线或自定义模型,以进行节点分类,链接预测和其他...
在这个"entity-embedding-rossmann-master"项目中,我们看到该技术被应用到了零售行业的数据分析,如Rossmann连锁药店的数据。Python是实现这一技术的主要编程语言,因为其拥有丰富的数据处理和机器学习库。 首先,...
在本项目"Discover-Embeddings-with-TensorFlow.js"中,我们将探讨如何使用TensorFlow.js在JavaScript环境中构建和应用词嵌入(Word Embeddings)和句子嵌入(Sentence Embeddings)。TensorFlow.js是Google开发的一...
修改了deepwalk代码的GraphEmbedding-master修改了deepwalk代码的GraphEmbedding-master修改了deepwalk代码的GraphEmbedding-master修改了deepwalk代码的GraphEmbedding-master修改了deepwalk代码的GraphEmbedding-...
在电子测试和测量领域,In-Situ De-embedding(ISD)技术是一种重要的分析方法,用于消除测量过程中由于测试夹具、电缆或其他外部因素引入的误差,从而获取设备或电路的真实性能数据。ISD技术的核心在于,它能够在...
在Spark中实现Face Embedding,通常会结合深度学习模型,如卷积神经网络(CNN)。CNN可以从原始图像中提取特征,然后通过降维技术(如PCA或t-SNE)得到Face Embedding。源码中可能包含了训练CNN模型的步骤,以及...
fig.1-5 Mixed de-embedding method 在这个模型中,我们需要考虑 pads 和 DUT 之间的耦合效应,以及 pads 和 interconnect 之间的耦合效应,并且需要考虑多个 pads 之间的耦合效应。 首先,我们需要将 S 参数转换...
- **Embedding Projector:** 用于交互式可视化和高维数据分析的工具,可以帮助理解和分析神经网络的行为。 #### 四、数据预处理 **归一化处理:** - 代码示例: ```python all_values = test_data_list[1]....
open-source-de-embedding-j-ellison
它放弃了传统的循环神经网络(RNNs)和卷积神经网络(CNNs),完全依赖于自注意力(self-attention)机制来捕获输入序列中的长距离依赖。 在TensorFlow框架下实现Transformer模型,我们需要关注以下几个关键组成...
前5个您将学到的要点> 熟悉TensorFlow库的基本功能了解TensorFlow的线性回归技术通过动手配方学习SVM 实施神经网络以改善预测模型将NLP和情感分析应用于您的数据如果您觉得这本书适合您,请立即获取!说明和导航所有...
通过深入学习和实践rotary-embedding-torch,开发者和研究人员可以在自然语言处理项目中探索更高效的位置编码方法,提升模型的性能,特别是在处理长序列和捕捉长期依赖关系的场景下。同时,这也为进一步研究...