特征提取方法基础知识,将不同类型的数据转换成特征向量方便机器学习算法研究
1.分类变量特征提取:分类数据的独热编码方法,并用scikit-learn的DictVectorizer类实现
2.机器学习问题中常见的文档特征向量:
>>1)词库模型将文档转换成词块的频率构成的特征向量,用CountVectorizer类计算基本单词频次的二进制特征向量。
>>2)通过停用词过滤(stop_word),词根还原,词形还原(wordNetLemmatizer)进一步优化特征向量,
>>3)加入TF-IDF(TfidfVectorizer)权重调整文集常见词,消除文档长度对特征向量的影响。
3.图像特征提取的方法(skimage)
介绍了一个关于的手写数字识别的OCR问题,通过图像的像素矩阵扁平化来学习手写数字特征。这种方法非常耗费资源,于是引入兴趣点提取方法,通过SIFT和SURF进行优化。
4.数据标准化的方法,确保解释变量的数据都是同一量级,均值为0的标准化数据。scikit-learn的scale函数可以实现。
1.分类变量特征提取
分类数据的独热编码方法,分类变量特征提取(One-of-K or One-Hot Encoding):通过二进制数来表示每个解释变量的特征
例子:假设city变量有三个值:New York, San Francisco, Chapel Hill。独热编码方式就是用三位二进制数,每一位表示一个城市。
from sklearn.feature_extraction import DictVectorizer onehot_encoder = DictVectorizer() instances = [{'city':'New York'},{'city':'San Francisco'},{'city': 'Chapel Hill'}] print (onehot_encoder.fit_transform(instances).toarray()) out: [[ 0. 1. 0.] [ 0. 0. 1.] [ 1. 0. 0.]]
2.机器学习问题中常见的文档特征向量。
1)文字特征提取-词库模型(Bag-of-words model):文字模型化最常用方法,可以看成是独热编码的一种扩展,它为每个单词设值一个特征值。依据是用类似单词的文章意思也差不多。可以通过有限的编码信息实现有效的文档分类和检索。
CountVectorizer 类会将文档全部转换成小写,然后将文档词块化(tokenize).文档词块化是把句子分割成词块(token)或有意义的字母序列的过程。词块大多是单词,但是他们也可能是一些短语,如标点符号和词缀。CountVectorizer类通过正则表达式用空格分割句子,然后抽取长度大于等于2的字母序列。
例子:
from sklearn.feature_extraction.text import CountVectorizer corpus = [ 'UNC played Duke in basketball', 'Duke lost the basketball game', 'I ate a sandwich' ] vectorizer = CountVectorizer() print (vectorizer.fit_transform(corpus).todense()) print (vectorizer.vocabulary_) out: [[0 1 1 0 1 0 1 0 0 1] [0 1 1 1 0 1 0 0 1 0] [1 0 0 0 0 0 0 1 0 0]] {'game': 3, 'ate': 0, 'sandwich': 7, 'lost': 5, 'duke': 2, 'unc': 9, 'played': 6, 'in': 4, 'the': 8, 'basketball': 1}
词汇表里面有10个单词,但a不在词汇表里面,是因为a的长度不符合CountVectorizer类的要求。
对比文档的特征向量,会发现前两个文档相比第三个文档更相似。如果用欧氏距离(Euclidean distance)计算它们的特征向量会比其与第三个文档距离更接近。
两向量的欧氏距离就是两个向量欧氏范数(Euclidean norm)或L2范数差的绝对值:d=||x0-x1||
向量的欧氏范数是其元素平方和的平方根:
scikit-learn里面的euclidean_distances函数可以计算若干向量的距离,表示两个语义最相似的文档其向量在空间中也是最接近的。
例子:
from sklearn.feature_extraction.text import CountVectorizer from sklearn.metrics.pairwise import euclidean_distances vectorizer = CountVectorizer() counts = vectorizer.fit_transform(corpus).todense() for x,y in [[0,1],[0,2],[1,2]]: dist = euclidean_distances(counts[x],counts[y]) print('文档{}与文档{}的距离{}'.format(x,y,dist)) out: 文档0与文档1的距离[[ 2.44948974]] 文档0与文档2的距离[[ 2.64575131]] 文档1与文档2的距离[[ 2.64575131]] 文档0:[[0 1 1 0 1 0 1 0 0 1]] 文档1:[[0 1 1 1 0 1 0 0 1 0]] 文档2:[[1 0 0 0 0 0 0 1 0 0]]
#两个常见问题:
第一个问题就是高维向量需要占用更大内存。有许多零元素的高维特征向量成为稀疏向量(sparse vectors)。NumPy提供了一些数据类型只显示稀疏向量的非零元素,可以有效处理这个问题。
第二个问题就是著名的维度灾难(curse of dimensionality,Hughes effect),维度越多就要求更大的训练集数据保证模型能够充分学习。如果训练样本不够,那么算法就可以拟合过度导致归纳失败。
2)特征向量降维基本方法是
1).单词全部转换成小写
2).去掉文集常用词,即停用词(stop-word)像a,an,the,助动词do,be,will,介词on,around,beneath等。停用词通常是构建文档意思的功能词汇,其字面意义并不体现。CountVectorizer类可以通过设置stop_words参数过滤停用词,默认是英语常用的停用词。
3).词跟还原与词形还原
#去掉停用词 from sklearn.feature_extraction.text import CountVectorizer corpus = [ 'UNC played Duke in basketball', 'Duke lost the basketball game', 'I ate a sandwich' ] vectorizer = CountVectorizer(stop_words='english') print(vectorizer.fit_transform(corpus).todense()) print(vectorizer.vocabulary_) out: [[0 1 1 0 0 1 0 1] [0 1 1 1 1 0 0 0] [1 0 0 0 0 0 1 0]] {'game': 3, 'ate': 0, 'sandwich': 6, 'lost': 4, 'duke': 2, 'unc': 7, 'played': 5, 'basketball': 1} #词跟还原(stemming)与词形还原(lemmatization),可以用nltk的wordNetLemmatizer实现 #nltk.stemmer.porter.PorterStemmer 类是一个用于从英文单词中获得符合语法的(前缀)词干的极其便利的工具. #用法例子 from nltk.stem.wordnet import WordNetLemmatizer lemmatizer = WordNetLemmatizer() print(lemmatizer.lemmatize('gathering','v')) print(lemmatizer.lemmatize('gathering','n')) out: gather gathering #词跟还原 from nltk import word_tokenize from nltk.stem import PorterStemmer from nltk.stem.wordnet import WordNetLemmatizer from nltk import pos_tag wordnet_tags = ['n','v'] corpus = [ 'UNC played Duke in basketball', 'Duke lost the basketball game', 'I ate a sandwich' ] stemmer = PorterStemmer() print ('Stemmed:',[[stemmer.stem(token) for token in word_tokenize(document)] for document in corpus]) #词形还原 def lemmatize(token, tag): if tag[0].lower() in ['n','v']: return lemmatizer.lemmatize(token, tag[0].lower()) return token out: lemmatizer = WordNetLemmatizer() tagged_corpus = [pos_tag(word_tokenize(document)) for document in corpus] print ('Lemmatized:',[[lemmatize(token, tag) for token, tag in document] for document in tagged_corpus]) Stemmed: [['UNC', 'play', 'Duke', 'in', 'basketbal'], ['Duke', 'lost', 'the', 'basketbal', 'game'], ['I', 'ate', 'a', 'sandwich']] Lemmatized: [['UNC', 'play', 'Duke', 'in', 'basketball'], ['Duke', 'lose', 'the', 'basketball', 'game'], ['I', 'eat', 'a', 'sandwich']]
3)TF-IDF权重的扩展词库
1).单词频率对文档意思有重要作用,但是在对比不同文档时,还需考虑文档的长度,可通过scikit-learn的TfdfTransformer类对词频(term frequency)特征向量归一化实现不同文档向量的可比性(L2范数)。
2).对数词频调整方法(logarithmically scaled term frequencies),把词频调整到一个更小的范围
3).词频放大法(augmented term frequencies),适用于消除较长文档的差异,scikit-learn没有现成可用的词频放大公式,不过通过CountVectorizer可以实现。
归一化,对数调整词频和词频放大三支方法都消除文档不同大小对词频的影响,另一个问题仍然存在,那就是特征向量里高频词的权重更大,即使这些词在文集内其他文档里面也经常出现。这些词可以被看成是该文集的停用词,因为它们太
普遍对区分文档的意思没任何作用。逆向文件频率(inverse document frequency,IDF)就是用来度量文集中单词频率的。
单词的TF-IDF值就是其频率与逆向文件频率的乘积,TfdfTransformer类默认返回TF-IDF值,其参数use_idf默认为True。由于TF-IDF加权特征向量经常用来表示文本,所以scikit-learn提供了TfidfVectorizer类将CountVectorizer和TfdfTransformer类封装在一起。
from sklearn.feature_extraction.text import TfidfVectorizer corpus = [ 'The dog ate a sandwich and I ate a sandwich', 'The wizard transfigured a sandwich' ] vectorizer = TfidfVectorizer(stop_words='english') print(vectorizer.fit_transform(corpus).todense()) print(vectorizer.vocabulary_) out: [[ 0.75458397 0.37729199 0.53689271 0. 0. ] [ 0. 0. 0.44943642 0.6316672 0.6316672 ]] {'wizard': 4, 'transfigured': 3, 'ate': 0, 'dog': 1, 'sandwich': 2} #通过TF-IDF加权之后,我们会发现在文集中较常见的词,如sandwich被调整了。
4)通过哈希技巧实现特征向量
前面是用包含文集所有词块的词典来完成文档词块与特征向量的映射的。两个缺点。首先是文集需要被调用两次。第一次是创建词典,第二次是创建文档的特征向量。另外,词典必须储存在内存里,如果文集特别大就会很耗内存。通过哈希表可以有效的解决这些问题。可以将词块用哈希函数来确定它在特征向量的索引位置,可以不创建词典,这称为哈希技巧(hashing trick)。scikitlearn提供了HashingVectorizer来实现这个技巧:哈希技巧是无固定状态的(stateless),它把任意的数据块映射到固定数目的位置,并且保证相同的输入一定产生相同的输出,不同的输入尽可能产生不同的输出。它可以用并行,线上,流式传输创建特征向量,因为它初始化是不需要文集输入。n_features是一个可选参数,默认值是 ,这里设置成6是为了演示。另外,注意有些单词频率是负数。由于Hash碰撞可能发生,所以HashingVectorizer用有符号哈希函数(signed hash function)。
from sklearn.feature_extraction.text import HashingVectorizer corpus = ['the', 'ate', 'bacon', 'cat'] vectorizer = HashingVectorizer(n_features=6) print(vectorizer.transform(corpus).todense()) out: [[-1. 0. 0. 0. 0. 0.] [ 0. 0. 0. 1. 0. 0.] [ 0. 0. 0. 0. -1. 0.] [ 0. 1. 0. 0. 0. 0.]]
3.图片特征的提取
1)通过像素提取特征值:
数字图像通常是一张光栅图或像素图,将颜色映射到网格坐标里。一张图片可以看成是一个每个元素都是颜色值的矩阵。表示图像基本特征就是将矩阵每行连起来变成一个行向量。光学文字识别(Optical character recognition,OCR)是机器学习的经典问题。
scikit-learn的digits数字集包括至少1700种0-9的手写数字图像。每个图像都有8x8像像素构成。每个像素的值是0-16,白色是0,黑色是16。
from sklearn import datasets import matplotlib.pyplot as plt digits = datasets.load_digits() print('Digit:',digits.target[0]) print (digits.images[0]) plt.figure() plt.axis('off') plt.imshow(digits.images[0], cmap=plt.cm.gray_r, interpolation='nearest') plt.show()
2)对感兴趣的点进行特征提取:
兴趣点:有效的图片信息,边缘(edges)和角点(corners)是两种常用的兴趣点类型。
#官方文档:http://scikit-image.org/ pdf 下载 https://peerj.com/preprints/336/ import numpy as np from skimage.feature import corner_harris, corner_peaks from skimage.color import rgb2gray import matplotlib.pyplot as plt import skimage.io as io from skimage.exposure import equalize_hist def show_corners(corners, image): fig = plt.figure() plt.gray() plt.imshow(image) y_corner, x_corner = zip(*corners) plt.plot(x_corner, y_corner, 'or') plt.xlim(0, image.shape[1]) plt.ylim(image.shape[0], 0) fig.set_size_inches(np.array(fig.get_size_inches()) * 1.5) plt.show() mandrill = io.imread('ascii_dora.png') mandrill = equalize_hist(rgb2gray(mandrill)) corners = corner_peaks(corner_harris(mandrill), min_distance=2) show_corners(corners, mandrill)提取感兴趣点结果如下:轮廓大致被提取出来了。
3)尺度不变特征转换(Scale-Invariant Feature Transform,SIFT)是一种特征提取方法,相比前面使用的方法,SIFT对图像的尺寸,旋转,亮度变化更不敏感。每个SIFT特征都是一个描述图片上某个区域边缘和角点的向量。和兴趣点不同,SIFT还可以获取每个兴趣点和它周围点的综合信息。
4)加速稳健特征(Speeded-Up Robust Features,SURF)是另一个抽取图像兴趣点的方法,其特征向量对图像的尺寸,旋转,亮度变化是不变的。SURF的算法可以比SIFT更快,更有效的识别出兴趣点。
4.数据标准化(scikit-learn的scale函数可以实现)
标准化数据均值为0,单位方差(UnitVariance)。均值为0的解释变量是关于原点对称的,特征向量的单位方差表示其特征值全身统一单位,统一量级的数据。
from sklearn import preprocessing import numpy as np X = np.array([ [0., 0., 5., 13., 9., 1.], [0., 0., 13., 15., 10., 15.], [0., 3., 15., 2., 0., 11.] ]) print( preprocessing.scale(X) ) out: [[ 0. -0.70710678 -1.38873015 0.52489066 0.59299945 -1.35873244] [ 0. -0.70710678 0.46291005 0.87481777 0.81537425 1.01904933] [ 0. 1.41421356 0.9258201 -1.39970842 -1.4083737 0.33968311]]
相关推荐
本讲习班假定您熟悉Jupyter笔记本以及熊猫,matplotlib和numpy的基础知识。 获取教程资料 如果您熟悉git,则克隆GitHub存储库最方便。 强烈建议您这样做,因为它使您可以轻松地同步对材质的任何更改。 git clone ...
【Python数据分析和特征提取】是数据科学领域中的关键步骤,主要涵盖了对数据的理解、预处理、特征工程和模型构建。以下是对这些知识点的详细说明: 1. **数据探索与可视化**: 数据探索是理解数据集的基础,它...
- 方法概述:使用卷积神经网络提取内容特征和风格特征。 - 实现步骤: - 特征提取:分别从内容图像和风格图像中提取特征。 - 优化过程:通过调整图像像素值来最小化内容损失和风格损失。 - 结果展示:生成的新...
### Python机器学习实战:随机森林分类器教程 #### 一、引言 随着大数据时代的到来,机器学习成为了处理大量数据并从中提取有用信息的关键技术之一。在众多机器学习算法中,随机森林(Random Forest)因其出色的预测...
以上内容涵盖了Python数据分析领域的一些基础知识和技术要点,从数据获取到最终结果呈现的全过程都有涉及。对于初学者而言,掌握这些基础是非常重要的。同时,随着技术的发展,数据分析的应用场景也在不断扩展,未来...
Python的`sklearn`库提供了实现这些方法的函数,例如`CountVectorizer`用于创建词袋模型,`TfidfVectorizer`用于计算TF-IDF值。 然后,我们可以使用机器学习算法,如朴素贝叶斯、支持向量机或深度学习模型(如LSTM...
在本项目中,我们主要关注的是使用Python编程语言进行LightGBM(Light Gradient Boosting Machine)模型的构建,特别是特征提取和预测过程。LightGBM是一种高效、分布式、优化的梯度增强学习库,适用于大规模数据集...
**kNN-OCR: Python计算机视觉*...对于初学者来说,这是一个很好的实践项目,可以帮助理解机器学习和计算机视觉的基础知识。对于专业人士,这个项目则提供了一个可扩展和改进的基础,例如结合深度学习模型提升识别效果。
6. **特征工程**:源代码可能涵盖如何通过特征选择、特征提取和构造新特征来优化模型性能,例如使用PCA进行主成分分析或利用LDA进行线性判别分析。 7. **模型评估与调优**:交叉验证、网格搜索等技巧在源代码中会被...
在这个“Python-用Python完成吴恩达在Coursera MOOC课程上布置的作业”项目中,我们将深入探讨机器学习的基础知识,特别是通过Python编程语言实现。吴恩达是斯坦福大学的计算机科学教授,也是Coursera上的知名机器...
标题 "基于机器学习方法Scikit-learn(sklearn)与Python结合实现的气象预报以及气象动态展示系统.zip" 提示我们这个项目是关于使用Python的Scikit-learn库进行气象预测,并且有一个可视化的动态展示系统。这个项目...
- **基础知识**: - 词袋模型 (Bag-of-Words)。 - TF-IDF (Term Frequency-Inverse Document Frequency)。 - **文本预处理**: - 分词。 - 去除停用词。 - 词形还原 (Lemmatization) 和词干提取 (Stemming)。 - *...
### 知识点详解 ...对于初学者而言,这是一个很好的入门项目,不仅能够提升编程技能,还能深入了解机器学习和图像处理的基础知识。对于有一定经验的学习者来说,该项目也是实践和拓展技能的好机会。
3. **TF-IDF与CountVectorizer**:这两种都是特征提取方法,用于将文本转化为可用于模型训练的数值表示。`CountVectorizer`简单统计每个词在文档中的出现次数,而`TfidfVectorizer`则引入TF-IDF(词频-逆文档频率)...
例如,它可以用于降维(PCA)、特征提取(直方图特征)和模型选择(交叉验证)。 5. **Tensorflow**:Tensorflow是Google开发的一个开源库,主要用于数值计算,特别是在机器学习和深度学习领域。它支持大规模的...
- **TF-IDF向量化**:在词袋模型基础上,应用TF-IDF权重,得到更有区分度的特征向量,sklearn的TfidfVectorizer可以完成这个任务。 - **词嵌入(Word Embeddings)**:如Word2Vec或GloVe,将单词映射到多维空间中...
在任职教育背景下,课程设计需要考虑到不同学员的基础知识水平和学习需求,以确保教学效果。 4. 教学方法:不同的教学方法适用于不同的教学场景和学员类型。例如,针对具有不同背景知识的学员,可以通过案例分析、...
Python之路V2.0.pdf 是一个关于 Python 编程语言的详尽指南,涵盖了 Python 的基础知识、精简代码、数据分析、机器学习、GUI 设计等多方面的知识点。下面是从该文件中提取的相关知识点: 一、Python 基础 * Python...
下面将详细介绍这个主题,并提供与Python编程相关的知识。 1. **微博情感分析**: 微博作为一种社交媒体平台,用户频繁发布和分享观点,这为情感分析提供了丰富的数据来源。微博情感分析通常包括对文本的情感极性...