对于机器学习任务而言,不管是什么类型的数据(语言,声音,图像,视频),都必须转化为数值型数据,一般均为向量或者矩阵。自然语言处理,经过了一个长期的发展过程,近几年取得了重大的突破。自然语言处理的突破主要得益于深度学习技术(自然语言处理专用算法)的进步以及计算机算力的提升(GPU并行计算)。
这一小节,我们将介绍自然语言处理发展历史中的第一个模型 - 词袋模型。
1.词袋模型(Bag of words)的定义
词袋模型:顾名思义,就是把文章中的所有词语装入到一个袋子当中,装入袋子中的词语是没有重复的。
下面用一个小例子来解释词袋模型。
自己编一段文本,text = ['today is a sunny day', 'my mood is so beautiful', 'I want to play basketball with my friends']
由于英文中的词是天然分隔的,所以词袋的样子就长这样 bag = ['today', 'is', 'a', 'sunny', 'day', 'my', 'mood', 'so', 'beautiful', 'i', 'want', 'to', 'play', 'basketball', 'with', 'friends'],词袋中装入了所有无重复的词。真实的词袋中的词是没有顺序的,是杂乱的。
接下来,采用采用one-hot-encoding的编码方式对文本中的每句话(我们用1、2、3分别表示上述的3句话)进行编码,得到如下的结果。
today | is | a | sunny | day | my | mood | so | beautiful | i | want | to | play | basketball | with | friends | |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
2 | 0 | 0 | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
3 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 |
从上面的这个表格可以看出:
1.每句话都是按照词袋中的所有词构造向量。
2.每个词下面的数字表示该词在句子中出现的次数,如0,1,2......
3.真实的词袋模型中的词向量是没有顺序的,此处是人为编造的,看着还挺有规律,其实是没有的。
补充知识:
1.词袋模型使用的one-hot-encoding编码,如果文本内容非常多,那么词向量的维度将特别大,多数位置会出现0,所以我们也称词袋模型为稀疏编码。
2. Python实现词向量编码
上面了解了词向量的基本原理,接下来就使用python语言动手实现词向量。使用python实现词向量的主要工具为sklearn工具包中的feature_extraction.text.CountVectorizer工具包,API文档地址如下:
Sklearn.feature_extraction.text
#导入工具包
import numpy as np
import pandas as pd
from sklearn.feature_extraction.text import CountVectorizer
#创建文本内容
text = ['The dog runs to a cat', 'the cat finds a fish in the basin', 'the bird is flying freely in the sky ']
#初始化词袋模型并训练文本
cv = CountVectorizer(analyzer = 'word',stop_words = 'english')
cv.fit(text)
#查看词袋模型中的关键词
print(cv.get_feature_names())
#此处得到的关键词为去掉停用词之后的关键词
#['basin', 'bird', 'cat', 'dog', 'finds', 'fish', 'flying', 'freely', 'runs', 'sky']
#查看每个词的向量
print(cv.vocabulary_)
#该字典结果中,key为关键词,value为索引
#{'dog': 3, 'runs': 8, 'cat': 2, 'finds': 4, 'fish': 5, 'basin': 0, 'bird': 1, 'flying': 6, 'freely': 7, 'sky': 9}
#将文本内容转化为向量
cv_fit = cv.transform(text)
#查看每个句子的向量
print(cv_fit.toarray())
#[[0 0 1 1 0 0 0 0 1 0]
#[1 0 1 0 1 1 0 0 0 0]
#[0 1 0 0 0 0 1 1 0 1]]
#将处理后文本向量化表示
pd.DataFrame(data = cv_fit.toarray(),columns = cv.get_feature_names())
3. CountVectorizer工具解释说明
sklearn.feature_extraction.text.CountVectorizer(*, input='content',
encoding='utf-8', decode_error='strict', strip_accents=None, lowercase=True,
preprocessor=None, tokenizer=None, stop_words=None, token_pattern='(?u)\b\w\w+\b',
ngram_range=(1, 1), analyzer='word', max_df=1.0, min_df=1,
max_features=None, vocabulary=None, binary=False, dtype=<class 'numpy.int64'>)
参数说明引用:https://blog.csdn.net/weixin_38278334/article/details/82320307
CountVectorizer类的参数很多,分为三个处理步骤:preprocessing、tokenizing、n-grams generation.
一般要设置的参数是:ngram_range,max_df,min_df,max_features等,具体情况具体分析
参数表 | 作用 |
---|---|
input | 一般使用默认即可,可以设置为"filename’或’file’ |
encodeing | 使用默认的utf-8即可,分析器将会以utf-8解码raw document |
decode_error | 默认为strict,遇到不能解码的字符将报UnicodeDecodeError错误,设为ignore将会忽略解码错误,还可以设为replace,作用尚不明确 |
strip_accents | 默认为None,可设为ascii或unicode,将使用ascii或unicode编码在预处理步骤去除raw document中的重音符号 |
analyzer | 一般使用默认,可设置为string类型,如’word’, ‘char’, ‘char_wb’,还可设置为callable类型,比如函数是一个callable类型 |
preprocessor | 设为None或callable类型 |
tokenizer | 设为None或callable类型 |
ngram_range | 词组切分的长度范围 |
stop_words | 设置停用词,设为english将使用内置的英语停用词,设为一个list可自定义停用词,设为None不使用停用词,设为None且max_df∈[0.7, 1.0)将自动根据当前的语料库建立停用词表 |
lowercase | 将所有字符变成小写 |
token_pattern | 过滤规则,表示token的正则表达式,需要设置analyzer == ‘word’,默认的正则表达式选择2个及以上的字母或数字作为token,标点符号默认当作token分隔符,而不会被当作token |
max_df | 可以设置为范围在[0.0 1.0]的float,也可以设置为没有范围限制的int,默认为1.0。这个参数的作用是作为一个阈值,当构造语料库的关键词集的时候,如果某个词的document frequence大于max_df,这个词不会被当作关键词。如果这个参数是float,则表示词出现的次数与语料库文档数的百分比,如果是int,则表示词出现的次数。如果参数中已经给定了vocabulary,则这个参数无效 |
min_df | 类似于max_df,不同之处在于如果某个词的document frequence小于min_df,则这个词不会被当作关键词 |
max_features | 默认为None,可设为int,对所有关键词的term frequency进行降序排序,只取前max_features个作为关键词集 |
vocabulary | 默认为None,自动从输入文档中构建关键词集,也可以是一个字典或可迭代对象? |
binary | 默认为False,一个关键词在一篇文档中可能出现n次,如果binary=True,非零的n将全部置为1,这对需要布尔值输入的离散概率模型的有用的 |
dtype | 使用CountVectorizer类的fit_transform()或transform()将得到一个文档词频矩阵,dtype可以设置这个矩阵的数值类型 |
属性表 | 作用 |
---|---|
vocabulary_ | 词汇表;字典型 |
get_feature_names() | 所有文本的词汇;列表型 |
stop_words_ | 返回停用词表 |
方法表 | 作用 |
---|---|
fit_transform(X) | 拟合模型,并返回文本矩阵 |
fit(raw_documents[, y]) | Learn a vocabulary dictionary of all tokens in the raw documents. |
fit_transform(raw_documents[, y]) | Learn the vocabulary dictionary and return term-document matrix. |
用数据输入形式为列表,列表元素为代表文章的字符串,一个字符串代表一篇文章,字符串是已经分割好的。CountVectorizer同样适用于中文;
CountVectorizer是通过fit_transform函数将文本中的词语转换为词频矩阵,矩阵元素a[i] [j]表示j词在第i个文本下的词频。即各个词语出现的次数,通过get_feature_names()可看到所有文本的关键字,通过toarray()可看到词频矩阵的结果。
4.词袋模型小结
1.词袋模型只关注词在句子中出现的频率,不关注词的位置和词与词之间的联系,所以说词袋模型是没有灵魂的词向量构造模型。
2.词袋模型是最早的自然语言处理模型,将真实世界中的语言通过计数的方式,转化为了数学符号,使得计算机可以理解。从目前来看,词袋模型已经很少使用了,但词袋模型的思想仍然是值得我们学习的。
3.对于词袋模型的构造方法CountVectorizer中的重点参数(analyzer,stop_words,n_grame,max_df,max_features等)要深入理解。