语料
text_list= [
'我喜欢吃苹果和桃子尤其是桃子',
'小甲喜欢吃苹果',
'小乙喜爱吃西瓜',
'小丁喜欢吃苹果西瓜'
]
sklearn会对语料自动进行分词,默认以空格拆分,并且默认过滤掉长度为1的token和标点符号;而gensim需要先对语料分词后才能处理。为了保证两者的输入语料相同,因此处理如下
In [101]: ws = [jieba.lcut(s) for s in text_list] # gensim的输入
In [102]: ws
Out[102]:
[['我', '喜欢', '吃', '苹果', '和', '桃子', '尤其', '是', '桃子'],
['小甲', '喜欢', '吃', '苹果'],
['小乙', '喜爱', '吃', '西瓜'],
['小丁', '喜欢', '吃', '苹果', '西瓜']]
In [119]: ws_sk = [' '.join(s) for s in ws] # sklearn的输入
In [120]: ws_sk
Out[120]: ['我 喜欢 吃 苹果 和 桃子 尤其 是 桃子', '小甲 喜欢 吃 苹果', '小乙 喜爱 吃 西瓜', '小丁 喜 欢 吃 苹果 西瓜']
1. 使用sklearn提取计算tfidf
from sklearn.feature_extraction.text import CountVectorizer, TfidfVectorizer, TfidfTransformer
方法一:使用CountVectorizer和TfidfTransformer
1. CountVectorizer是通过fit_transform函数将文本中的词语转换为词频矩阵
- get_feature_names()可看到所有文本的关键字
- vocabulary_可看到所有文本的关键字和其位置
- toarray()可看到词频矩阵的结果
# token_pattern为分词方式,默认默认过滤掉长度为1的token和标点符号,即`r"(?u)\b\w\w+\b"`,为了保证分词结果和我们使用jieba的分词结果一致,这里对分词方式做修改
In [135]: vectorizer = CountVectorizer(token_pattern=r"(?u)\b\w+\b")
In [136]: count = vectorizer.fit_transform(ws_sk)
In [137]: vectorizer.get_feature_names()
Out[137]: ['吃', '和', '喜欢', '喜爱', '小丁', '小乙', '小甲', '尤其', '我', '是', '桃子', '苹果', '西瓜']
In [138]: vectorizer.vocabulary_
Out[138]:
{'我': 8,
'喜欢': 2,
'吃': 0,
'苹果': 11,
'和': 1,
'桃子': 10,
'尤其': 7,
'是': 9,
'小甲': 6,
'小乙': 5,
'喜爱': 3,
'西瓜': 12,
'小丁': 4}
In [139]: count.toarray()
Out[139]:
array([[1, 1, 1, 0, 0, 0, 0, 1, 1, 1, 2, 1, 0],
[1, 0, 1, 0, 0, 0, 1, 0, 0, 0, 0, 1, 0],
[1, 0, 0, 1, 0, 1, 0, 0, 0, 0, 0, 0, 1],
[1, 0, 1, 0, 1, 0, 0, 0, 0, 0, 0, 1, 1]])
2. TfidfTransformer是统计CountVectorizer中每个词语的tf-idf权值
In [142]: transformer = TfidfTransformer()
In [143]: tfidf_matrix = transformer.fit_transform(count)
In [144]: tfidf_matrix.toarray()
Out[144]:
array([[0.17311114, 0.33173127, 0.21173977, 0. , 0. ,
0. , 0. , 0.33173127, 0.33173127, 0.33173127,
0.66346254, 0.21173977, 0. ],
[0.3612126 , 0. , 0.44181486, 0. , 0. ,
0. , 0.69218835, 0. , 0. , 0. ,
0. , 0.44181486, 0. ],
[0.30675807, 0. , 0. , 0.58783765, 0. ,
0.58783765, 0. , 0. , 0. , 0. ,
0. , 0. , 0.46345796],
[0.31707032, 0. , 0.38782252, 0. , 0.60759891,
0. , 0. , 0. , 0. , 0. ,
0. , 0.38782252, 0.47903796]])
方法二:使用TfidfVectorizer
TfidfVectorizer可以把CountVectorizer, TfidfTransformer合并起来,直接生成tfidf值
TfidfVectorizer的关键参数:
- max_df:这个给定特征可以应用在 tf-idf 矩阵中,用以描述单词在文档中的最高出现率。假设一个词(term)在 80% 的文档中都出现过了,那它也许(在剧情简介的语境里)只携带非常少信息。
- min_df:可以是一个整数(例如5)。意味着单词必须在 5 个以上的文档中出现才会被纳入考虑。设置为 0.2;即单词至少在 20% 的文档中出现 。
- ngram_range:这个参数将用来观察一元模型(unigrams),二元模型( bigrams) 和三元模型(trigrams)。参考n元模型(n-grams)。
In [146]: tfidf_vec = TfidfVectorizer(token_pattern=r"(?u)\b\w+\b")
In [147]: tfidf_matrix = tfidf_vec.fit_transform(ws_sk)
In [148]: tfidf_vec.get_feature_names()
Out[148]: ['吃', '和', '喜欢', '喜爱', '小丁', '小乙', '小甲', '尤其', '我', '是', '桃子', '苹果', '西瓜']
In [149]: tfidf_vec.vocabulary_
Out[149]:
{'我': 8,
'喜欢': 2,
'吃': 0,
'苹果': 11,
'和': 1,
'桃子': 10,
'尤其': 7,
'是': 9,
'小甲': 6,
'小乙': 5,
'喜爱': 3,
'西瓜': 12,
'小丁': 4}
In [150]: tfidf_matrix.toarray()
Out[150]:
array([[0.17311114, 0.33173127, 0.21173977, 0. , 0. ,
0. , 0. , 0.33173127, 0.33173127, 0.33173127,
0.66346254, 0.21173977, 0. ],
[0.3612126 , 0. , 0.44181486, 0. , 0. ,
0. , 0.69218835, 0. , 0. , 0. ,
0. , 0.44181486, 0. ],
[0.30675807, 0. , 0. , 0.58783765, 0. ,
0.58783765, 0. , 0. , 0. , 0. ,
0. , 0. , 0.46345796],
[0.31707032, 0. , 0.38782252, 0. , 0.60759891,
0. , 0. , 0. , 0. , 0. ,
0. , 0.38782252, 0.47903796]])
2. 使用gensim计算tfidf
from gensim import corpora, models, similarities
In [151]: dictionary = corpora.Dictionary(ws) # 建立词典
In [152]: dictionary.token2id
Out[152]:
{'吃': 0,
'和': 1,
'喜欢': 2,
'尤其': 3,
'我': 4,
'是': 5,
'桃子': 6,
'苹果': 7,
'小甲': 8,
'喜爱': 9,
'小乙': 10,
'西瓜': 11,
'小丁': 12}
In [153]: corpus = [dictionary.doc2bow(doc) for doc in ws]
In [154]: corpus
Out[154]:
[[(0, 1), (1, 1), (2, 1), (3, 1), (4, 1), (5, 1), (6, 2), (7, 1)],
[(0, 1), (2, 1), (7, 1), (8, 1)],
[(0, 1), (9, 1), (10, 1), (11, 1)],
[(0, 1), (2, 1), (7, 1), (11, 1), (12, 1)]]
In [155]: tfidf_model = models.TfidfModel(corpus)
In [156]: tfidf_matrix_gensim = tfidf_model[corpus] # 得到语料的tfidf值
In [157]: tfidf_matrix_gensim[0] # 第一条语料的tfidf值
Out[157]:
[(1, 0.35166544195065214),
(2, 0.07297717280499402),
(3, 0.35166544195065214),
(4, 0.35166544195065214),
(5, 0.35166544195065214),
(6, 0.7033308839013043),
(7, 0.07297717280499402)]
# 计算与新数据的相似度
In [158]: index = similarities.SparseMatrixSimilarity(tfidf_model [corpus], num_features=len(dictionary.keys()))
In [159]: text_new = '小明喜欢吃苹果' # 一条新数据
In [160]: ws_new = jieba.lcut(text_new)
In [161]: ws_new
Out[161]: ['小明', '喜欢', '吃', '苹果']
In [162]: ws
Out[162]:
[['我', '喜欢', '吃', '苹果', '和', '桃子', '尤其', '是', '桃子'],
['小甲', '喜欢', '吃', '苹果'],
['小乙', '喜爱', '吃', '西瓜'],
['小丁', '喜欢', '吃', '苹果', '西瓜']]
In [163]: vec_new = dictionary.doc2bow(ws_new)
In [164]: vec_new
Out[164]: [(0, 1), (2, 1), (7, 1)]
In [165]: index[tfidf_model[vec_new]]
Out[166]: array([0.1032053 , 0.28159946, 0. , 0.2538916 ], dtype=float32) # 与第二条相似度最高,最后一条次高,结果还是比较合理的
3. 对比sklearn和gensim的计算结果
回顾下sklean和gensim各自生成的词表
In [163]: tfidf_vec.vocabulary_ # sklean
Out[163]:
{'我': 8,
'喜欢': 2,
'吃': 0,
'苹果': 11,
'和': 1,
'桃子': 10,
'尤其': 7,
'是': 9,
'小甲': 6,
'小乙': 5,
'喜爱': 3,
'西瓜': 12,
'小丁': 4}
In [164]: dictionary.token2id # gensim
Out[164]:
{'吃': 0,
'和': 1,
'喜欢': 2,
'尤其': 3,
'我': 4,
'是': 5,
'桃子': 6,
'苹果': 7,
'小甲': 8,
'喜爱': 9,
'小乙': 10,
'西瓜': 11,
'小丁': 12}
第一条数据我 喜欢 吃 苹果 和 桃子 尤其 是 桃子
In [158]: list(tfidf_matrix.toarray()[0]) # sklearn的结果
Out[158]:
[
0.1731111372459707, # 吃
0.3317312678886485, # 和
0.21173977118307816, # 喜欢
0.0, # 喜爱
0.0, # 小丁
0.0, # 小乙
0.0, # 小甲
0.3317312678886485, # 尤其
0.3317312678886485, # 我
0.3317312678886485, # 是
0.663462535777297, # 桃子
0.21173977118307816, # 苹果
0.0 # 西瓜
]
In [159]: tfidf_matrix_gensim[0] # gensim的结果
Out[159]:
[
(1, 0.35166544195065214), # 和
(2, 0.07297717280499402), # 喜欢
(3, 0.35166544195065214), # 尤其
(4, 0.35166544195065214), # 我
(5, 0.35166544195065214), # 是
(6, 0.7033308839013043), # 桃子
(7, 0.07297717280499402) # 苹果
]
简单观察,发现gensim对重要token计算出的tfidf值偏大,对次要token计算出的tfidf偏小,区分度更大
参考: