基于gensim的word2vec实战

word2vec 介绍:将词汇转化为机器能够读懂的向量~向量每个维度的含义,无意义.......

训练数据:wiki 开放的中文数据:zhwiki_2017_03.clean,1G大小

首先,观测当前训练数据样式:



可以看出,数据样本为,关键字-详细解释,两个维度。共有92W条数据。

这里采用jieba工具进行分词。
步骤1:数据预处理
先用正则去除文本中的标点符号,在结合结巴分词工具进行分词。
这里默认采用结巴的精准分词。也可以根据不同情况,采用全分词策略。

r = re.compile("[\s+\.\!\/_,$%^*(+\"\']+|[+——!;「」》::“”·‘’《,。?、~@#¥%……&*()()]+")
 #以下两行过滤出中文及字符串以外的其他符号
sentence = r.sub('',str(content[i][0]))
seg_list = jieba.cut(sentence)

停用词过滤

import pandas as pd
stopwords = pd.read_table('stopwords.txt',header = None).iloc[:,:].values

def stopword_filter(stopwords,seq_words):
    filter_words_list = []
    #停用词过滤
    for word in seq_words:
        if word not in stopwords:
            filter_words_list.append(word)
    
    return filter_words_list
r = re.compile("[\s+\.\!\/_,$%^*(+\"\']+|[+——!;「」》::“”·‘’《,。?、~@#¥%……&*()()]+")

#for i in range(content.shape[0]):
head = ["分词结果"]
to_csv_content = []

for i in range(content.shape[0]):
    #以下两行过滤出中文及字符串以外的其他符号
    sentence = r.sub('',str(content[i][0]))
    seg_list = jieba.cut(sentence)
#     to_csv_content.append(" ".join(seg_list))
    seq_words = " ".join(seg_list).split(' ');
    to_csv_content.append(stopword_filter(stopwords,seg_list))
    
    if i % 100000 == 0 and i != 0:
        df = pd.DataFrame (to_csv_content , columns = head)
        df.to_csv("bf_stopword_filter/seq2_stopword_filter_"+ str(i) + ".csv" , encoding = "utf-8")
        to_csv_content.clear()
        print("finish_"+str(i))
    
df = pd.DataFrame(to_csv_content , columns = head)
df.to_csv ("bf_stopword_filter/seq2_stopword_filter__929050.csv" , encoding = "utf-8")
to_csv_content.clear()
print("finish_929050")

这里我将原始数据拆分为10份,这里随意~
步骤2
word2vec 模型训练
根据 文档 提示

Produce word vectors with deep learning via word2vec’s “skip-gram and CBOW models”, using either hierarchical softmax or negative sampling

word2vec总共有两种训练方法,cbow 和 skip-gram,以及两种方式的损失函数构造,具体原理这里不再赘述。
有个值得注意的地方就是:

Make sure you have a C compiler before installing gensim, to use optimized (compiled) word2vec training

否则采用gensim框架训练模型的时候会事件会很长。 = =!

训练模型的方法:

model = Word2Vec(sentences, size=100, window=5, min_count=5, workers=4)

模型保存以及模型加载

model.save(model_name)
model = Word2Vec.load(model_name)

继续之前的代码,读取之前分好词的文本,仅为了实验,这里只获取10000条数据,设置训练200维,其余参数默认:

import pandas as pd 
data_100000 = pd.read_csv('seq2_100000.csv', header = 0) 
content = data_100000.iloc[:10000,1:2].values
train_content = []
for item in content: 
    train_content.append(item[0]).split(' '))

from gensim.models import word2vec 
import time
start = time.clock()
model=word2vec.Word2Vec(train_content, size=200)
end = time.clock()
print('Running time: %s Seconds'%(end-start))

测试

y2 = model.wv.similarity(u"时期", u"种类")
print(y2)

for i in model.wv.most_similar(u"戏剧"):
    print (i[0],i[1])
0.028777361728733544
话剧 0.9370647668838501
舞蹈 0.8956470489501953
音乐家 0.8940117359161377
喜剧 0.8896620273590088
艺术家 0.8895379304885864
艺术作品 0.883725106716156
歌唱 0.8832190036773682
儿童文学 0.8812234997749329
流行音乐 0.8799906969070435
音乐 0.877548336982727

选取其中一些词汇,采用TSNE 进行降维可视化,不难发现,意思相近的词汇在空间中的位置也就相对贴近:

X_tsne = TSNE(n_components=2,learning_rate=100).fit_transform(model.wv[random_word])

from matplotlib.font_manager import *  
import matplotlib.pyplot as plt 
#解决负号'-'显示为方块的问题  
plt.figure(figsize=(14, 8)) 
myfont = FontProperties(fname='/usr/share/fonts/wqy-zenhei/wqy-zenhei.ttc')

plt.scatter(X_tsne[:,0],X_tsne[:,1])
for i in range(len(X_tsne)):
    x=X_tsne[i][0]
    y=X_tsne[i][1]
    plt.text(x , y ,random_word[i], fontproperties= myfont,size = 16)
 
plt.show()

到此模型训练就算完成了,这里对gensim中word2vec中的参数做一下我认为比较重要的参数,即可能会用到的参数。
sg (int {1, 0}) :  表示训练的方法 如果是1则采用skip-gram,否则采用cbow,默认为0
size : 词向量的维度。
min_count:低于设置词频的词会被忽略。
workers: 设置并发
hs (int {1,0}) : 如果是1则采用hierarchical softmax 方式估计. 如果是 0采用.“负采样”(negative sampling)方式训练。

简要总结:如果训练数据量较大的情况下,采用skip-gram 的效果会更加。

model.save('/tmp/mymodel')  
model.save_word2vec_format('/tmp/mymodel.txt',binary=False)   

前一组方法保存可以在读取后追加训练
后一组方法保存不能追加训练

参考资料:
gensim word2vec模块:
https://radimrehurek.com/gensim/models/word2vec.html
https://rare-technologies.com/word2vec-tutorial/
jieba使用说明:
http://www.oss.io/p/fxsjy/jieba
warning解决方案:
https://blog.csdn.net/bychahaha/article/details/47908295
gensim word2vec模块增量训练:
https://blog.csdn.net/qq_19707521/article/details/79169826

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 215,634评论 6 497
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,951评论 3 391
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 161,427评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,770评论 1 290
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,835评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,799评论 1 294
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,768评论 3 416
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,544评论 0 271
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,979评论 1 308
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,271评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,427评论 1 345
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,121评论 5 340
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,756评论 3 324
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,375评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,579评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,410评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,315评论 2 352

推荐阅读更多精彩内容