word2vec实践:gensim实现

上周,有缘接触到word2vec,了解了它的强大,这篇文章就写写它吧!

实现word2vec的方式有很多,我所知道的就有手搓、使用tensorflow和gensim。本篇文章是以gensim实现,代码很简单。如果想看tensorflow实现的参考Vector Representations of Words

想直接跑代码查看效果,可点击Word2VecDemo下载。

整篇文章分成四部分:

  • 第一步:获得数据,建立语料库

  • 第二步:分词

  • 第三步:训练

  • 第四步:查看效果

第一步:获得数据,建立语料库

本打算下载维基百科中文语料库来跑一下,但由于时间原因,还没试。当前,使用的是我从一个法律网站爬下来30万条数据。爬数据的框架,是使用scrapy

第二步:分词

在之前,我一个同学盼哥跟我说过,他跑过tensorflow中word2vec的例子,需要注意的是英文不需要分词,而中文需要分词。当时没明白过来,但真正看到示例代码的时候,才知道真这样。

然后,我就在github中搜到了jieba,看到9k+ star,分词就用它了。

之后,就从数据库中取出数据,使用jieba分词,存储到./data文件夹中。

第三步:训练

gensim训练特别简单,就是读取./data文件下分好词的文本,然后将其使用空格分割,返回给models.gensim训练:


#coding: utf-8

#中文版处理的word2vec

from gensim import models

# 引入日志配置

import logging

logging.basicConfig(format='%(asctime)s : %(levelname)s : %(message)s', level=logging.INFO)

file_path = "./data/case.txt"

class MySentences(object):

def __init__(self, file_path):

self.file_path = file_path

def __iter__(self):

for line in open(file_path):

# split当只有一个的时候,返回单个字符串,多个则返回数组

words = line.split(" ")

result_word = []

for word in words:

if word and word != '\n':

result_word.append(word)

yield result_word

sentences = MySentences(file_path)

model = models.Word2Vec(sentences, workers=20, min_count=5, size=200)

# 保存模型

model.save("./cache/zh_word2vec")

需要注意的是:

1、models.Word2Vec中的参数:

  • sentences: 可以是个二维数组,例如:[['今天', '是', '星期天'], ['明天', '是', '星期一']],但一般语料库都比较大,所以都是使用yield方式。

  • workers: 训练数据的线程数

  • min_count: 当某个词出现的平率少于这个数,就会被忽视

  • size: 存储向量的维度,维度越大存储的信息越多,越准确

2、保存训练好的模型到./cache/zh_word2vec


model.save("./cache/zh_word2vec")

后面查看效果的时候,会用到。

第四步,查看效果

代码实现流程很简单,就是使用models.Word2Vec.load加载训练好的模型,然后使用model模块下的API进行操作。

代码如下:


#coding: utf-8

#中文版处理的word2vec使用

from gensim import models

# 引入日志配置

import logging

logging.basicConfig(format='%(asctime)s : %(levelname)s : %(message)s', level=logging.INFO)

model = models.Word2Vec.load("./cache/zh_word2vec")

print '\n女人 + 丈夫 - 男人:'

result = model.most_similar(positive=['女人', '丈夫'], negative=['男人'], topn=1)

print result[0][0], result[0][1]

print '\n抢夺和抢劫相近程度:'

print model.similarity('抢夺', '抢劫')

print "\n抢劫的近义词"

result = model.most_similar(['抢劫'])

for value in result:

print value[0], value[1]

print '\n公司法的近义词:'

result = model.most_similar(['公司法'])

for value in result:

print value[0], value[1]

print '\n公司法和协议组成的近义词:'

result = model.most_similar(['公司法', '协议'])

for value in result:

print value[0], value[1]

print '\n委托书的近义词:'

result = model.most_similar(['委托书'])

for value in result:

print value[0], value[1]

print '\n投资的近义词:'

result = model.most_similar(['投资'])

for value in result:

print value[0], value[1]

print "\n找出投资、抢劫、强奸、盗窃中,哪个词不是一组的:"

result = model.doesnt_match(['投资', '抢劫', '强奸', '盗窃'])

print result

结果为:


女人 + 丈夫 - 男人:

妻子 0.638504564762

抢夺和抢劫相近程度:

0.80240327463

抢劫的近义词

抢夺 0.802403330803

盗窃 0.800097942352

作案 0.797169923782

抢劫犯罪 0.74809718132

敲诈勒索 0.745306968689

诈骗 0.706851243973

行窃 0.706330060959

强奸 0.685930252075

共谋 0.683236837387

飞车 0.653475642204

公司法的近义词:

继承法 0.759847998619

行政处罚法 0.738676190376

土地管理法 0.73749756813

票据法 0.735802054405

物权法 0.734579086304

产品质量法 0.702591955662

保险法 0.695441961288

著作权法 0.683708071709

消防法 0.682392597198

劳动法 0.670343637466

公司法和协议组成的近义词:

协议书 0.666539371014

消防法 0.601478874683

拍卖法 0.584682762623

合同 0.582781195641

继承法 0.573017239571

公司章程 0.572464048862

票据法 0.560360312462

补充协议 0.551261663437

物权法 0.549430251122

土地管理法 0.548958778381

委托书的近义词:

授权书 0.733257114887

书面材料 0.667756915092

声明书 0.649828374386

声明 0.635425388813

承诺函 0.623859405518

承诺书 0.614668488503

担保书 0.598217010498

确认函 0.597471117973

便条 0.589580059052

函件 0.586620807648

投资的近义词:

出资 0.632706165314

入股 0.615086615086

投入 0.525379896164

利润分配 0.503669142723

股票 0.50173163414

资金 0.495302915573

回报 0.493470430374

开发 0.492733627558

增资 0.49268245697

顾问 0.490810781717

找出投资、抢劫、强奸、盗窃中,哪个词不是一组的:

投资

可以看出来,整个模型已经有点效果出来了。若是,整个语料库再扩大十倍,应该会更准确很多。

总结

gensim实现的word2vec,使用特别简单,效果也很不错。不过,后期打算深入了解原理,然后使用tensorflow的方式进行训练,看效果能否更好。

本来,打算再写一篇doc2vec的,不过,因为至今未看到很大的效果,所以留待以后吧。

参考

Simple word2vec tutorial

Quick Example

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,332评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,508评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,812评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,607评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,728评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,919评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,071评论 3 410
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,802评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,256评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,576评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,712评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,389评论 4 332
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,032评论 3 316
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,798评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,026评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,473评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,606评论 2 350

推荐阅读更多精彩内容