200314 Embedding及其与word2vec关系的个人理解

参考链接keras:3)Embedding层详解
示例原文链接:
https://blog.csdn.net/qianshishangdi/article/details/88640204

个人理解:

以下是个人对Embedding及其与word2vec关系的通俗理解,表达尽量接地气,语言可能不准确,有不正确的地方欢迎指正。
keras原型和关键参数:
keras.layers.embeddings.Embedding(input_dim, output_dim, input_length=None)
• input_dim: int > 0。词汇表大小, 即,最大整数 index + 1。
• output_dim: int >= 0。词向量的维度。
• input_length: 输入序列的长度,必须和输入数据长度一致。当它是固定的时。 如果你需要连接 Flatten 和 Dense 层,则这个参数是必须的 (没有它,dense 层的输出尺寸就无法计算)

Embedding:建立一个可训练的两层神经网络,对输入的数据进行预处理;包括输入层、input层和output层。
input_dim即input层节点数对应词汇表,Embedding层自动实现每节点对应一个词汇
Embedding实质是训练一个与输入相关的向量表,该向量表的尺寸为[input_dim,input_length,output_dim](隐含要求输入是one-hot码);训练过程input层和output层权重逐渐优化,权重表可以表达训练数据之间的逻辑关系。
Embedding输出=输入*Embedding,相当于按输入one-hot码在Embedding权重矩阵中查表,得到一个与输入对应的向量。该向量在nlp中可以用作词向量,与one-hot相比,该词向量尺寸更小并且可以表达词之间的逻辑关系,词向量之间的夹角表示词向量之间语义相近程度。
word2vec与Embedding关系:word2vec本身是一个语言模型,一般认为是一个三层的神经网络,其中第一层相当于Embedding,且优化了查表速度(因为Embedding本身是两层网络,所以可以将word2vec理解为一个4层的深度神经网络)。word2vec第一层的权重即为输入的词向量表,第一层的输出即为word2vec的词向量。很多NLP将word2vec单纯作为文本向量化工具。

示例代码

import numpy as np
from keras.models import Sequential
from keras.layers import Embedding, Masking

# Embedding和Masking都可以用来处理变长文本,Embedding只能过滤0

model = Sequential()
model.add(Embedding(input_dim=2,
                    output_dim=2,   #将输入拆分成一个几维的量
                    input_length=7,
                    ))

print('Embedding input shape:\n', model.layers[0].input_shape)
print('Embedding output shape:\n', model.layers[0].output_shape)

model.compile('rmsprop', 'mse')
a=np.array([[0, 1, 0, 1, 1, 0, 0],
            [1, 1, 1, 1, 1, 1, 1]]
)
print('input shape a:\n', a, a.shape)

result = model.predict(a)
print('Embedded a:\n', result)
print('shape Embedded a:\n', result.shape)

运行结果

Using TensorFlow backend.
Embedding input shape:
 (None, 7)
Embedding output shape:
 (None, 7, 2)
input shape a:
 [[0 1 0 1 1 0 0]
 [1 1 1 1 1 1 1]] (2, 7)
2019-03-18 15:23:16.590430: I tensorflow/core/platform/cpu_feature_guard.cc:141] Your CPU supports instructions that this TensorFlow binary was not compiled to use: AVX2
Embedded a:
 [[[ 0.00076254  0.04154864]
  [-0.03167279 -0.00586861]
  [ 0.00076254  0.04154864]
  [-0.03167279 -0.00586861]
  [-0.03167279 -0.00586861]
  [ 0.00076254  0.04154864]
  [ 0.00076254  0.04154864]]

 [[-0.03167279 -0.00586861]
  [-0.03167279 -0.00586861]
  [-0.03167279 -0.00586861]
  [-0.03167279 -0.00586861]
  [-0.03167279 -0.00586861]
  [-0.03167279 -0.00586861]
  [-0.03167279 -0.00586861]]]
shape Embedded a:
 (2, 7, 2)
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 218,204评论 6 506
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,091评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,548评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,657评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,689评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,554评论 1 305
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,302评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,216评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,661评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,851评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,977评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,697评论 5 347
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,306评论 3 330
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,898评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,019评论 1 270
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,138评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,927评论 2 355

推荐阅读更多精彩内容

  • 最近新接触文本分类问题,对于我来数第一个问题就是Word Embedding这个词到底是什么意思,因此也就开始学习...
    小松qxs阅读 24,861评论 2 27
  • 独热编码 独热编码即 One-Hot 编码,又称一位有效编码,其方法是使用N位状态寄存器来对N个状态进行编码,每个...
    阡陌哥哥阅读 272,668评论 18 270
  • 1、 前言 本篇主要介绍关键词的向量表示,也就是大家熟悉的word embedding。自Google 2013...
    leepand阅读 16,670评论 2 13
  • 独热编码其方法是使用N位状态寄存器来对N个状态进行编码,每个状态都有它独立的寄存器位,并且在任意时候,其中只有一位...
    Jessie_83bf阅读 441评论 0 0
  • 一夜的不眠 盼黎明的曙光 它如一盏灯 能照亮孤独的心灵 让人忘记痛苦 让心不在孤寂 探望 从窗帘下 只有路灯 探望...
    淡然若怡阅读 202评论 1 7