Connectionist Temporal Classification

关键词:CTC算法,forward-backward算法

引言:

traning RNNs to label unsegmented sequences directly
训练RNNs直接标记未分割序列的新方法

1. 介绍:

未分割序列数据进行标记任务中,输入流是用离散标签串(如单词/字母)进行标记的

目前隐马尔可夫模型(HMMs)条件随机场(CRFs)是序列标记的主要框架

1.RNNs:只能训练成一系列独立的标签分类,训练数据必须进行预分割,网络输出必须进行后处理,最后得到label序列

2.RNNs+HMMs:HMMs建模长序列结构,NN用于局部分类。HMM组件能够在训练过程中自动分割序列,并将网络分类转换为标签序列

3.CTC:RNNs for this purpose as connectionist temporal classification (CTC)


2. Temporal Classfication

2.1 标签错误率(LER)

ED:x变为z的所需的插入,替换和删除的最小次数(最短编辑距离)


3. Connectionist Temporal Classification

RNN网络输出转换为标签序列上的条件概率分布,通过给定输入序列,选择最有可能的标签

3.1 从网络输出到标签

启发式:尾部添加额外添加一个空白概率来对齐

对于输入序列,任何一个标签序列的总概率=sum(不同对齐方式求得的概率)

3.1.1某种对齐方式的计算

x:输入序列
T:length(x)
L': L∪{blank}
L'T: 长度为T的序列在L'上的分布
π:表示在该分布上的元素的路径
y(k,t):输入单元k在t时刻的概率

隐含假设:网络输出在不同时刻,是有条件的,独立的
要求:输出层不存在从自身/网络的feedback connections

3.1.2 sum(对齐方式)

L(<=T):表示可能的标签序列,如图:abb表示L,长度为3 <= 输入序列5或者8
β:多对一的映射方式,先去除重复单词,再去除空格
l:表示所有可能的路径

3.2 构建分类器

我们想要的分类器h(x)是,给定x的输入,使得输出是最有可能的标签

给出两种decoding方法

3.2.1 best path decoding

选择最有可能的路径,所对应最有可能的labelling

缺点:π*只是在每个时间步上的最活跃的输出的串联

3.2.2 prefix search decoding(采用)

形成预测的空白分隔的峰值,输出序列的开始和结尾添加一个blank

缺点:扩展的前缀数量随着输入序列的长度增加呈指数增长


🤣分界线,以上是启发式思考,下面是CTC的设计


4. 训练CTC网络(正文设计)

梯度下降训练CTC网络的目标函数,需要一种算法来求解最大似然函数

4.1 forward-backward算法

关键思想:对应于标签上的路径和可以分解为对应于该标签的前缀的路径上的迭代和

规定:

    1. 在每对标签之间插入空格,在开始和结束时插入空格
    1. 不允许竖直方向白色转移到白色,这会吞掉一个符号
    1. 允许所有前缀以空白或者第一个符号开始,以空白或者最后一个符号结束

下面给出例子说明,如图,给出有四条,且在t=4时刻都经过A这个字符

4.1.1 forward 计算

前向递推概率和:

初始化:

转移方程:

此转移方程,我们可以将下面(7)的αt(s)代入(6),同样得到一个式子

观察论文中的转移图,当我们当前字符是白色的时候,我们可以由上一秒是白色自转或者由黑色转移;当我们当前字符是黑色的时候,我们可以由上一秒当前黑色自转或者由白色转移或者上个黑色字符转移

4.1.2 backward 计算

由T时刻的状态来递推同理,不再赘述

4.2 Maximum Likelihood Training

对于总的路径概率该怎么求?首先给出论文中的计算公式,前面Σ表示定义所有经过β变化后是l的字符串π的集合,也就是上面图中给出的 π1,π2,π3,π4

我们以上述四条路径为例,由forward算法,我们可以计算得到由T=0转移到T=4时,四条路径分别的概率乘积,也可以通过backward算法,计算由T=6转移到T=4时,四条路径的概率乘积

然后分别都乘上y4的概率,也就是T=4取到A的概率,计算四条路的概率总和,对此可以将所有T=4之前的前向路径记为forward,T=4之后的后向路径记为backward,forward * (T=4) * backward也为相同的答案,如图

现在明白了前向概率和,后向概率和的含义,然后回到我们要看明白的式子,首先由概率公式P(A+B|X)=P(A|X)+P(B|X),将forward和backward的概率P拆分,然后乘上T=4时刻的概率,表示在T=4发生该字符这一前提下,发生forward的概率和backward的概率

然后α和β将这两个相乘,就可以得到论文中给出的式子


下面是求导计算梯度过程,以及涉及到的对softmax偏导过程

右边等价于p(l|x)

然后对y(k,t)求偏导,分子是无关项

然后引入len后,对所有路径概率求和

最后由对ut求偏导,y(k,t)是输出层通过softmax得到的,u(k,t)是未经过softmax的输出,对softmax的求导过程

最后答案是这个


CTC的特征:

1.条件独立:每个时间片相互独立(忽略了各个时间片之间的语义信息)
2.单调对齐:输入x与输出y之间的单调对齐(不适用于机器翻译)
3.多对一映射:输入序列x的长度>标签数据y的长度

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 218,525评论 6 507
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,203评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,862评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,728评论 1 294
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,743评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,590评论 1 305
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,330评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,244评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,693评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,885评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,001评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,723评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,343评论 3 330
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,919评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,042评论 1 270
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,191评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,955评论 2 355

推荐阅读更多精彩内容