学习路线参考:
https://blog.51cto.com/u_15298598/3121189
https://github.com/Ailln/nlp-roadmap
https://juejin.cn/post/7113066539053482021
https://zhuanlan.zhihu.com/p/100567371
https://cloud.tencent.com/developer/article/1884740
本节学习使用工具&阅读文章:
https://juejin.cn/post/7099256855255318541#t1
https://zhuanlan.zhihu.com/p/29938926
https://spaces.ac.cn/archives/5542
https://zhuanlan.zhihu.com/p/29989121
-
词性标注
词性标注是一个典型的序列标注问题,输入是一个词序列,输出是对应的词性序列。
词性标注难题:
歧义,消除歧义需要依赖与上下文的信息
新词,很多词在训练数据中从来没有出现过,那要“猜测”新词的词性
-
HMM简介
隐马尔可夫模型是关于时序的概率模型,描述由一个隐藏的马尔可夫链随机生成不可观测的状态随机序列,再由各个状态生成一个观测而产生观测随机序列的过程。隐藏的马尔可夫链随机生成的状态的序列,称为状态序列;每个状态生成一个观测,而由此产生的观测的随机序列,称为观测序列。序列的每一个位置又可以看作是一个时刻。
-
:所有可能的隐藏状态的集合,共有N个。
-
:所有可能的观测状态的集合,共有M个。
对于一个长度为
的序列,
-
:对应的状态序列,任意
。
-
:对应的观察序列,任意
。
两个重要假设:
-
齐次马尔科夫链假设:即任意时刻的隐藏状态只依赖于它前一个隐藏状态。(实际的时候,某一个隐藏状态不仅仅只依赖于前一个隐藏状态,可能是前两个或者是前三个)
如果在时刻
的隐藏状态是
,在时刻
的隐藏状态是
,则从时刻
到时刻
的HMM状态转移概率
可以表示为:
。
这样
可以组成马尔科夫链的状态转移矩阵
-
观测独立性假设:即任意时刻的观察状态只仅仅依赖于当前时刻的隐藏状态。
如果在时刻
的隐藏状态是
,而对应的观察状态为
,则该时刻观察状态
在隐藏状态
下生成的概率
满足:
这样
可以组成观测状态生成的概率矩阵
除此之外,还需要一组在
时刻的隐藏状态概率分布
:
,其中
一个HMM模型由隐藏状态初始概率分布
,状态转移矩阵
和观测状态概率矩阵
决定。
和
决定状态序列,
决定观测序列。
HMM模型可以由一个三元组
表示。
-
-
HMM的评估问题
给定模型
和观测序列
,计算在模型
下观测序列
出现的概率
。
-
直接计算法
首先,任意一个隐藏序列
出现的概率是
对于固定的状态序列
,我们要求的观察序列
出现的概率是:
由条件概率公式:
,
则
则待求概率
,即计算
所有可能的排列组合条件下对应的边缘概率分布再求和。该算法的时间复杂度很高,耗时很大。
-
前向算法
定义前向概率:时刻
时隐藏状态为
、观测状态的序列为
的概率。记为
。
利用动态规划的思想,假设已经找到了
时刻各个隐藏状态的前向概率,现在需要递推出
时各个隐藏状态的前向概率。该递推式为:
由于
表示观测序列
在
时刻隐藏状态为
的概率,则只要将所有隐藏状态对应的概率相加,就得到了在
时刻观测序列必定为
的概率。
因此
-
后向算法
与前向算法类似,但使用了后向概率。
-
-
HMM的解码问题
给定模型
和观测序列
,求给定观测序列
条件下,最可能出现的对应的状态序列
,即
要最大化。
-
解码问题的近似解法
求出观测序列
在每个时刻
最可能的隐藏状态
,然后得到一个近似隐藏状态序列。给定
和
,计算在
时刻处于隐藏状态
的概率可以用前向后向算法计算。
近似算法很简单,但是却不能保证预测的状态序列的整体是最可能的状态序列,因为预测的状态序列中某些相邻的隐藏状态可能存在转移概率为0的情况。
-
维特比算法
-
局部状态
:在时刻
隐藏状态为
所有可能的状态转移路径中的概率最大值。
则
的递推表达式为:
-
局部状态
:在时刻
隐藏状态为
的所有可能的状态转移路径中概率最大的转移路径中第
个节点的隐藏状态为
。
则
的递推表达式为:
。可以看得出这是一个用于回溯的状态。
维特比算法流程:
- 输入:
- 输出:最有可能的观测序列
初始化局部状态:
进行动态规划递推
时刻的局部状态
计算时刻
最大的
即为最可能隐藏状态序列出现的概率,
即为时刻
最可能的隐藏状态
利用局部状态
开始回溯。对于
,有
最终得到最有可能的隐藏状态序列
-
-
-
HMM的缺点
由于观测独立性假设(任意时刻的观测只依赖于该时刻的马尔可夫链的状态),很难融入更多的特征(如上下文)以表示复杂的关系。
HMM是生成式模型,优化目标和实际预测不匹配。(我们训练学习的是联合概率分布,但是我们预测是却只使用条件概率分布。)
label bias问题:算法倾向于选择分支较少的状态,这是由于齐次马尔科夫假设使得在计算转移概率时做了局部归一化。
-
CRF简介
给定一组输入随机变量条件下,另一组输出随机变量条件的概率分布模型,其特点是假设输出随机变量构成马尔可夫随机场。
- 马尔科夫随机场:假设随机场中某一个位置的赋值仅仅与和它相邻的位置的赋值有关,和与其不相邻的位置的赋值无关。
CRF假设马尔科夫随机场中只有
两种变量,
一般是给定的,而
一般是在给定
的条件下的输出。在词性标注的例子中,
是词,
是词性。
数学语言描述:设
与
是随机变量,
是给定
时
的条件概率分布,若随机变量
构成的是一个马尔科夫随机场,则称条件概率分布
是条件随机场。
为了得到这个概率的估计,CRF做了两个假设:
假设一:该分布是指数族分布。这表明存在函数
使得
。其中
是归一化因子,因为这个是条件分布,所以归一化因子跟
有关。这个
函数可以视为一个打分函数,打分函数取指数并归一化后就得到概率分布。
-
假设二:输出之间的关联仅发生在相邻位置,并且关联是指数加性的。这个假设意味着
可以进一步简化为
其中,
与
是分别定义在
当前节点的节点特征函数和
上下文的局部特征函数,无论是节点特征函数还是局部特征函数,它们的取值只能是0或者1。即满足特征条件或者不满足特征条件。同时,我们可以为每个特征函数赋予一个权值,用以表达我们对这个特征函数的信任度。
也就是说,现在我们只需要对每一个标签和每一个相邻标签对分别打分,然后将所有打分结果求和得到总分。
-
线性链CRF
考虑函数
跟
无关,那么
概率分布变为
其中,
为规范化因子:
为了训练CRF模型,我们用最大似然方法,也就是用
作为损失函数。
由于这是一个从
条路径中选最优的问题,而因为马尔可夫假设的存在,在模型训练完成之后,它可以转化为一个动态规划问题,用维特比算法解决。