前言
本文旨在学习和记录,如需转载,请附出处https://www.jianshu.com/p/f1995148800e
迁移学习问题
我们都知道,在深度判别模型中,如果训练数据和测试数据是独立同分布的,在训练集上训练的深度模型会在测试集上表现的比较好。但是,现实生活中的数据并不一定是独立同分布的,所以,如何在源域上训练的模型能在目标域上泛化的很好是一个新兴的问题,另外,在何种条件下,在什么时候源域上训练的模型能够在目标域上泛化的很好。直观的,在特征层面上进行对齐迁移(采用某种度量标准)已经促进了domain adaptation的发展。在2006年,Ben-David就迁移学习的理论进行证明,并提出了domain adaptation的泛化边界,并指出了在DA问题上设计一个特征表示平衡训练源域分类误差和减小源域目标域的差异的理论可行性。
参数介绍
:数据集
:源域数据集(原始分布)
:目标域数据集(原始分布)
:源域特征分布
:目标域特征分布
:真实标签函数{0,1}二分类,我们训练得到
。
,原始数据分布映射到标签分布。
:自己设计的预测函数,给定特征
,得到对应的标签。
,特征分布映射到标签分布。
:
。原始数据映射到特征分布。
定义特征到标签的真实映射函数
因为是随机的。即使数据到标签的分布是已知确定的,在给定特征z的情况下,z可能来源于不同的x。
源域错误率
相似的,目标域的错误率也可能写成这个样子,但是前提是目标域标签已知。
域距离度量标准
作者提出来一个距离,是计算两个概率分布的距离。其定义为:
其中是整个的集合,A是其中一个子集。意思就是取所有的
子集,找出
和
的概率差的最大值。
为了使用距离,限制了真实
函数的复杂度。将源域和目标域的错误率固定在一个小范围内。
针对二分类问题,我们可以将A具体化:
上式可以理解为对特征到标签的映射上,源域特征和目标域特征分类为1的概率差。
则此时的距离具体化为
:
定义对称假设空间
代表异或。
where
则我们可以进而进行具体化:
通过上式推导,只要我们设置函数集合比
复杂就可。这个在神经网络设计中是简易的。
目标域的误差边界
condition:
说明:目标域的误差边界有三项。第一项为源域误差边界,第二项为源域和目标域映射在特征层面上的距离度量,第三项为,是个常数可以不管。
证明:
解释:
证明推导第一个公式代表的是特征被判别为1的概率,
第一个不等式第一项代表情况下的误差,第二项代表的是对目标域
和
不同的情况下的距离度量,这是显而易见的。
第二个不等式推导将目标域的不同的误差转换成源域的和两个域之差进行度量,这样这个距离就可以采用距离来度量。
进而,我们可以将泛化误差转化成经验误差的形式,一般经验误差可以理解为我们的训练误差。
则最后的公式可以写成
其中代表源域和目标域的个数。
结论
可以自己构造函数来对源域数据和目标域数据进行域判别,然后约束其损失进而转换成域距离。这样有了理论保证。
参考文献
说明
如有错误,欢迎指正!