- mixup与提高weight decay结合使用,可能对结果更有效。
- 更多数量的样本进行mixup不会带来更多收益。同类样本的mixup不会带来收益。
- 作者的实验是在同一个minibatch中进行mixup,但是注意需要shuffle。
- α∈[0.1, 0.4]会使得模型性能相比较ERM提升,而过大的α会导致欠拟合。由于mixup后样本数量会增加,难样本也变相增加,因此训练epoch要增大,才能使模型得到收敛,性能稳定提升。
- mixup训练完成后,再使用原始trainset + 低lr训练几个epoch,可能会进一步提升效果。
PyTorch实现mixup
©著作权归作者所有,转载或内容合作请联系作者
- 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
- 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
- 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
推荐阅读更多精彩内容
- ——数据增强方法 ——https://github.com/hongyi-zhang/mixup 动机: 机器学习...
- Training spaCy’s Statistical Models训练spaCy模型 This guide d...
- 本系列文章面向深度学习研发者,希望通过Image Caption Generation,一个有意思的具体任务,深入...
- 改进神经网络的学习方法(下) 权重初始化 创建了神经网络后,我们需要进行权重和偏差的初始化。到现在,我们一直是根据...