集成学习之NCL

在看文献的过程中,发现了集成学习并非简单训练N个模型。在这N个模型之间,建立某种约束,能够提升集成学习的效率。这里的NCL:Negative correlation learning就是一个代表。

NCL负相关学习

  1. Liu, Yong, Xin Yao, and Tetsuya Higuchi. "Evolutionary ensembles with negative correlation learning." IEEE Transactions on Evolutionary Computation 4.4 (2000): 380-387.
    • 这个文章有点历史感觉。 通过引入NCL的概念,让各个学习单元之间的差异尽量大。
    • 好懂。但是在最后预测结果这个位置才让差异化增大是不是会影响其作用。Entropy。
  1. Shi, Zenglin, et al. "Crowd counting with deep negative correlation learning." Proceedings of the IEEE conference on computer vision and pattern recognition. 2018.
    • 作者将NCL的思路用在deep network上。
    • 一种见解:其实deepnet的牛逼之处就是靠的集成学习(drop out),那么采用ensemble的高级方法当然是很有可能提高性能表现的。

思考

  • 多输入,多输出,多模型。对应为:多模态,多任务,集成学习。能否存在一个统一的视角看待这三类问题?Pls consider the relationship between the individuals and the group behavior.
  • 多样化的度量指标有很多,为何偏偏就是NCL呢?换成其他的会不会吊打NCL?
  • 多样化的约束一定要放在final output吗?放在中间feature level 是不是也会吊打NCL?
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 我是黑夜里大雨纷飞的人啊 1 “又到一年六月,有人笑有人哭,有人欢乐有人忧愁,有人惊喜有人失落,有的觉得收获满满有...
    陌忘宇阅读 12,720评论 28 53
  • 信任包括信任自己和信任他人 很多时候,很多事情,失败、遗憾、错过,源于不自信,不信任他人 觉得自己做不成,别人做不...
    吴氵晃阅读 11,343评论 4 8
  • 步骤:发微博01-导航栏内容 -> 发微博02-自定义TextView -> 发微博03-完善TextView和...
    dibadalu阅读 8,346评论 1 3
  • 回这一趟老家,心里多了两个疙瘩。第一是堂姐现在谈了一个有妇之夫,在她的语言中感觉,她不打算跟他有太长远的计划,这让...
    安九阅读 8,875评论 2 4