分析训练样本是否冗余的paper. Mark. Mark
深度学习取得突破性的成果,但是复杂的模型结构和需要巨大的训练样本是很大痛点。同时,深度学习是否真的需要如此复杂的模型和参数,已被证明模型参数大多是冗余的,因此,有大量模型裁剪和轻量级模型出现来解决模型参数冗余的问题。另外,大量的样本是否也存在大量的冗余和重复,能否采用的相对小的样本同样达到好的效果和精度。论文提出了Facility-Location 和 Disparity-Min 模型。(后续进一步分析具体内容)
分析训练样本是否冗余的paper. Mark. Mark
深度学习取得突破性的成果,但是复杂的模型结构和需要巨大的训练样本是很大痛点。同时,深度学习是否真的需要如此复杂的模型和参数,已被证明模型参数大多是冗余的,因此,有大量模型裁剪和轻量级模型出现来解决模型参数冗余的问题。另外,大量的样本是否也存在大量的冗余和重复,能否采用的相对小的样本同样达到好的效果和精度。论文提出了Facility-Location 和 Disparity-Min 模型。(后续进一步分析具体内容)