模型压缩汇总/小结

模型压缩相关的文章总结完了,这里小小总结一下。

目前在深度学习领域分类两个派别,一派为学院派,研究强大、复杂的模型网络和实验方法,为了追求更高的性能;另一派为工程派,旨在将算法更稳定、高效的落地在硬件平台上,效率是其追求的目标。

复杂的模型固然具有更好的性能,但是高额的存储空间、计算资源消耗是使其难以有效的应用在各硬件平台上的重要原因。所以,卷积神经网络日益增长的深度和尺寸为深度学习在移动端的部署带来了巨大的挑战,深度学习模型压缩与加速成为了学术界和工业界都重点关注的研究领域之一。

本博客主要介绍深度学习模型压缩和加速算法的六个方向,分别为轻量级网络结构设计、模型剪枝、量化、蒸馏、低秩分解、自动化加速。
相关文章如下:

一、轻量级网络结构设计
二、剪枝
三、量化
四、蒸馏
五、低秩分解
六、AutoML自动化压缩

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容