DEEP COMPRESSION: COMPRESSING DEEP NEURAL NETWORKS WITH PRUNING, TRAINED QUANTIZATION AND HUFFMAN...

这篇文章主要分为三个部分:剪枝、权值共享和哈夫曼编码。具体的细节,已经有很多论文阅读的博客写的比较详细了,http://lib.csdn.net/article/deeplearning/50854?knId=1741
但是放在没有sparse库帮助处理sparse矩阵计算的硬件上计算有几个问题:

  1. 没有sparse库怎么计算sparse矩阵
  2. 存储方式改变以后存取数据改变
    量化还算是比较容易做,因为量化部分可以用查找表实现,将所有类别号和聚类中心对应值用一个查找表实现
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • --- layout: post title: "如果有人问你关系型数据库的原理,叫他看这篇文章(转)" date...
    蓝坠星阅读 866评论 0 3
  • 前言 谢谢牛客网帮助我成功拿到心仪的offer(自然语言算法工程师),也感觉各位大佬分享的面经,所以想回馈一波。...
    batbattle阅读 3,767评论 0 3
  • 音频:0a 游戏:美吉姆上课,表现平平,时而乖时而不乖,似乎要进去挑战我们底线的阶段了。 阅读:《嘘》 妈妈学习:无
    楦琦琦阅读 135评论 0 0
  • 命令: 运一车木头到加工厂去! 看吧,一片千年古木,死了。
    一元真人阅读 319评论 4 9
  • 男孩额头上冒着颗粒大的汗,气喘呼呼的跑到自来水旁边,含着水龙头咕咚咕咚喝了好几口水。 “哇!爽啊!”立马把头也伸到...
    流浪的小狐狸阅读 667评论 0 0