目录

Linearly Replaceable Filters for Deep Network Channel Pruning                                    编辑:牛涛


Neural Network Pruning with Residual-Connections and Limited-Data                           编辑:牛涛


LAYER-ADAPTIVE SPARSITY FOR THE MAGNITUDE-BASED PRUNING                  编辑:牛涛


EagleEye: Fast Sub-net Evaluation for Efficient Neural Network Pruning                       编辑:牛涛


Model Compression Based on Differentiable Network Channel Pruning                         编辑:牛涛


Filter Pruning by Switching to Neighboring CNNs With Good Attributes                          编辑:牛涛


GDP: Stabilized Neural Network Pruning via Gates with Differentiable Polarization       编辑:牛涛


Feature Statistics Guided Efficient Filter Pruning                                                             编辑:牛涛


Filter Sketch for Network Pruning                                                                                     编辑:牛涛


Accelerate CNNs from Three Dimensions: A Comprehensive Pruning Framework         编辑:牛涛


Manifold Regularized Dynamic Network Pruning                                                             编辑:牛涛


Network pruning via Performance Maximization                                                              编辑:牛涛


Attention-based pruning for shift networks                                                                       编辑:牛涛


HRank: Filter Pruning using High-Rank Feature Map                                                      编辑:牛涛


Holistic Filter Pruning for Efficient Deep Neural Networks                                               编辑:牛涛


Dynamic Channel Pruning: Feature Boosting and Suppression                                      编辑:牛涛


PRUNING FILTER IN FILTER                                                                                          编辑:牛涛


Neuron-level Structured Pruning using Polarization Regularizer                                     编辑:牛涛


Group Sparsity: The Hinge Between Filter Pruning and Decomposition for Network Compression        编辑:牛涛


Learning Filter Pruning Criteria for Deep Convolutional Neural Networks Acceleration   编辑:牛涛


DMCP: Differentiable Markov Channel Pruning for Neural Networks                               编辑:牛涛


MORE-SIMILAR-LESS-IMPORTANT: FILTER PRUNING VIA KMEANS CLUSTERING 编辑:牛涛


Soft and Hard Filter Pruning via Dimension Reduction                                                     编辑:牛涛


AutoPruning for Deep Neural Network with Dynamic Channel Masking                           编辑:牛涛


Softer Pruning, Incremental Regularization                                                                       编辑:牛涛


Soft Filter Pruning for Accelerating Deep Convolutional Neural Networks                        编辑:牛涛


An Entropy-based Pruning Method for CNN Compression                                               编辑:牛涛


SCOP: Scientific Control for Reliable Neural Network Pruning                                         编辑:牛涛


DropNet: Reducing Neural Network Complexity via Iterative Pruning                               编辑:牛涛


Global Sparse Momentum SGD for Pruning Very Deep Neural Networks                        编辑:牛涛


Gate Decorator: Global Filter Pruning Method for Accelerating Deep Convolutional Neural Networks        编辑:牛涛


Filter Pruning via Geometric Median for Deep Convolutional Neural Networks Acceleration    编辑:牛涛


SNIP: SINGLE-SHOT NETWORK PRUNING BASED ON CONNECTION SENSITIVITY     编辑:牛涛


AUTOPRUNING FOR DEEP NEURAL NETWORK WITH DYNAMIC CHANNEL MASKING    编辑:牛涛


Channel Pruning via Automatic Structure Search                                                              编辑:牛涛


Coreset-Based Neural Network Compression                                                                   编辑:牛涛


AMC: AutoML for Model Compression and Acceleration on Mobile Devices                     编辑:牛涛


Accelerating Convolutional Networks via Global & Dynamic Filter Pruning                       编辑:牛涛


Discrimination-aware Channel Pruning for Deep Neural Networks                                    编辑:牛涛


RETHINKING THE VALUE OF NETWORK PRUNING                                                      编辑:牛涛


Channel Pruning for Accelerating Very Deep Neural Networks                                          编辑:牛涛


ThiNet: A Filter Level Pruning Method for Deep Neural Network Compression                 编辑:牛涛


Dynamic Network Surgery for Efficient DNNs                                                                    编辑:牛涛


PackNet: Adding Multiple Tasks to a Single Network by Iterative Pruning                         编辑:牛涛


Learning Efficient Convolutional Networks through Network Slimming                             编辑:牛涛


Network Trimming: A Data-Driven Neuron Pruning Approach towards Efficient Deep Architectures    编辑:牛涛


PRUNING FILTERS FOR EFFICIENT CONVNETS                                                          编辑:牛涛


Learning both Weights and Connections for Efficient Neural Networks                            编辑:牛涛


Asymptotic Soft Filter Pruning for Deep Convolutional Neural Networks                          编辑:牛涛


Learning Structured Sparsity in Deep Neural Networks                                                    编辑:牛涛


MetaPruning: Meta Learning for Automatic Neural Network Channel Pruning                  编辑:牛涛


©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 221,576评论 6 515
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 94,515评论 3 399
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 168,017评论 0 360
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,626评论 1 296
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,625评论 6 397
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 52,255评论 1 308
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,825评论 3 421
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,729评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 46,271评论 1 320
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,363评论 3 340
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,498评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 36,183评论 5 350
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,867评论 3 333
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,338评论 0 24
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,458评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,906评论 3 376
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,507评论 2 359

推荐阅读更多精彩内容

  • 渲染是一个令人着迷的方向,可学习渲染着实有不小的难度。 渲染技术不断在发展,各种技术层出不穷,相关英文资料(中文相...
    吾爱学编程阅读 2,380评论 1 2
  • 第1章 机器学习概览第2章 一个完整的机器学习项目第3章 分类第4章 训练模型第5章 支持向量机第6章 决策树第7...
    HBU_DAVID阅读 1,647评论 0 1
  • 深度学习使得很多计算机视觉任务的性能达到了一个前所未有的高度。不过,复杂的模型固然具有更好的性能,但是高额的存储空...
    CodePlayHu阅读 40,470评论 8 55
  • 1.研究背景 对模型预测精度无明显影响 压缩模型的参数数量、深度来降低模型空间复杂度全连接层参数多,模型大小由全连...
    爱吃西瓜的菜鸟阅读 3,321评论 0 2
  • 学术菜鸡的论文统计,请无视 2015年 #1.Learning both Weights and Connecti...
    MoreanP阅读 2,229评论 0 4