T-Net: Parametrizing Fully Convolutional Nets with a Single High-Order Tensor 笔记

这是 CVPR 2019 的文章

Abstract

最近的发现表明,过度参数化对于成功训练深度神经网络至关重要,同时也引入了大量冗余。

在本文中,我们提出使用单个高阶低秩张量完全参数化卷积神经网络(CNN)。

文章提出通过使用单个高阶张量对其进行参数化来共同捕获神经网络的完整结构,该高阶张量的模式代表网络的每个体系结构设计参数(例如,卷积块的数量,深度,数量堆栈,输入特征等)。这种参数化可以使整个网络规范化,并大大减少参数的数量。

研究了具有丰富结构的网络,即完全卷积网络(FCN),文章建议使用单个8阶张量进行参数化。

Introduction

有证据显示,在这些深度模型成功的背后的重要特征都过度参数化,这能够帮助找到好的局部最小值。

然而,与此同时,过度参数化导致了大量的冗余,并且从统计学的观点看,这很难广义化(因为它大量的参数),并且还增加了储存和计算的难度,使得在计算资源有限制的设备上很难部署。

本文致力于通过张量方法联合参数化整个网络来消除CNN参数冗余。

最近有大量工作使用张量来减少冗余并提高CNN的效率,主要集中在重新参数化各个层上。

这篇论文主要是通过使用单个高阶张量来对整个CNN进行参数化,而不是使用不同的张量来对各个层进行参数化,这与先前的工作有所不同。

特别是,文章提出使用单个高阶张量对网络进行参数化,其每个维度代表网络的不同体系结构设计参数

通过使用单个张量对整个FCN建模,该方法允许学习不同张量维度之间的相关性,从而完全捕获网络的结构。

此外,此参数化通过在该张量上施加低秩结构来隐式调整整个网络并显着减少参数的数量。

本文的贡献是:

  • 提出使用单个高阶张量进行整个网络张量化,并将其应用于捕获完全卷积网络的丰富结构;

  • 对于大范围的压缩率(高压缩率和低压缩率),文中的方法都能保持较高的精度;

  • 通过执行大量的实验和消融研究来解决人体姿势估计这一具有挑战性的任务,从而说明了方法的有利特性。

Related Work

与文章工作更相关的是手工分解方法,例如MobileNet [15]和Xception [8],它们使用有效的深度和点积卷积来分解3×3卷积。
p.s.(怎么突然感觉之前的MobileNet没有白看,尴尬......)

在这篇文中,之所以选择张量化HourGlass(HG)网络,主要是因为其丰富的结构使其适合使用高阶张量对其进行建模。这项工作的目的不是为了产生人体姿势估计任务的最新结果,而是展示用单个高阶张量建模最新体系结构的好处。

Mathematical background

公式
  • Tensor diagrams

虽然二阶张量可以很容易地
描述为矩形,将三阶张量描述为立方体,但以这种方式表示高阶张量是不切实际的。

相反,我们使用张量图,它们是无向图,其中顶点表示张量。

每个顶点的度数(即,源自该圆的边数)指定了相应张量的阶数。然后通过简单地将对应于这两种模式的两个边缘链接在一起来表示在两种模式下的张量收缩。

图2用张量图描述了8阶张量的Tucker分解(即,沿每个模态具有因子矩阵的核心张量的收缩)。


图2

T-Net: Fully-tensorized FCN architecture

FCN tensorization

得出拟议的张量网络(T-Net)的高阶张量如下:

  • 网络的所有权重均由单个8阶张量进行参数化W\in \mathbb{R}^{I_{0}\times ... \times I_{7}}
  • HGs的个数--I_{0} = \#hg
  • 每个HG的深度--I_{1}=hg_{depth}
  • 三种信号途径I_{2}=hg_{subnet}
  • 每个块的卷积层数--I_{3}=b_{depth}
  • 输入特征--I_{4} = f_{in}
  • 输出特征--I_{5} = f_{out}
  • 每个核的高--I_{6} = h
  • 每个核的宽--I_{7}=w

T-Net variants

给以上的参数加上不同的低止约束,得到该方法的不同变体。

  • Tucker T-Net
公式1
image.png
image.png
  • MPS T-Net
MPS T-Net
图三

Parameter analysis

考虑Tucker-rank-R_{0},R_{1},...,R_{7},参数为:

公式2

分别压缩每个N_{conv}卷积层,输入输出特征的秩分别是R_{4},R_{5}N_{conv}=\prod_{k=0}^{4}I_{k},总共的参数是:

公式3

用同样的R_{4},R_{5},文中的方法的参数是:

image.png

参考资料:
T-Net: Parametrizing Fully Convolutional Nets with a Single High-Order Tensor

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 219,635评论 6 508
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,628评论 3 396
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 165,971评论 0 356
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,986评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,006评论 6 394
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,784评论 1 307
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,475评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,364评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,860评论 1 317
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,008评论 3 338
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,152评论 1 351
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,829评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,490评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,035评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,156评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,428评论 3 373
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,127评论 2 356

推荐阅读更多精彩内容