A+

1. Abstract

Adjust Anchored Neighborhood Regression for Fast Super-Resolution
R Timofte et al. ACCV 2014

  A+的方法主要是对ANR(Anchored Neighborhood Regression 锚定邻域回归)的改进, 理论来自之前的四个算法

  • Anchored Neighborhood Regression
  • Simple Functions
  • Sparse Representation
  • Neighbor embedding approaches

  后面两个我们之前都讲过了, 在这儿把前两个是怎么回事儿简单说一下

  ANR
  ANR是从NE和SC出发的改进方案, 改进的目的就是要fast
  主要是两个方面

  ① l2-norm替代l1-norm
  将原先的问题转换成一个l2-norm问题来求解

   为什么要转成l2-norm去求解呢?因为l1-norm没有解析解, 所以在inference的过程中还要迭代去求LR representation, 而l2-norm就可以在训练阶段就得到LR representation, 这样, inference的速度就会快很多, 但l1-norm的好处就是解具有稀疏性(这个可以看一下我收藏的那篇机器学习中的五种回归模型及其优缺点)

  这个公式其实对NE和SC来说是通用的, Nl就是对应LR的字典, 只不过对于Sc来说就是全字典, 对NE来说就是对应yF的Neighborhood Feature, β就是表征, 也就是Prior认为的LR和HR patch相似的几何结构
  这里yF是input LR feature
  β的代数解是

  那从表征β还原HR patch的过程就是

  这里就引出了映射矩阵P_G

  这个P_G是可以离线算出的, 那在线恢复时, 我们只要计算PG和yF的乘积就可以了, 这就快了不少
  如果用的是从Dictionary Learning学到的全字典的话, 那这个方法就叫Global Regression, 作者觉得这还不够快

  ② Anchored Neighborhood Regression
  从Global 到 Anchored Neighborhood, 作者参考了NE的思想, 就是我不用全字典, 而是找离我要转换的yF最近的atom, 字典中的atom就是空间转换的基, 这个最近的atom就被称为anchored
  If instead of considering the whole dictionary as starting point for computing the projective matrix we consider local neighborhoods of a given size we allow more flexibility of the approach at the expense of increased computation – we will have more than one projective matrix and neighborhoods
  这个想法其实就是那么多基其实有点冗余, 我只需要跟yF关系最大的那几个基就可以求出yF的表征, 这有点类似PCA的思想
  基于这个思路, 在求映射矩阵PG的时候, 作者显示把atom按临近关系group, 这个临近关系作者用correlation来表示, 而不是Euclidean distance, 在离线的时候我们可以对每一个atom找K个临近的atom, 组成一个group, 这个group是全字典的一个子集
  We start by grouping the dictionary atoms into neighborhoods. More specifically, for each atom in the dictionary we compute its K nearest neighbors, which will represent its neighborhood.
  然后在恢复的时候, 我们可以找到跟y_F关系最大的那个atom构成的group(对应之前的Nl, Nh), 用这个group形成一个针对yF的映射矩阵Pj, 这样就可以进一步减少在推理时的计算量, 所谓关系最大, 其实就是最像, 就像PCA里面寻找主成分, 就是看哪个atom最能够表达yF

  The super-resolution problem can then be solved by calculating for each input patch feature yiF its nearest neighbor atom, dj , in the dictionary, followed by the mapping to HR space using the stored projection matrix Pj
  x=Pj yiF

  SF
  SF强调SR一直饱受ambiguity problem, 就是HR->LR多对一问题, ambiguity problem会造成高频细节的损失(high frequency loss), 而解决这个问题的方案就是足够多的样本, 同时为了在test phase减少运算量, SF在training phase大大提高了运算量
  we spend intensive computational load during the training phase

  在training phase主要是两步
  ① patch聚类, 把大量的patch经过简单的feature化(去均值)后聚类成为4096 clusters, 每个cluster中心作为后续训练的一个样本(这个方法让我想到之前老白提到的为了保证样本的均衡, 在训练之前先对样本聚类的方法)

  ② 训练映射矩阵
  我们先看一下这个目标函数

  Cn(m+2)是映射矩阵
  Wnl是l个HR patch构成的目标矩阵
  Vml是l个LR patch构成的输入矩阵
这就是单层神经网络结构啊, 1就是Bias, 画出来就是这样

  所以, SF实际上就是一种DL的方法, 学习v->w的转换系数, 但是是纯线性的, 所以效果有限, 因为泛化性有限, 所以需要足够多的数据去驱动

  Tricks
  SF里有两个Tricks来提升效果
  ① LR patch并不对应HR patch的全部, 只取HR patch中间的部分
  作者认为LR不包含学边界需要的信息, 所以应该把这部分排除在HR patch之外, 那问题是你怎么知道应该取多大一块中心区域?
  We do not learn mapping functions to predict the HR boundary pixels as the LR patch Pl does not carry sufficient information to predict those pixels

  ② 对样本聚类, 这应该算是一个通用方法, 可以提高学习的效率, 保证样本比例的平衡


2. Algorithm

  A+的改进
https://blog.csdn.net/u011630458/article/details/65635155

  在ANR的基础上, A+在计算投影矩阵P_j的时候, 每个atom寻找邻居不是找其他atom, 而是在训练用的LR/HR patch中找, 论文中建议是2048个

  优化的公式还是和ANR一样

  只不过, ANR中Nl就是局部字典, 就是anchor atom附近的基的组合, 而在A+中, 直接去LR的patch中去找, 要的量就更大得了(K=2048)
  We have replaced the neighborhood of atoms N_l (of which each dictionary atom has its own version) with a matrix S_l, containing the K training samples that lie closest to the dictionary atom to which the input patch y is matched. We set K to 2048 in our experiments.

  基于的理论基础就是作者认为, 相对于稀疏的基(atoms), 稠密的基(样本)能够更好的表达patch
  the local manifold around an atom, which is the associated hypercell of an atom, is more accurately spanned by dense samples interior to the hypercell than by a set of external neighboring atoms.


3. Discussion

  优势
  其实是用了SF数据驱动的思想, 更好地利用了众多的样本, 因为反正映射矩阵PG是离线算的, 并不会增加在线的成本, 所以如果效果好, 可以用更多的更稠密的基来表达patch, 实验证明效果要比ANR强
  但是速度上图显示是比ANR更快, 我存疑, 因为A+和ANR在推理阶段是没有差异的, 都是只做一次矩阵乘法, 那A+比ANR究竟快在哪儿了呢?

  劣势
  劣势暂时还没看到, 神经网络在效果上超越A+应该是没什么问题, 但是速度上很难PK, 因为A+毕竟在线就算一个矩阵乘法, 连非线性操作都没有, 这个在速度上想有所超越就相当难了

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 213,014评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,796评论 3 386
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 158,484评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,830评论 1 285
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,946评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,114评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,182评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,927评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,369评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,678评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,832评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,533评论 4 335
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,166评论 3 317
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,885评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,128评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,659评论 2 362
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,738评论 2 351

推荐阅读更多精彩内容