Communication-Efficient Learning of Deep Networks from Decentralized Data


Communication-Efficient Learning of Deep Networks from Decentralized Data是最早提出Federated learning这个概念的论文,可以说是FL的开山之作。

We advocate an alternative that leaves the training data distributed on the mobile devices, and learns a shared model by aggregating locally-computed updates. We term this decentralized approach Federated Learning.

之前被论文里的FedSGDFedAvg(两个都是非常重要的算法)搞混,现在对他们总结一下。

FederatedSGD (or FedSGD)是指只有一个batch(a single batch)和Epoch数为1的算法。
BE分别对应与本地客户(lcoal client)的Batch-Size和Epoch数,那么FedSGD对应于B=∞E=1
直观理解:传统的SGD算法可以看成是梯度更新速度最快的优化算法,因为每一个sample就更新一次梯度了,这里也是一样,FedSGD是应用FL时梯度或模型更新速度最快的算法,它只要求每个local client计算一次平均梯度就可以上传到central server进行加权平均了,所以它需要的computation power是最少的(the lowest)。这也是论文把他当做基线(baseline)的原因。


因为作者想研究如何通过利用额外的计算容量来降低通信损失,而无疑基线就是计算容量最小的FedSGD算法了。这样作者就能够增加计算能力来看通信损失的变化。

由此可知,只要B≠∞E≠1,那么此时的算法就叫做FedAvg。而FedAvg(FederatedAveraging )算法是指local client先在本地计算多次梯度并且更新权值,这时的计算成本是提升的。

上图的上半部分说的是,当我们用FedSGD算法是,具体的distributed optimization可以写成公式
其中,代表在当前模型上通过它的本地数据集计算出的平均梯度。
我们知道对任何一个客户,有,
故有

其中
上式等式说明了将每个local client的平均梯度上传到server再对这个梯度进行 加权平均后更新模型的效果是和先在每个local client算出梯度并且用梯度更新本地模型\omega _{t}^{k}后在server上对这个更新后的模型取加权平均的效果是一样的。

或者说,该等式使得从原先的上传梯度值(g_{k})模式变成了上传模型(\omega ^{k}_{t+1})模式了。

这就引出了上图的下半部分,即每个local client可以先在本地多次迭代更新模型\omega _{t}^{k},然后再上传到server上执行averaging step
即当我们使用FedAvg算法时,假设在t时刻,每个local client的模型为\forall k:\omega _{t}^{k}(注意如果不加右上角的k则代表t时刻的全局模型),则在Epoch=EBatchsize=B时,local client k的模型更新为\omega_{t}^{k}\overset{-\eta g_{k1}}{\rightarrow} \omega _{t1}^{k}\overset{-\eta g_{k2}}{\rightarrow} \omega _{t2}^{k}\overset{-\eta g_{k3}}{\rightarrow}\cdot \cdot \cdot \overset{-\eta g_{ki}}{\rightarrow}\omega _{ti}^{k}
意思是模型\omega_{t}^{k}在将模型上传到server前本地更新了i次。
接着有\omega _{t+1}^{k}\leftarrow \omega _{ti}^{k}\omega _{t+1}\leftarrow \sum_{k=1}^{K}\frac{n_k}{n}\omega_{t+1}^{k}
最后将在t+1时刻的全局模型\omega_{t+1}赋值给每个local client作为t+1时刻的新模型
\forall k:\omega _{t+1}^{k}\leftarrow \omega_{t+1}

有意思的是,可以把FedAvg算法看成是I/O过程中的缓冲机制(Buffer),与其一点一点往上传,还不如收集多一点再网上传,这样可以有效减小I/O次数。

具体算法:
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,658评论 6 496
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,482评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 160,213评论 0 350
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,395评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,487评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,523评论 1 293
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,525评论 3 414
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,300评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,753评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,048评论 2 330
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,223评论 1 343
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,905评论 5 338
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,541评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,168评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,417评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,094评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,088评论 2 352

推荐阅读更多精彩内容

  • 有前面的知识,我们知道如何构建目标函数了,当目标函数构建出来后,如何求其参数使的目标函数最小化呢?这就是这一小节的...
    李涛AT北京阅读 908评论 0 0
  • 优化算法 第一课:小批量梯度下降 本周学习加快神经网络训练速度的优化算法。 我们之前学习过矢量化可以让你有效的计算...
    带刺的小花_ea97阅读 1,144评论 0 5
  • 机器学习术语表 本术语表中列出了一般的机器学习术语和 TensorFlow 专用术语的定义。 A A/B 测试 (...
    yalesaleng阅读 1,961评论 0 11
  • 文/Min,图/网络 想你的夜不会孤单 在孤单的夜里想你才伤心
    Min_06阅读 623评论 3 6
  • 01 五一放假,这两天过的有点丧,没有出去。本来早就下好了几部电影,买的书还没有拆。但最后和同事吃饭,打打麻将,有...
    岸左同学阅读 798评论 1 2