TensorFlow C++ CPU 模型预测优化加速

如下图所示,TensorFlow在移动端的上线流程常包括下面几个步骤:

  1. 固化模型->将variable转constant
  2. 剪枝->去除、合并、跳过某些节点,
  3. 量化->数据类型转换
引用

针对预测的优化方向:

  1. 删除没用的op:
    . 只在训练时使用的op
    . 不在输入输出路径上的op
    . 合并重复节点
    . 常量表达式替换
  2. 参数四舍五入
  3. 预处理BatchNorm
  4. 转换数据类型

Google的优化工具

  1. freeze_graph 固化参数,
  2. summarize_graph 查看模型信息
  3. optimize_for_inference 剪枝相关的优化(个人理解)
  4. quantize_graph 量化相关的优化
  5. graph_transforms 剪枝量化一起上,覆盖3、4功能

工具编译

上述工具均可通过bazel(TensorFlow源码的编译工具)编译,如下

bazel build tensorflow/python/tools:freeze_graph
bazel build tensorflow/tools/graph_transforms:summarize_graph
bazel build tensorflow/python/tools:optimize_for_inference
bazel build tensorflow/tools/quantization:quantize_graph
bazel build tensorflow/tools/graph_transforms:transform_graph

transform_graph工具使用方法

工具1,2的使用都很简单(//todo),而工具5囊括了工具3、4的功能,且3、4已经被TensorFlow移除,下面重点介绍工具5参数与上述优化方向的对应关系

命令:
bazel-bin/tensorflow/tools/graph_transforms/transform_graph --in_graph=in.pb --out_graph=out.pb --inputs='input1,input2' --outputs='output1' --transforms= ' remove_nodes(op=Identity, op=CheckNumerics) fold_constants(ignore_errors=true) merge_duplicate_nodes strip_unused_nodes(type=float, shape="2,3") fold_batch_norms round_weights(num_steps=256) quantize_weights quantize_nodes'

参数解析:
. in_graph 由工具1 freeze_graph获得
. out_graph 优化后模型输出
. inputs 输入节点,可通过工具2 summarize_graph获得
. outputs 输出节点,可通过工具2 summarize_graph获得
. transforms 负责优化类型,如下

  1. remove_nodes(op=Identity, op=CheckNumerics) #清除某类无用OP
  2. fold_constants(ignore_errors=true) #常量表达式替换
  3. merge_duplicate_nodes #合并重复节点
  4. strip_unused_nodes(type=float, shape="2,3") #跳过某类无用节点
  5. fold_batch_norms #预处理BatchNorm
  6. round_weights(num_steps=256) #参数四舍五入
  7. quantize_weights #将常量op的float32转int8
  8. quantize_nodes #将所有op的float32转int8

结果

一顿操作猛如虎,结果bert上没啥卵用。最大长度60,CPU使用两个逻辑核,单条预测200ms;CPU使用20个逻辑核时,单条预测80ms。所以最后还是得上资源~~~。后续准备尝试下MKL,XLA等针对编译优化。

原因猜测:
1.剪枝失效->所取tensor即为encoder伸出来的最后一层pooled_ouput,因此没有太大的剪枝空间
2.量化失效->猜测是输入依然为float32,参数即便变成了int8, 运算时依然按照float32进行,因此没啥乱用;也有说现在的量化在x86架构上都不太好使

参考

https://github.com/tensorflow/tensorflow/tree/master/tensorflow/tools/graph_transforms#strip_unused_nodes
https://hanxiao.github.io/2019/01/02/Serving-Google-BERT-in-Production-using-Tensorflow-and-ZeroMQ/

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,293评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,604评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,958评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,729评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,719评论 5 366
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,630评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,000评论 3 397
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,665评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,909评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,646评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,726评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,400评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,986评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,959评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,197评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,996评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,481评论 2 342

推荐阅读更多精彩内容