tensorflow中,将ckpt形式的模型转换为pb形式,以便跨平台调用,是一种常见操作。
代码如下:
import tensorflow as tf
from tensorflow.python.framework import graph_util
def freeze_graph(input_checkpoint, output_graph):
'''
:param input_checkpoint:
:param output_graph: PB模型保存路径及保存文件名
:return:
'''
# checkpoint = tf.train.get_checkpoint_state(model_folder) #检查目录下ckpt文件状态是否可用
# input_checkpoint = checkpoint.model_checkpoint_path #得ckpt文件路径
# 指定输出的节点名称,该节点名称必须是原模型中存在的节点
output_node_names = "postprocess_fastrcnn/concat_2"
saver = tf.train.import_meta_graph(input_checkpoint + '.meta', clear_devices=True)
with tf.Session() as sess:
saver.restore(sess, input_checkpoint) # 恢复图并得到数据
output_graph_def = graph_util.convert_variables_to_constants( # 模型持久化,将变量值固定
sess=sess,
input_graph_def=sess.graph_def, # 等于:sess.graph_def
output_node_names=output_node_names.split(",")) # 如果有多个输出节点,以逗号隔开
with tf.gfile.GFile(output_graph, "wb") as f: # 保存模型
f.write(output_graph_def.SerializeToString()) # 序列化输出
print("%d ops in the final graph." % len(output_graph_def.node)) # 得到当前图有几个操作节点
freeze_graph('','') #填入路径与文件名
强调两点:
1、output_node_names需要指定模型最终输出的节点名称。可以在建立网络模型后,加入
for node in tf.get_default_graph().as_graph_def().node:
print(node.name)
打印出所有节点名称,然后将最后一个输出节点名称填入。
2、freeze_graph(input_checkpoint, output_graph):
output_graph为要输出的pb文件名与路径