redhat7.2下tensorflow以及serving离线安装

系统要求

当前安装系统为redhat7.2,必须安装以下依赖包(已安装可以省去此步骤): java-1.8.0-openjdk-devel.x86_64 java-1.8.0-openjdk.x86_64 python-devel.x86_64 python.x86_64 zip-3.0-10.el7.x86_64

在/etc/profile配置jdk环境变量 sudo vi /etc/profile

export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.65-3.b17.el7.x86_64

export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

export PATH=$PATH:$JAVA_HOME/bin


Bazel安装

在提供的安装包里面找到bazel-0.5.4-dist.zip并解压到指定目录

unzip bazel-0.5.4-dist.zip –d bazel

设置编译javac的最大堆大小。修改一个bazel目录下文件bazel/scripts/bootstrap/compile.sh

sudo vi scripts/bootstrap/compile.sh

找到下面一段代码:

run "${JAVAC}" -classpath "${classpath}" -sourcepath "${sourcepath}"

-d "${output}/classes" -source "$JAVA_VERSION" -target "$JAVA_VERSION"

-encoding UTF-8 "@${paramfile}"

在这段代码的最后加上一个参数-J-Xmx500M,意思就是设置了Java最大堆大小为500M,修改后如下:

run "${JAVAC}" -classpath "${classpath}" -sourcepath "${sourcepath}"

-d "${output}/classes" -source "$JAVA_VERSION" -target "$JAVA_VERSION"

-encoding UTF-8 "@${paramfile}" -J-Xmx500M

编译Bazel,编译完输出路径为output/bazel

cd bazel

./compile.sh

编译完成后拷贝可执行文件到/usr/local/bin目录

sudo mkdir /usr/local/bin

sudo cp output/bazel /usr/local/bin/bazel


tensorflow安装

检查系统是否安装pip,如果没有安装,在提供的安装包里面找到pip-9.0.1.tar.gz,解压后安装

sudo tar -xzvf pip-9.0.1.tar.gz

cd pip-9.0.1

sudo python setup.py install

从提供的安装包里面找到tensorflow的安装文件tensorflow-1.3.0-cp27-none-linux_x86_64.whl,使用 pip命令安装。在安装过程中会提示缺少依赖包,需要逐个安装需要的依赖包。以下为需要安装的依赖包列表: setuptools_scm-1.15.6

backports.weakref-1.0.post1

wheel-0.30.0

setuptools-36.5.0

pbr-3.1.0

funcsigs-1.0.2 mock-2.0.0

numpy-1.13.0 six-1.11.0 protobuf-3.4.0

Markdown-2.6.9

webencodings-0.5.1

html5lib-0.9999999

bleach-1.5.0

Werkzeug-0.12.2

tensorflow_tensorboard-0.1.7

对于*.tar.gz使用如下命令解压安装

sudo tar –zxvf *.tar.gz

cd *

sudo python setup.py install

对于*.whl使用如下命令安装

sudo pip install *.whl

测试tensorflow是否安装成功。进入Python命令交互行,输入如下命令

>>> import tensorflow as tf


tensorflow serving安装

从提供的安装包里面找到grpc的安装包grpcio-1.6.3-cp27-cp27mu-manylinux1_x86_64.whl ,使用pip命令安装。在安装过程中会提示缺少依赖包,需要逐个安装需要的依赖包。以下为需要安装的依赖包:

futures-3.1.1 enum34-1.1.6

从提供的安装包里面找到tensorflow serving api安装文件tensorflow_serving_api-1.3.0-py2-none-any.whl ,使用pip命令安装。

sudo pip install tensorflow_serving_api-1.3.0-py2-none-any.whl

从提供的安装包里面找到serving安装包serving.tar,解压到当前目录

tar -xvf serving.tar

新建tensorflow-dep目录,建议在当前用户目录下新建(比如/home/han/tmp/tensorflow-dep),从提供的安装包里面(tensorflow-dep目录下所有包)将serving编译需要的依赖包都拷贝到tensorflow-dep目录。切换到tensorflow-dep的上级目录,并启动本地http服务,方便安装过程中访问需要的依赖包。

sudo python -m SimpleHTTPServer 8080

安装前配置,安装过程中Default提示都选择回车,扩展功能支持都输入n,具体操作如下图:

cd serving cd tensorflow

./configure

cd ..

使用bazel编译代码(编译时间会比较长),编译输出在bazel-bin/tensorflow_serving/model_servers/tensorflow_model_server

sudo touch /usr/include/stropts.h

bazel build -c opt tensorflow_serving/...

bazel test -c opt tensorflow_serving/...

cd serving

sudo cp bazel-bin/tensorflow_serving/model_servers/tensorflow_model_server /usr/local/bin/tensorflow_model_server

测试tensorflow serving是否安装成功(测试文件在serv-test)

首先生成模型,model_dir可以指定为在当前用户下面新建目录

cd serv-test python tfserv.py --model_version=1 --model_dir=/home/han/model

查看生成的模型,dir对应生成的模型所在目录加版本号

saved_model_cli show --dir /home/han/model/1

启动serving,model_base_path对应生成的模型所在目录

tensorflow_model_server --port=9000 --model_name=test --model_base_path=/home/han/model

运行客户端,查看调用结果

python tfcli.py --server localhost:9000

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 网址 下载与安装 你可以使用我们提供的 Pip, Docker, Virtualenv, Anaconda 或 源...
    九七学姐阅读 4,783评论 3 11
  • 1. 介绍 首先让我们来看看TensorFlow! 但是在我们开始之前,我们先来看看Python API中的Ten...
    JasonJe阅读 11,812评论 1 32
  • 安装tensorflow的过程中遇到了很多大大小小的问题,下面总结一些自己的安装流程,也算是对自己在这方面的一个总...
    YoungManSter阅读 4,243评论 0 3
  • 24度的长沙,一杯冷萃刚刚好
    我就是杨同学阅读 146评论 0 0
  • 系统总结了关于用户登录注册的一些知识,供大家参考。 在互联网世界,用户是一切,如果用户都只是匆匆过客那么很难在产品...
    jason_peng阅读 3,179评论 0 28