说明
- Intel System Studio集多种功能于一身的,专门为简化系统开发、提升系统和物联网设备应用在Intel平台体验效果而设计的跨平台是一个工具集, 如果您正在通过Intel System Studio来使用Intel openvino发布版本,请移步Intel System Studio
- 下面的步骤适用于Ubuntu、CentOS和Yocto*
- openvino,Windows安装指导
- 安装FPGA支持的openvino toolkit请看安装指导
- 在CentOS和Yocto上安装需要一些修订,此处不做说明
- 下面的步骤需要联网
linux版的openvino开发包简介
- 基于卷积神经网络(CNN)接口,赋予边缘计算深度学习的能力
- 支持异构执行。支持的平台有:Intel CPU、Intel集成显卡、Intel Movidius^TM 神经计算棒、Intel神经计算棒2和基于Intel Movidius VPUs的Intel视觉加速卡
- 通过预先优化的核心和容易使用的视觉方法库加速机器视觉模型落地速度
- 支持加速调用现有的机器视觉标准库,如:openCV、openCL、openVX*
安装包默认安装的组件
组件 | 描述 |
---|---|
模型优化器 | 这个工具可以将导入的模型优化后转化为Intel tools可用的文件格式,如Intel推理引擎,主流的模型包括Caffe,TensorFlow, MXNet, and ONNX |
推理引擎 | 在这个引擎上运行深度学习模型,该引擎包含用于将推理引擎集成在您应用中的库 |
2.1版本的驱动和运行时程序 | 使opencl可以在intel处理器上运行 |
intel 媒体软件开发包 | 提供硬件加速的视频编解码器和帧处理器的入口 |
OpenCV | 为Intel编译的各版本OpenCV的社区版 |
OpenVX* 1.1版本 | Intel实现的为在Intel硬件(CPU、GPU、IPU)上运行的penVX* 1.1的优化版本 |
示例程序 | 简单控制台应用的集合,用来演示如何在您的程序中集成推理引擎 |
演示 | 演示如何在您的应用中使用推理引擎来解决特定的问题 |
附加工具 | 与您的模型一块工作的工具集 |
预训练模型的参考文档 | open model zoo仓库中预训练模型的参考文档 |
开发平台和运行平台
开发、运行有相似的平台要求,但是您可以根据自己的需求来安装不同的组件
硬件
- 6-8代Intel内核
- Intel® Xeon® v5系列
- Intel® Xeon® v6系列
- Intel® Pentium® processor N4200/5, N3350/5, N3450/5 with Intel® HD Graphics
- Intel® Movidius™神经网络计算棒
- Intel®神经网络计算棒2
- 为Intel® Movidius™ VPU设计的Intel®视觉加速器
关于的处理器注意事项
不是所有的处理器都集成了显卡驱动,Intel® Xeon®处理器需要支持显卡驱动的芯片集
操作系统
- Ubuntu 16.04.x long-term support (LTS),64位:支持的最早内核版本为4. 14
- CentOS 7.4,64位:(for target only)
- Yocto Project Poky Jethro v2.0.3, 64-bit (for target only and requires modifications)
概述
下面将一步步指导您安装openvino开发包的发布版,您看到的链接适用于为每种可用硬件,点击可以下载一些需要的文件,或了解一些初始化和配置步骤。