构建

英特尔® DevCloud

开始使用

下图说明如何初始化内置 Tensorffow 模型,以便在应用程序中使用 OpenVINO 工具套件进行推理。

在您的 TensorFlow 应用程序中插入以下两行代码。

import openvino_tensorflow
openvino_tensorflow.set_backend('<backend_name>')

支持的后端选项包括:

  • CPU
  • GPU
  • MYRIAD
  • VAD-M

要更改完成推理的硬件,请调用以下函数:

openvino_tensorflow.set_backend('<backend_name>')

要确定您的系统支持哪些推理硬件,请使用以下代码:

openvino_tensorflow.list_backends()

运算符功能管理器 (OCM)

该模块实施对 TensorFlow 运算符的检查,以确定哪些抽象层属于 OpenVINO 集成后端,哪些层应回退到现有 TensorFlow 运行时。 

 

图分区器

检查 OCM 标记为集群的节点,并将它们分配到集群中。一些集群在进一步分析后会被丢弃。每个运算符集群随后会被封装成一个自定义运算符,在 OpenVINO 集成上运行。

 

TensorFlow 导入器
将 TensorFlow 运算符转换为 OpenVINO 集成运算符,并创建包装成卷积神经网络 (CNN) 的 nGraph 函数以在工具套件后端上运行。

 

后端管理器
此模块创建用于运行 CNN 的后端。后端有两种类型:基本后端和 VAD-M 后端。基本后端支持 CPU、iGPU、MYRIAD。VAD-M 后端用于带有八个 VPU 的英特尔® Vision Accelerator Design(称为 VAD-M 或 HDDL)。 

资源

英特尔® DevCloud 有多个示例应用程序和教程来说明 OpenVINO™ 与 TensorFlow 的集成的工作原理。

资料 描述
对象检测示例应用程序 说明如何使用 OpenVINO 与 TensorFlow 的集成执行对象检测
分类示例应用程序 说明如何使用 OpenVINO™ 与 TensorFlow 的集成执行分类
GitHub 储藏库 有关安装、最低先决条件等的其他文档
OpenVino 与 TensorFlow 的集成安装程序 下载软件包并在本地边缘设备上安装以供使用
为获得最强大的性能、效率、工具自定义和硬件控制,建议使用内置的 OpenVINO 工具套件 API 和运行时。