英特尔® 发行版 OpenVINO™ 工具套件概述
英特尔® Developer Cloud for the Edge 预装了英特尔® 发行版 OpenVINO™ 工具套件,可帮助开发人员在各种计算设备上运行推理。此工具套件专为加速机器学习解决方案开发而设计。英特尔® 发行版 OpenVINO™ 工具套件基于卷积神经网络 (CNN),可在英特尔® 硬件(包括加速器)之间共享工作负载,从而最大限度地提升性能。
英特尔® 发行版 OpenVINO™ 工具套件包括:
- 模型优化器,用于转换来自 Caffe*、TensorFlow*、Open Neural Network Exchange (ONNX*) 和 Kaldi 等常见框架的模型
- 推理引擎,为跨英特尔计算机视觉加速器(包括 CPU、图形处理单元、FPGA 和英特尔® 神经电脑棒 2(英特尔® NCS2))的异构执行提供支持
- 适用于异构英特尔® 硬件的通用 API
核心流程
基本工作流程为:
- 使用 Caffe 等工具创建和训练 CNN 推理模型。
- 通过模型优化器运行模型,生成存储在文件(.bin 和 .xml)中、用于推理引擎的优化中间表示 (IR)。
- 然后,用户应用程序使用推理引擎和 IR 文件在目标设备上加载和运行模型。
- 要开始在 Python* 中使用英特尔发行版 OpenVINO 工具套件,请创建新的 Jupyter* Notebook。
- 要开始在您自己的计算机上使用本地副本,请下载英特尔发行版 OpenVINO 工具套件。