OpenVINO™ 工具套件:一款可轻松实现“一次写入,处处部署”的开源工具套件。
最新特性
将 OpenVINO™ 轻松集成到现有代码库中,确保无忧维护,并与各种框架实现更优匹配。
- 将标准 TensorFlow* 模型直接加载到 OpenVINO 运行时和 OpenVINO 模型服务器中。您的模型即可自动转换。为最大限度地发挥性能,在加载模型之前应先使用 OpenVINO 将其转换为中间表示文件 (IR)。
- 支持 Python* 3.11
- C++ 开发人员现在可以从 conda-forge 安装 OpenVINO 运行时
- CPU 插件现支持 ARM* 处理器,包括动态形状、完整处理器性能,并包含丰富的示例代码和 Notebook。通过正式验证,确认适用于 Raspberry Pi* 4、MacBook* 和搭载 M1 或 M2 芯片的 MacBook Pro。
- 适用于模型转换和优化的 Python API 可直接在 Python 脚本中进行模型转换和优化
轻松优化和部署更多类型的模型,包括自然语言处理 (NLP) 模型,并通过全新硬件功能提升 AI 加速。
- 增加对生成式 AI 模型的支持:
- CLIP
- BLIP
- Stable Diffusion 2.0
- 文本处理模型
- Transformer 模型(如 S-BERT 和 GPT-J)
- Detectron2
- Paddle Slim
- RNN-T
- Segment Anything Model (SAM)
- Whisper
- YOLO* v8
- 首度在 GPU 上支持动态形状。使用 GPU(2022 年起支持 CPU)时不再需要将形状更改为静态形状,从而提高编程时的灵活性,这对 NLP 模型来说尤为重要。
- 神经网络压缩框架 (NNCF) 是首选的量化工具。通过模型压缩,该工具可更轻松地大幅提高模型性能。OpenVINO 过去为训练后优化和量化感知训练提供不同的工具。现在,这两种方法都被组合到 NNCF 这一个工具中
通过在 CPU、GPU 等各个处理器上并行处理自动设备检测、负载平衡和动态推理,实现立竿见影的性能提升。
- CPU 插件现在为第 12 代英特尔® 酷睿™ 及更高版本的处理器提供线程调度。您可以根据应用配置选择在 E-Core(能效核)、P-Core(性能核)或同时在两者上运行推理,并根据需要针对性能或节能进行优化。
- 默认推理精度。在任何设备上,OpenVINO 均默认采用实现最优性能的格式。例如,对于 GPU,它默认采用 FP16,而第四代英特尔® 至强® 处理器则为 BF16。您不再需要事先将模型转换为特定的 IR 精度,如有必要,您仍可以选择加载在精确模式下运行的 FP32。
- GPU 上的模型缓存有所改进,模型加载和编译效率得到提升。

资源
社区与支持
探索各种参与方式,并及时了解最新公告。