英特尔® 发行版 OpenVINO™ 工具套件
部署高性能的深度学习推理
英特尔® 发行版 OpenVINO™ 工具套件的最新版本 (2022.3 LTS) 让各地开发人员可以更加轻松地开始创新。此新版本可通过新性能提升、更多深度学习模型、更高设备可移动性、更高推理性能以及更少的代码更改,来支持开发人员。
注册以获得英特尔发行版 OpenVINO 工具套件新闻
随时了解最新的产品发布、新闻和提示。
从始至终充分利用您的 AI 部署
英特尔发行版 OpenVINO 工具套件让您的代码易于采用和维护。Open Model Zoo 提供经优化的预训练模型,而模型优化器 API 参数也能够让转化模型变得更加轻松,并为推理做好准备。运行时(推理引擎)可支持您通过在特定设备上编译经优化的网络,并管理推理运算,来调整性能。它还可以通过跨 CPU、GPU 等的设备发现、负载均衡和推理并行来进行自动优化。
高性能,深度学习
训练时考虑到推理,从 TensorFlow* 和 PyTorch* 等常见框架着手,并使用用于英特尔发行版 OpenVINO 工具套件的神经网络压缩框架 (NNCF)。
简化开发
借助训练后优化工具将您的模型导入到 OpenVINO 中,以进行训练后量化和优化。
一次写入,处处部署
在主机处理器和加速器 (CPU、GPU、VPU) 和环境(本地、设备、浏览器或云端)的组合中部署相同的应用程序。
如何运作
借助 TensorFlow、PyTorch 和 Caffe* 等热门框架转换和优化训练后模型。在多种英特尔® 硬件和环境、本地、设备、浏览器或云中部署。
2022.3 LTS 版本新增功能
模型和硬件支持范围更广
在扩展的深度学习模型中轻松优化和部署,包括自然语言处理 (NLP)。通过扩展的硬件获取 AI 加速。
API 改进和集成更多
采用和维护您的代码变得更加简单。该版本需要更少的代码更改,提供更多与框架集成的选择,并最大限度地减少转换。
模型覆盖范围扩大
通过跨 CPU、GPU 等的自动设备发现、负载均衡和动态推理并行来快速提升性能。
成功案例
社区与支持
探索各种参与方式,并及时了解最新的公告。
高效、智能的途径,可以摆脱专有替代方案的经济和技术负担,实现加速计算的自由。
