最新特性

将 OpenVINO™ 轻松集成到现有代码库中,确保无忧维护,并与各种框架实现更优匹配。

  • 将标准 TensorFlow* 模型直接加载到 OpenVINO 运行时和 OpenVINO 模型服务器中。您的模型即可自动转换。为最大限度地发挥性能,在加载模型之前应先使用 OpenVINO 将其转换为中间表示文件 (IR)。 
  • 支持 Python* 3.11  
  • C++ 开发人员现在可以从 conda-forge 安装 OpenVINO 运行时  
  • CPU 插件现支持 ARM* 处理器,包括动态形状、完整处理器性能,并包含丰富的示例代码和 Notebook。通过正式验证,确认适用于 Raspberry Pi* 4、MacBook* 和搭载 M1 或 M2 芯片的 MacBook Pro。
  • 适用于模型转换和优化的 Python API 可直接在 Python 脚本中进行模型转换和优化 

轻松优化和部署更多类型的模型,包括自然语言处理 (NLP) 模型,并通过全新硬件功能提升 AI 加速。

  • 增加对生成式 AI 模型的支持:
    • CLIP
    • BLIP
    • Stable Diffusion 2.0
    • 文本处理模型
    • Transformer 模型(如 S-BERT 和 GPT-J)
    • Detectron2
    • Paddle Slim
    • RNN-T
    • Segment Anything Model (SAM)
    • Whisper
    • YOLO* v8
  • 首度在 GPU 上支持动态形状。使用 GPU(2022 年起支持 CPU)时不再需要将形状更改为静态形状,从而提高编程时的灵活性,这对 NLP 模型来说尤为重要。
  • 神经网络压缩框架 (NNCF) 是首选的量化工具。通过模型压缩,该工具可更轻松地大幅提高模型性能。OpenVINO 过去为训练后优化和量化感知训练提供不同的工具。现在,这两种方法都被组合到 NNCF 这一个工具中 

通过在 CPU、GPU 等各个处理器上并行处理自动设备检测、负载平衡和动态推理,实现立竿见影的性能提升。

  • CPU 插件现在为第 12 代英特尔® 酷睿™ 及更高版本的处理器提供线程调度。您可以根据应用配置选择在 E-Core(能效核)、P-Core(性能核)或同时在两者上运行推理,并根据需要针对性能或节能进行优化。  
  • 默认推理精度。在任何设备上,OpenVINO 均默认采用实现最优性能的格式。例如,对于 GPU,它默认采用 FP16,而第四代英特尔® 至强® 处理器则为 BF16。您不再需要事先将模型转换为特定的 IR 精度,如有必要,您仍可以选择加载在精确模式下运行的 FP32。 
  • GPU 上的模型缓存有所改进,模型加载和编译效率得到提升。

注册了解独家消息、提示和版本发布

利用英特尔® 发行版 OpenVINO™ 工具套件率先了解一切新内容。通过注册,您可以获得:

• 提前了解产品更新和版本发布
• 独家受邀参加线上研讨会和活动
• 培训和指导资源
• 竞赛公告
• 其他重大消息

通过提交此表单,您确认您已年满 18 周岁,并同意就执行此业务请求与英特尔分享您的个人信息。英特尔的网站和通讯受隐私声明使用条款的制约
通过提交此表单,您确认您已年满 18 周岁,并同意就执行此业务请求与英特尔分享您的个人信息。此外,您还同意通过电子邮件和电话订阅来随时了解最新英特尔技术和行业趋势。您可以随时取消订阅。英特尔的网站和通讯受隐私声明使用条款的制约