OpenVINO™工具套件英特尔® Distribution

753640
2/6/2025

介绍

此软件包包含适用于 Linux*、Windows* 和 macOS* 的 OpenVINO™ Toolkit 软件版本 2025.0 的英特尔® Distribution。

可供下载

  • Debian Linux*
  • 大小:31.8 MB
  • SHA256:7C821B3DF2EA1A5962D4BE07867DFED226B702AC7F2CFED74D544D9B35DCE818
  • CentOS 7 (1908)*
  • 大小:56.4 MB
  • SHA256:C34B7EB9094D618F58B0628B5EC9CA6F1FF49674F4D95FD3772C389B8C037A57
  • Red Hat Enterprise Linux 8*
  • 大小:61.3 MB
  • SHA256:CEB682A4DF4B8A86157686902EBC31FC4927849A708B0B8BB111D475C2A9ECCB
  • Ubuntu 20.04 LTS*
  • 大小:64.5 MB
  • SHA256:622D5D1B710862659BA530ECC7AA2B9C6F1D84C12819D208F68178474791A2ED
  • Ubuntu 20.04 LTS*
  • 大小:35.6 MB
  • SHA256:D4282BC95F615EFB21646031ACCDEEBC6B4544452996C15DB3A6483FC46AE396
  • Ubuntu 22.04 LTS*
  • 大小:55.4 MB
  • SHA256:09E8127DAF7EF42851F0C724CE93181B9256568BB6FC8E79CC8F33F4AB6D6F3E
  • 大小:56.5 MB
  • SHA256:E1681AA6CA02765A5F422EBFF6FD86EBD2C6C0EBD4EFB4E04DDA0EDB79EA30BB
  • macOS*
  • 大小:46.2 MB
  • SHA256:59BA68B752BE3C298DF45AFD55428A872B39C35813A3C53697CF49591A843D2C
  • macOS*
  • 大小:36.4 MB
  • SHA256:1628F809540D9A2AB22DFB48B2EA815C75E49EF9AE436AB29412F868886F05F5
  • Windows 11*, Windows 10*
  • 大小:117.6 MB
  • SHA256:B6D96E6ED184A499C054C07BE8619946B4F851F60BF725077E9683FE14719E2B

详细说明

最近更新

  • 覆盖更多 GenAI 功能和框架集成,最大限度地减少代码更改。
    • 支持的新模型:Qwen 2.5、Deepseek-R1-Distill-Llama-8B、DeepSeek-R1-Distill-Qwen-7B 和 DeepSeek-R1-Distill-Qwen-1.5B、FLUX.1 Schnell 和 FLUX.1 Dev。
    • Whisper 模型:借助 GenAI API 提高了 CPU、内置 GPU 和独立 GPU 的性能。
    • 预览:推出 NPU 对 torch.compile 的支持,使开发人员能够使用 OpenVINO 后端在 NPU 上运行 PyTorch API。从 TorchVision、Timm 和 TorchBench 存储库启用 300+ 深度学习模型。
  • 更广泛的大型语言模型 (LLM) 支持和更多的模型压缩技术。
    • 预览:向 GenAI API 添加提示查找,通过有效利用与预期用例匹配的预定义提示,改善了 LLM 的第二个令牌延迟。
    • 预览:GenAI API 现在提供图像到图像修复功能。此功能使模型能够通过修复指定的修改并将其与原始图像无缝集成来生成逼真的内容。
    • 现在已在 CPU 上为 INT8 启用了非对称 KV 缓存压缩,从而降低了内存消耗并改善了第二令牌延迟,尤其是在处理需要大量内存的长提示时。该选项应由用户显式指定。
  • 更高的可移植性和性能,可在边缘、云端或本地运行人工智能。
    • 支持最新的英特尔® Core™ Ultra 200H 系列处理器(原代号为 Arrow Lake-H)
    • OpenVINO™后端与 Triton 推理服务器的集成允许开发人员在英特尔 CPU 上部署时利用 Triton 服务器来增强模型服务性能。
    • 预览:新的 OpenVINO™ 后端集成允许开发人员直接在 Keras 3 工作流程中利用OpenVINO性能优化,从而在 CPU、内置 GPU、独立 GPU 和 NPU 上更快地进行人工智能推理。此功能随最新的 Keras 3.8 版本提供。
    • OpenVINO 模型服务器现在支持本机 Windows Server 部署,允许开发人员通过消除容器开销和简化 GPU 部署来利用更好的性能。

现已弃用

  • 旧前缀 l_、w_ 和 m_ 已从OpenVINO归档名称中删除。
  • Python API 的运行时命名空间已标记为已弃用,并指定在 2026.0 中移除。新的命名空间结构已交付,并且可以立即进行迁移。详细信息将通过警告和文档进行传达。
  • NNCF create_compressed_model() 方法已被废弃。现在推荐 nncf.quantize() 方法用于 PyTorch 和 TensorFlow 模型的量化感知训练。

安装说明

您可以根据作系统选择如何安装运行时OpenVINO™:

下载程序包中的内容

  • 面向 C/C++ 和 Python API 的 OpenVINO™ 运行时/推理引擎

有用的链接

注意: 链接在新窗口中打开。

此下载对下面列出的产品有效。

本页面上的内容是原始英文内容的人工翻译与计算机翻译的组合。我们提供此内容是为了您的便利并且仅供参考,未必完整或准确。如果本页面的英文版与翻译版之间存在任何冲突,应以英文版为准。 查看此页面的英语版本。