让 AI 无处不在

让 AI 无处不在

概述:

  • 第五代英特尔® 至强® 处理器可帮助企业加速 AI 部署。首先,它的每个内核均集成 AI 加速技术,可更高效地处理要求严苛的 AI 工作负载。此外,它还具有能效管理功能和更高的每瓦性能,可帮助企业降低总体拥有成本。在数据安全方面,基于英特尔® SGX 和英特尔® TDX 的机密计算技术可帮助保护处理中的数据,更有效地确保 AI 的安全性。

author-image

作者

AI 正在改变我们的工作方式。企业希望利用先进的语言、文本生成图像和代码生成 AI 模型节省财力和时间,同时创造新的商机。但是,由于很快便遇到了硬件可用性、成本、集成和扩展方面的挑战,致使很多 AI 应用未能成功部署。此外,虽然这些工作负载需要的算力不断增加,但对其中大多数工作负载来说,使用基于 GPU 的系统有些大材小用。

 

  • 到 2030 年全球 AI 市场的复合年增长率 1:37%。
  • 40% 的高管投资于生成式 AI 2
  • 69% 的企业和机构在生产中采用 AI 3

业务目标:增加收入、开展创新

AI 正在创造新的商机并加速价值实现,这将创造新的收入来源,同时增强客户体验。机会是无限的,但能否成功最终取决于是否能以面向未来的 AI 模型所需的性能交付成果。

英特尔如何助您一臂之力

第五代英特尔® 至强® 处理器为 AI 加速而生,拥有一系列出众的功能,可实现卓越的性能。第五代英特尔® 至强® 处理器的每个内核均集成 AI 加速技术,完全有能力处理要求严苛的 AI 工作负载。

内置的英特尔® 高级矩阵扩展(Intel® Advanced Matrix Extensions,英特尔® AMX)可加速深度学习推理和小规模的模型训练。英特尔® oneAPI 深度神经网络库 (oneDNN) 软件优化已集成到 TensorFlow 和 PyTorch 中,使开发人员可以轻松享受内置 AI 加速技术的益处。

英特尔让您能够:

 

  • 借助将用户实时行为以及时间和地点等相关场景特征考虑在内的深度学习推荐系统,在不降低用户体验的前提下快速提供个性化产品或内容推荐
  • 借助在自然语言处理 (NLP) 推理方面实现的性能飞跃,支持响应更迅速的智能助手、聊天机器人、预测性文本和语言翻译等工作负载。
  • 运行模仿人类生成内容的生成式 AI 模型,例如大型语言模型 (LLM) 和文本转图像模型。借助英特尔® AMX,第五代英特尔® 至强® 处理器使生成式 AI 在 CPU 上更容易实现,因此您可在数据中心广泛使用生成式 AI,并通过独立加速器实现进一步加速。

性能证明

高达 3.4 倍 SST2 数据集的 DLSA BERT-LARGE 批量调优性能提升 4

内置 AMX BF16 的英特尔® 至强® 铂金 8592+ 处理器与 FP32 的比较。

做好更新准备

企业和机构在实现效率、总体拥有成本、安全性和可持续发展等目标方面面临巨大压力,而 AI 功能和要求的增加,进一步加剧了这种压力。Microsoft Server 2016 和 2019 宣布生命周期和支持服务终止也造成了压力升级。简而言之,四年前的系统已经无法满足如今的需求。

基于英特尔® 至强® 处理器的更新策略使您能够全面审视在软件、硬件和基础设施上的投资,通过更新要素的优化,使其各自充分发挥价值。

性能证明

 

  • 高达 62% 的总体拥有成本降低,可用于重新投资以实现增长 5
  • 按照 3:1 的比例精简整合服务器,可缩小数据中心占地面积并降低成本 6

业务目标:降低成本

企业和机构面临总体拥有成本的挑战,要降低包括硬件采购、软件许可、用电和云成本等资本和运营支出,同时还要满足不断增长的工作负载需求。优化性能和更新旧技术可以提高运营效率,从而显著降低成本。

许多企业和机构都在考虑如何降低技术基础设施和云采购的能耗。在这方面取得成功会对运营成本产生积极影响,支持企业可持续发展计划,并帮助减轻业务运营对气候的影响。

英特尔如何助您一臂之力

第五代英特尔® 至强® 处理器可在您用于处理其他工作负载的已有硬件上实现性能和成本的平衡。您可升级到第五代英特尔® 至强® 处理器,借助更高的每瓦性能和能效管理功能,降低总体拥有成本。

性能证明

 

  • 高达 2.1 倍性能提升。
  • 高达 1.58 倍每瓦性能提升。

 

第五代英特尔® 至强® 处理器与第三代英特尔® 至强® 处理器在 Llama 2 13B 上的首个词元时延 (int8) 比较 7

性能证明

 

  • 高达 5.7 倍实时 NLP 推理性能提升 (DISTILBERT)。
  • 高达 6 倍每瓦性能提升。

 

内置 AMX INT8 的英特尔® 至强® 铂金 8592+ 处理器与 FP32 的比较 8

业务目标:降低风险

企业必须采用新模式,让 AI 在分布式计算的背景下充分发挥其价值。专有机器学习模型必须与其他关键业务资产一起作为知识产权受到保护,同时还必须解决数据隐私问题,促进多个企业和机构实现涉及敏感数据的协作。为了获得和保护竞争优势,当今许多企业已经将确保 AI 安全视为核心战略问题。

英特尔如何助您一臂之力

一直以来,数据安全的重点始终是保护存储中的静态数据和在不同位置之间移动的传输中数据。基于英特尔® 软件防护扩展(Intel® Software Guard Extensions,英特尔® SGX)英特尔® Trust Domain Extensions(英特尔® TDX)的机密计算技术则更进一步,可保护处理中的数据。这可以通过创建可信执行环境 (TEE) 来实现。不仅所有关键数据都存储在 TEE 内,而且访问和处理这些数据的应用和算法也在 TEE 内。

第五代英特尔® 至强® 处理器在前代产品机密计算技术的基础上得到显著改进,除了应用级隔离之外,也广泛支持虚拟机级的隔离。这种选择上的多样性,可让您找到适合自身特定业务和监管需求,并可跨各类基础设施进行部署的解决方案,以保护数据中心、云和边缘的数据和 IP。

 

  • 基于英特尔® SGX 的应用隔离。英特尔® SGX 是目前市场上经过深入研究和多次更新的数据中心级机密计算技术,拥有极小的信任边界。
  • 基于英特尔® TDX 的虚拟机隔离。英特尔® TDX 提供虚拟机 (VM) 级别的隔离和保密性。在基于英特尔® TDX 的机密虚拟机中,客户机操作系统和虚拟机应用被隔离开来,无法被云端主机、虚拟机管理程序和平台的其他虚拟机访问。英特尔® TDX 不要求更改应用代码,因此为现有虚拟机迁移到可信执行环境提供了更简单的迁移路径。
  • 独立认证。英特尔通过英特尔® Trust Authority 提供公有云、私有云或多云环境下的独立认证服务。该服务旨在远程验证和证明计算资产(例如可信执行环境、设备和信任根)的可信度,在操作上独立于托管机密计算工作负载的云/边缘基础设施提供商。

 

您可阅读报告“The Future of Risk is Upon Us and We Can Manage It if We Secure AI(风险的未来由我们决定,保护好 AI 就能掌控风险)”,详细了解 AI 安全的重要性。

利用开放技术,实现自由创新

英特尔是开源社区的重要贡献者,特别是在 AI 方面,更是功不可没。事实上,有 90% 的开发人员都在使用英特尔开发或优化的软件 9。与从头开始构建模型相比,很多开发团队更愿意采用开源模型。英特尔有数十个经过优化的预训练 AI 模型。这些模型开箱即用,易于定制。并且,由于有着庞大的处理器生态系统和广泛的供货渠道,购买硬件时无需等待。对于要求更为严苛的工作负载,英特尔® 至强® 处理器提供了一种开放标准框架,用于添加加速器和 GPU。

英特尔硬件平台统一采用基于 oneAPI 的通用开放标准编程模型,专为提升跨 CPU 和 GPU 的生产力和性能而构建。英特尔® 软件开发工具包括高级编译器、库、分析器和代码迁移工具。面向英特尔® 架构优化的 AI 框架使数据科学家、科学计算或 AI 研究人员和开发人员能够更轻松地利用英特尔的机器和深度学习优化获得开箱即用的性能,采用先进的硬件功能,通过简化的部署优化 AI 推理,更高效地实施强大的端到端解决方案。

·     利用英特尔® 加速器(CPU、GPU 和 VPU)来优化 AI 推理、提高性能,并使用英特尔备受欢迎的开源 OpenVINO™ 工具包进行大规模部署。您可从 TensorFlow、PyTorch 等主流深度学习框架中某个经过训练的模型入手,并与 OpenVINO 压缩技术无缝集成,以简化各硬件平台上的部署。所有这些都只需极少的代码更改。
·     使用英特尔® oneAPI 基础工具套件中的英特尔® oneAPI 深度神经网络库 (oneDNN)英特尔® oneAPI 数据分析库 (oneDAL) 在 CPU 上启用英特尔® 高级矩阵扩展(英特尔® AMX)和英特尔® 高级矢量扩展 512(Intel® Advanced Vector Extensions 512,英特尔® AVX-512),或在 GPU 上启用英特尔® Xe Matrix Extensions(英特尔® XMX),加速深度学习和其他 AI 用例中的调优和推理。
·     使用面向英特尔® 架构优化的深度学习 AI 框架,将 TensorFlow 和 PyTorch 的训练和推理优化带来的性能增益提升几个数量级。
·     使用英特尔构建的开源 AI 参考套件,加速各个行业的模型开发和 AI 创新(现已提供 34 个)。

性能证明

 

  • 高达 9.2 倍实时 NLP 推理性能提升 (BERT-LARGE)。
  • 高达 10.2 倍每瓦性能提升。

 

内置 AMX INT8 的英特尔® 至强® 铂金 8592+ 处理器与 FP32 的比较 10

重新定义可能性

具有前瞻性的决策者必须充分抓住 AI 的潜力,以实现收入增加、开展创新,同时降低成本和风险。英特尔提供全面的硬件、软件、工具和设计模式来实现这一愿景。第五代英特尔® 至强® 处理器比前代处理器提供更高的每核性能和每瓦性能,可满足新兴需求,并助您达成关键业务指标。

芯生无限。

了解更多信息

www.intel.cn/xeon

www.intel.cn/ai

选择企业和机构部署 AI 时更信赖的 CPU:目前大多数数据中心的 AI 推理部署都在英特尔® 至强® 处理器上运行 11