面向未来的平台基础实现敏捷的数字服务

助力数字世界的变革
在不断演变的数字世界中,商业、工业、科学和娱乐领域涌现出许多具有颠覆性的新兴技术趋势,日益影响全球经济。到 2020 年,半数“全球 2000 强”企业所取得的成功将取决于自身创造数字化增强产品、服务和体验的能力,1而大企业期望看到其数字业务收入 80% 的增长2得益于他们所推动的技术和使用模式的进步。

英特尔® 至强® 可扩展平台为建立一个强大的数据中心平台奠定了基础,从而在敏捷性和可扩展性方面逐渐跃上了一个新台阶。

这一全球性转变迅速激发了对于灵活计算、网络和存储的需求。未来的工作负载将迫使基础设施能够通过无缝扩展的方式支持即时响应和各种各样的性能要求。数据生成和使用呈指数增长、云规模计算的迅速扩展、新兴的 5G 网络以及高性能计算 (HPC) 和人工智能 (AI) 向全新用法的延伸都要求如今的数据中心和网络与时俱进,否则就会在竞争剧烈的环境中落伍。这些需求正在推动适用于面向未来的现代化数据中心和网络的架构能够迅速伸缩自如地发展。

英特尔® 至强® 可扩展平台为建立一个强大的数据中心平台奠定了基础,从而在敏捷性和可扩展性方面逐渐跃上了一个新台阶。这款创新的处理器采用了颠覆性设计,在计算、存储、内存、网络和安全性方面树立了平台聚合及功能的新标杆。企业、云和通信服务供应商现可借助一个功能丰富且高灵活度的平台推进其雄心勃勃的数字计划。

查看信息图表 ›

提高效率、降低总拥有成本 (TCO)
在从企业到技术计算应用的各类基础设施中,英特尔® 至强® 可扩展平台专为数据中心现代化而设计,通过推动运营效率来带动总体拥有成本 (TCO) 的改善和用户工作效率的提升。在英特尔® 至强® 可扩展平台上构建的系统旨在提供敏捷的服务,并且由于软件和操作系统授权费用以及购置、维护和基础设施成本均处于较低水平,因此可以将 TCO 降低至 65%3 4

近十年来,企业虚拟化蒸蒸日上。多数组织利用某种形式的虚拟化,提高了对服务器的需求,以便在数据中心运行虚拟机 (VM)。 相比前几代产品,英特尔® 至强® 可扩展平台使每台服务器运行的虚拟机数量提高到原来的 4.2 倍5,使 IT 人员可以整合更多服务,并减少了硬件需求。

广泛应用的突破性性能
从新推出的英特尔® Mesh 架构和广泛扩展的资源到硬件加速和新集成的技术,英特尔® 至强® 可扩展平台一致且广泛应用的突破性性能跃升到一个新台阶。

将英特尔® 至强® 可扩展平台与基于四年机龄的上一代英特尔® 至强® 处理器的系统相比,最新一代的英特尔 CPU 为企业、云、通信和 HPC 提供了更好的性能和功能。5 6 7 8 9 10 11 12

基础性增强:

  • 提高每内核性能:最多 28 个内核,为计算、存储和网络使用方面的计算密集型工作负载提供高性能和可扩展性。
  • 增加内存带宽/容量:内存带宽和容量提高 50%。从上一代的四条内存通道升级到六条内存通道,改善了内存密集型工作负载的处理能力。
  • 扩展 I/O:48 通道 PCIe* 3.0 带宽和吞吐量,适用于处理要求苛刻的 I/O 密集型工作负载。
  • 英特尔® 超级通道互联(英特尔® UPI):与上一代(借助英特尔® 快速通道互联(英特尔® QPI))相比,多达三条英特尔® UPI 通道使平台的可扩展性增加至最多八个插槽13,同时提高了 I/O 密集型工作负载的 CPU 间带宽。英特尔 UPI 在提高吞吐量与能效之间实现了完美平衡。
  • 英特尔® 高级矢量扩展 512(英特尔® AVX-512):与上一代英特尔® 高级矢量扩展 2(英特尔® AVX2)相比,14英特尔® AVX-512 在每个时钟周期的每秒浮点运算次数增加了一倍,因此在诸如建模与模拟、数据分析与机器学习、数据压缩以及可视化与数字内容创建之类的应用中执行要求最苛刻的计算任务时,其能够为您提供更加卓越的性能和吞吐量。
  • 安全不受影响:近乎为零的加密开销 15 对所有安全数据交易实现了更高的性能。

创新性集成
首次平台集成针对基础设施在性能和延迟方面实现了提升:

  • 集成英特尔® Omni-Path 架构(英特尔® OPA)Host Fabric 接口:端到端高带宽、低延迟结构不再需要独立的 Host Fabric 接口卡,优化了性能,简化了 HPC 群集的部署。集成在 CPU 封装中。
  • 集成英特尔® QuickAssist 技术(英特尔® QAT):对不断增长的压缩和加密工作负载实现基于芯片组的硬件加速可提高效率,同时对服务器、存储和网络基础设施提供增强的数据传输和保护。
  • 英特尔® 以太网与可扩展 iWARP* RDMA* 集成:提供最多四个 10 Gbps 高速以太网端口,实现高数据吞吐量和低延迟工作负载。软件定义存储解决方案、NVM Express* over Fabric 架构解决方案以及虚拟机迁移的理想选择。集成在芯片组中。

集成英特尔® Omni-Path 架构(英特尔® OPA)Host Fabric 接口是一个端到端高带宽、低延迟结构,优化了性能,简化了 HPC 群集的部署。

业界领先的存储支持
存储创新可以推动数据需求型工作负载在效率和性能方面取得巨大进步。

  • 英特尔® 傲腾™ 固态盘和英特尔® 3D NAND 固态盘支持:提供业界领先的高吞吐量、低延迟、高服务质量 (QoS) 和超高耐用性组合,从而突破了数据访问瓶颈。
  • 借助英特尔® 卷管理设备(英特尔® VMD)充满信心地部署下一代存储器:通过 PCIe 总线实现 NVMe 固态盘热插拔,而无需关闭系统。与此同时,标准化的 LED 管理可以帮助提供更快速的固态盘状态识别。这种通用性使 NVMe 固态盘具有企业可靠性、可用性和可服务性 (RAS) 特性,让您能够充满信心地部署下一代存储。
  • 英特尔® 智能存储加速库(英特尔® ISA-L):优化存储操作(例如加密),从而提高存储性能。
    • 使用英特尔® AVX-512 执行 SHA 算法加密散列可提速达 3.1 倍。16
    • AES-128-GCM 算法可提速达 1.2 倍。16
    • 使用英特尔® AVX-512 的 Reed Solomon Erasure Code 算法可提速达 2 倍。16

补充性产品可提供更高的性能、可扩展性
英特尔提供广泛的硬件和软件产品组合,构成对这一新款处理器的有效补充。

  • 英特尔® 至强融核™ 处理器是高度并行应用(例如机器学习训练、模拟和可视化)的理想基础。
  • 英特尔® FPGA 提供使用可编程硬件执行低延迟应用(例如虚拟交换、网络服务、数据分析和人工智能)所需的高效加速 17 以及灵活性。
  • 用于常规和高度并行计算的一系列软件工具和资源库可以帮助开发人员优化英特尔® 架构的应用。

增强平台可信度
数据和平台可靠性及保护是企业处理与数据安全和隐私相关且日益增多的问题和监管工作所涉及的关键因素。英特尔® 至强® 可扩展平台通过平台数据保护、复原能力和正常运行时间帮助构建高度可信的基础设施。

提高对于每项工作负载的数据保护和可靠性:

  • 增强英特尔® 确保运行技术:新增增强功能提供高级可靠性、可用性和可服务性 (RAS),以及针对公司最关键工作负载的服务器正常运行时间。硬件辅助功能(包括增强 MCA、恢复和自适应多设备错误更正)可诊断之前的严重错误并从中恢复。而且,这些功能可帮助确保在内存子系统中保持数据完整性。
  • 英特尔® 密钥保护技术(英特尔® KPT)与英特尔® QAT 和英特尔® 平台可信技术(英特尔® PTT)集成:可通过以静态、实时和动态方式提供高效的密钥和数据保护来实现硬件增强的平台安全性。
  • 带有一键激活功能的英特尔® 可信执行技术(英特尔® TXT):为英特尔 TXT 提供简化且可扩展的部署,同时提升平台安全性。

当更多数据丰富型工作负载通过数据中心传输时,这一全套硬件增强功能便为企业和云环境中的可信服务提供更好的数据和平台级保护机制。

英特尔® 至强® 处理器为各种工作负载提供一致的性能

 

重要因素?

英特尔® 至强® 可扩展平台的优势

企业和云

通过兼容的虚拟化基础设施尽可能降低复杂程度

满足严格的客户服务水平协议 (SLA)

迅速部署。英特尔虚拟机与其他基于英特尔® 技术的服务器共存。

快速响应时间。

HPC

充分发挥矢量浮点性能和效率

以较少的服务器实现较高的性能。

存储

确保确定性存储响应

确定性性能。单个基底中的内核、高速缓存、内存和 I/O。

通信

高效地提供各种服务

平台提供无与伦比的效率和硬件加速,并配有应用、控制、数据包和信号处理所必需的功能。

动态和高效服务交付
经过增强的计算、内存、网络和存储性能聚合与软件生态系统优化相结合,使英特尔® 至强® 可扩展平台成为完全虚拟化的软件定义数据中心的理想平台,而这些数据中心可在本地、通过网络以及在公共云中根据工作负载需求动态自行配置资源。

适用于敏捷数据中心的强大工具和技术:

  • 英特尔® VT-x 新特性:
    • 基于模式执行控制 (MBE) 虚拟化:通过使管理程序更可靠地验证和执行内核级代码的完整性,在虚拟化环境中提供针对恶意软件攻击的一层额外保护。
    • 时间戳计数器扩展 (TSC) 虚拟化:通过允许虚拟机选用以不同基频工作的 CPU,在混合云环境中提供工作负载优化。
  • 英特尔® 节点管理器 4.0:帮助 IT 人员智能管理和优化数据中心的功率、冷却和计算资源,充分发挥效率,同时降低出现代价高昂的过热的几率。

适用于混合云、数据驱动企业的功能强大的平台
企业迫切期望从呈现出爆炸性增长的数据流中提取有价值的信息,从而快速形成能够塑造其业务规划的见解。企业使用的传统和新兴应用(包括预测性分析、机器学习和 HPC)需要使用全新水平的强大计算功能和大量分层数据存储卷。现代化数据中心在设计时采用了聚合及整体方法,可以灵活提供新服务,并且在现今的基础设施资产中改善了总拥有成本,同时以无缝程度和可扩展性最高的方式接入自有混合数据中心。

但是,在基础业务工作负载(例如 OLTP 和 Web 基础设施)上运行的组织试图通过较高性能的基础设施来降低总拥有成本。

英特尔® 至强® 可扩展平台通过面向未来的平台向企业提供下一代企业级功能,以适应混合云数据驱动时代的要求,而且帮助改进日常运营,使运行时工作负载的每秒请求数提高达 58%。18 该多功能平台为计算需求型和延迟密集型应用提供了颠覆性计算性能,同时提高了内存速度和 I/O 性能。在英特尔® 至强® 可扩展平台上构建的平台与创新型英特尔® 固态盘数据中心家族相结合,可在存储、高速缓存和内存中管理更大的数据量,从而能够处理数据和云时代的各种大量需求。 

英特尔® 至强® 可扩展平台是一款高性能系统,其通过可扩展的封装选项组合来适应各种工作负载要求,并通过部署高效的虚拟化基础设施来实现计算、存储和网络功能。

企业创新亮点:

  • 多达 28 个高性能内核、6 条内存通道和 48 条 PCIe* 3.0 通道
  • 多达 3 条英特尔 UPI 通道
  • 支持英特尔® 傲腾™ 固态盘和英特尔® 3D NAND 固态盘
  • 增强的英特尔® 确保运行技术

通过与数据平面开发工具套件 (DPDK) 和英特尔 QAT 相结合,这款新处理器可以提高网络性能,使服务供应商能够提供更大的流量来发展服务和提高收入,并帮助其为迎接 5G 做好准备。19 20 21

适用于经过云优化的 5G 就绪网络和下一代虚拟网络的下一代平台
即将到来的 5G 时代将产生全新的生态系统及消费者和企业服务种类,以及各种无线和有线网络媒体应用。这些数据丰富型创新使用案例由全新的物联网 (IoT)、可视计算和分析推动,代表通信服务供应商 (CommSP) 在未来有巨大的机会来实现收入增长。 

从专用的固定功能基础设施向新一代开放型网络的转变是为迎接 5G 时代到来所必须做的前期准备。具有网络功能虚拟化 (NFV) 的软件定义网络正在为通信服务供应商和企业用户创造新的服务机遇和提高运营效率。使用灵活且经过优化的工业标准服务器和虚拟化且经过编排的网络功能,将使面向未来的基础设施能够高效轻松地提供创新服务。 

随着网络工作负载(从网络内核到边缘)的容量和种类日益增长,此类分布式通信网络可以支持极端水平的可扩展性、敏捷性、可编程性和安全性。 

英特尔至强可扩展平台是下一代平台构建经过云优化的虚拟化 5G 就绪网络的基础。它提供了一个可以轻松扩展和适应的架构,能够处理新兴应用需求和关键工作负载聚合,例如应用和服务、控制平面处理、高性能数据包处理及信号处理。该新款处理器为适合云经济要求的敏捷网络提供了基础,实现了高度自动化和快速响应,并且支持快速且更安全的增强型全新 5G 服务的交付。

CommSP 创新亮点:

  • 使用集成英特尔® QAT 进行基于硬件的加密和压缩加速
  • 集成的英特尔以太网
  • 英特尔 FPGA 充分发挥通信基础设施的多功能性
  • 带有集成英特尔 QAT 和英特尔 PTT 的英特尔 KPT
  • 带有一键激活功能的英特尔 TXT

针对 CommSP 进行优化的其他资源
开源数据平面开发工具套件 (DPDK) 在英特尔架构上实现了经过优化的通信操作。DPDK 已经展现出在处理器内核数量增加和性能提升时实现性能扩展的能力;工作负载(例如矢量数据包处理 (VPP) IPSec)便受益于这一增强的性能。而且,这些库提供了预优化机制,使新款处理器的功能(例如英特尔 AVX-512 和内存及 I/O 增强功能)能够利用新功能来提高数据包处理性能,从而减少直接开发工作。

英特尔提供的诸如英特尔® Network Builders University 之类的计划非常适合 5G 时代的网络发展。借助这些计划提供的解决方案指导和培训,CommSP 推进其网络转型计划的信心倍增。

在 13 个常用的 HPC 工作负载上,英特尔® 至强® 可扩展平台提供了性能改进。

突破性 HPC 和高性能数据分析创新
创新算法、新来源和数据量的增长以及计算和存储方面的进步促成了今天的科学发现。数据数量和种类在成倍扩大,使 HPC 群集也成为运行不断发展的高性能数据分析 (HPDA) 工作负载的引擎,从而使难以置信的发现和见解逐渐被企业和人们所了解。机器学习、深度学习和人工智能将大量计算功能与海量数据聚合在一起,从而推动诸如自动驾驶系统和自动驾驶车辆等下一代应用的发展。

英特尔至强可扩展平台提供了一个通用人工智能平台来推断和训练高吞吐量。与使用了四年的系统相比,推断提速高达 18 倍22,训练吞吐量提速高达 19 倍23

HPC 不再是只有大型科研机构才会涉足的领域。企业使用大量 HPC 计算周期的需求日渐升高;一些私有石油和天然气企业拥有部分全球最大型的 HPC 群集。个性化医疗研究利用 HPC 来执行高度集中的治疗计划。全新 HPC 系统使用创新型聚合架构来处理将模拟、人工智能、可视化和分析组合在一台超级计算机中的非传统应用。

HPC 平台(从规模最小的群集到最大型的超级计算机)需要在计算、内存、存储和网络之间实现平衡。英特尔至强可扩展平台旨在借助大规模的扩展能力(数万个内核)提供和实现这样的平衡。从提高的内核数量和网格架构到新集成的技术及英特尔傲腾内存和存储设备支持,英特尔至强可扩展平台实现了 HPC 的终极目标,充分发挥了计算、内存、存储和网络性能,消除了任何资源交集之处所产生的瓶颈。

将英特尔 Omni-Path 架构(端到端高性能结构)集成到英特尔至强可扩展平台中,不仅提供了增强的性能,而且可以扩展到分布式并行计算群集。近乎线性扩展至多达 32 个节点,实现了大型 HPC 解决方案的构建,而不会受到互联的抑制。而且,与上一代英特尔至强处理器相比,英特尔至强可扩展平台在处理科学和金融服务领域普遍使用的 13 个 HPC 工作负载时,整体性能提升 1.63 倍。24 英特尔至强可扩展平台和英特尔 Omni-Path 架构可以为很多数据中心的高度并行工作负载带来新的发现和更快的解决方案。

HPC 创新亮点:

  • 英特尔超级通道互联
  • 英特尔高级矢量扩展指令集 512
  • 集成的英特尔 Omni-Path 架构 Host Fabric 接口
  • 支持英特尔傲腾固态盘和英特尔® 3D NAND 固态盘

适用于 HPC、HPDA 和人工智能的其他技术:

  • 可引导英特尔® 至强融核™ 处理器 7200 系列与其集成众核 (MIC) 架构相结合,这是处理诸如机器学习训练、模拟和可视化等高度并行工作负载的理想基础。
  • 各种高效软件工具、优化库、基础构建模块以及用于通用、高度并行计算的灵活框架可帮助简化工作流,并且协助开发人员创建代码,充分发挥用于 HPC 和人工智能的 IA 功能。
  • 针对常用 IA 深度学习框架(包括 Neon*、Caffe*、Theano*、Torch* 和 TensorFlow*)的优化为数据科学家提供了价值和性能提高。
  • 英特尔® Parallel Studio XE 2017 包括可加速 IA 上的深度学习框架的性能库,例如适用于深度神经网络的英特尔® 数学核心函数库(英特尔® MKL-DNN),以及可加快大数据分析的英特尔® 数据分析加速库(英特尔® DAAL)。

为 HPC 优化的资源
为继续通过 HPC 推动发现进入百万兆级时代,英特尔® 现代代码开发人员计划为开发人员和数据科学家提供可轻松访问的在线、面对面代码现代化技术课程,讲授的技巧包括矢量化、内存和数据布局、多线程以及多节点编程。

英特尔® 至强® 可扩展处理器


产品和性能信息

3

基准性能测试结果均在实施近期软件补丁和固件更新(旨在解决称为“幽灵”和“熔断”所造成的漏洞)之前完成。实施这些更新后,这些结果可能会不适用于您的设备或系统。

性能测试中使用的软件和工作负载可能仅可基于英特尔® 微处理器进行性能优化。性能测试(如 SYSmark* 和 MobileMark*)使用特定计算机系统、组件、软件、操作和功能进行测量。对这些因素的任何更改可能导致不同的结果。您应该查询其他信息和性能测试以帮助您对正在考虑的采购作出全面的评估,包括该产品在与其他产品结合使用时的性能。有关更多完整的信息,请访问 http://www.intel.cn/benchmarks

4

4 年估算总体拥有成本 (TCO) 最高降低 65% 的示例;根据使用 VMware ESXi* 虚拟整合工作负载的等效机架性能,对比已安装的 20 台搭载英特尔® 至强® 处理器 E5-2690(前身为“Sandy Bridge-EP”)的双插槽服务器,并使用 Guest OS RHEL* 6.4 运行 VMware ESXi* 6.0 Ga;总成本达 919,362 美元。与之相比,5 个全新英特尔® 至强® 奔腾 8180 (Skylake) 使用 64 位 Guest OS RHEL* 6 运行 VMware ESXi* 6.0 U3 GA 的总成本为 320,879 美元(包括基本购置成本)。假设服务器价格基于当前 OEM 已发布的零售价格,可能会基于所提供系统的实际价格发生改变。

5

基于服务器虚拟化整合工作负载,虚拟机数量最多提升提升 4.2 倍:基于英特尔® 内部估算,1 个节点,Romley-EP 搭载 2 个英特尔® 至强® 处理器 E5-2690,VMware ESXi* 6.0 GA 上的总内存为 256 GB,采用 Guest OS RHEL* 6.4(glassfish3.1.2.2,postgresql9.2)。数据来源:申请号码:1718,基准性能测试:服务器虚拟化整合,得分:377.6(21 个虚拟机,得分越高,性能越佳)。与之相比,1 个节点,Wolf Pass SKX 搭载 2 个英特尔® 至强® 铂金 8180 处理器,VMware ESXi6.0 U3 GA 上的总内存为 768 GB,使用 Guest RHEL* 6 64 位操作系统。数据来源:申请号码:2563,基准性能测试:服务器虚拟化整合,得分:1580(90 个虚拟机)。越高越好。

6

Up to 5x claim based on OLTP Warehouse workload: 1-Node, 4 x Intel® Xeon® processor E7-4870 on Emerald Ridge with 512 GB Total Memory on Oracle Linux* 6.4 using Oracle 12c* running 800 warehouses. Data Source: Request Number: 56, Benchmark: HammerDB, Score: 2.46322e+006 Higher is better vs. 1-Node, 4 x Intel® Xeon® Platinum 8180 processor on Lightning Ridge SKX with 768 GB Total Memory on Red Hat Enterprise Linux* 7.3 using Oracle 12.2.0.1 (including database and grid) with 800 warehouses. Data Source: Request Number: 2542, Benchmark: HammerDB, Score: 1.2423e+007 Higher is better.

7

Up to 1.52x claim based on HammerDB*: 1-Node, 4 x Intel® Xeon® processor E7-8890 v4 on Brickland (Patsburg) with 1536 GB Total Memory on Oracle Linux* 7.1 using Oracle* 12.1.0.2.0 (including database and grid) with 800 warehouses. Data Source: Request Number: 2239, Benchmark: HammerDB, Score: 8.17145e+006 vs. 1-Node, 4 x Intel® Xeon® Platinum 8180 processor on Lightning Ridge SKX with 768 GB Total Memory on Red Hat Enterprise Linux* 7.3 using Oracle 12.2.0.1 (including database and grid) with 800 warehouses. Data Source: Request Number: 2542, Benchmark: HammerDB, Score: 1.2423e+007 Higher is better.

8

Up to 1.5x more VMs based on virtualization consolidation workload : 1-Node, 2 x Intel® Xeon® processor E5-2699 v4 on Grantley-EP (Wellsburg) with 512 GB Total Memory on VMware ESXi* 6.0 Update 1 using Guest VM’s utilize RHEL 6 64bit OS. Data Source: Request Number: 1637, Benchmark: server virtualization workload, Score: 1034 @ 58 vs. 1-Node, 2 x Intel® Xeon® Platinum 8180 processor on Wolf Pass SKX with 768 GB Total Memory on VMware ESXi6.0 U3 GA using Guest VM’s utilize RHEL 6 64bit OS. Data Source: Request Number: 2563, Benchmark: server virtualization workload, Score: 1580 @ 90 VMs Higher is better.

9

Up to 2.7x claim based on DPDK L3 Packet Forwarding: Intel® Xeon® E5-2650 processors 2.00GHz, 8 GT/s QPI, 20MB L3 cache, Patsburg Chipset (C0 stepping), Grizzly Pass Platform (R2216GZBPP), DDR3 1333MHz, 8 x dual rank 4GB (total 32GB), 4 memory channels per socket Configuration, 1 DIMM per channel, 6 x Intel® 82599 dual-port PCI-Express* Gen2 x8 10 Gb Ethernet NIC, 1 x Intel® 82599 dual-port Gen2 x8 I/O expansion module10 Gb Ethernet NIC, BIOS version S5500.86B.01.00.0048, Operating system: Fedora Core* 15, Kernel version: 2.6.38.4, IxNetwork* 6.0.400.22, DPDK version: FD5_1 Score: 102Gbits/s packet forwarding at 256B using cores vs. Gold 6152: Estimates based on Intel internal testing on Intel® Xeon® 6152 2.1 GHz, 2x Intel®, FM10420(RRC) Gen Dual Port 100GbE Ethernet controller (100Gbit/card) 2x Intel® XXV710 PCI Express Gen Dual Port 25GbE Ethernet controller (2x25G/card), DPDK 17.02. Score: 281 Gbits/s packet forwarding at 256B packet using cores, IO and memory on a single socket.

10

Up to 1.7x claim based on DPDK L3 Packet Forwarding: E5-2658 v4: 5 x Intel® XL710-QDA2, DPDK 16.04. Benchmark: DPDK l3fwd sample application Score: 158 Gbits/s packet forwarding at 256B packet using cores. Gold 6152: Estimates based on Intel internal testing on Intel® Xeon® 6152 2.1 GHz, 2x Intel®, FM10420(RRC) Gen Dual Port 100GbE Ethernet controller (100Gbit/card) 2x Intel® XXV710 PCI Express* Gen Dual Port 25GbE Ethernet controller (2x25G/card), DPDK 17.02. Score: 281 Gbits/s packet forwarding at 256B packet using cores, IO and memory on a single socket.

11

Up to 8.2x claim based on Intel® Distribution for LINPACK* Benchmark: 1-Node, 2 x Intel® Xeon® processor E5-2690 on Intel® Server Board S2600CP2 with 32 GB Total Memory on Red Hat Enterprise Linux* 6.0 (Santiago) kernel version 2.6.32-504.el6.x86_64 using Intel® Distribution for LINPACK Benchmark using 56000 problem size. Score: 366.0 GFLOPS/s vs. 1-Node, 2 x Intel® Xeon® Platinum 8180 processor on Purley-EP (Lewisburg) with 192 GB Total Memory on Ubuntu 17.04 using MKL 2017 Update 2. Data Source: Request Number: 2535, Benchmark: Intel® Distribution for LINPACK Benchmark, Score: 3007.8 GFLOPS/s Higher is better.

12

Up to 2.2x claim based on Intel® Distribution for LINPACK* Benchmark: 1-Node, 2 x Intel® Xeon® processor E5-2699 v4 on Grantley-EP (Wellsburg) with 64 GB Total Memory on Red Hat Enterprise Linux* 7.0 kernel 3.10.0-123 using MP_LINPACK 11.3.1 (Composer XE 2016 U1). Data Source: Request Number: 1636, Benchmark: Intel® Optimized MP LINPACK*, Score: 1446.4 GFLOPS/s vs. 1-Node, 2 x Intel® Xeon® Platinum 8180 processor on Purley-EP (Lewisburg) with 192 GB Total Memory on Ubuntu* 17.04 using MKL 2017 Update 2. Data Source: Request Number: 2535, Benchmark: Intel® Distribution for LINPACK Benchmark, Score: 3007.8 GFLOPS/s Higher is better.

13

More inter-CPU bandwidth. 10.4 GT/s on Intel® Xeon® Scalable processors vs. 9.6 GT/s on Intel® Xeon® processor E5-2600 v4 product family.

14

As measured by Intel comparing Intel® Xeon® processor Scalable family with Intel® Advanced Vector Extensions 512 (Intel® AVX-512) to an Intel® Xeon® E5 v4 processor with Intel® Advanced Vector Extensions 2 (Intel® AVX2).

15

BigBench*, Near Zero encryption overhead: BigBench query Runtime/second. Testing done by Intel.  BASELINE: Platform 8168, NODES 1 Mgmt + 6 Workers, Make Intel Corporation, Model S2600WFD, Form Factor 2U, Processor Intel® Xeon® Platinum 8168, Base Clock 2.70 GHz, Cores per socket 24, Hyper-Threading Enabled, NUMA mode Enabled, RAM 384 GB DDR4, RAM Type 12x 32 GB DDR4, OS Drive Intel® SSD DC S3710 Series (800 GB, 2.5 in SATA 6Gb/s, 20nm, MLC), Data Drives 8x – Seagate Enterprise 2.5 HDD ST2000NX0403 2 TB, Intel® SSD DC P3520 Series (2.0TB), Temp Drive DC 3520 2 TB, NIC Intel  X722 10 GBE – Dual Port, Hadoop Cloudera* 5.11, Benchmark TPCx-BB 1.2, Operating System CentOS* Linux release 7.3.1611 (Core); HDFS encryp-tion turned OFF. vs. NEW: Platform 8168, NODES 1 Mgmt + 6 Workers, Make Intel Corporation, Model S2600WFD, Form Factor 2U, Processor Intel® Xeon® Platinum 8168, Base Clock 2.70 GHz, Cores per socket 24, Hyper-Threading Enabled, NUMA mode Enabled, RAM 384 GB DDR4, RAM Type 12x 32 GB DDR4, OS Drive Intel® SSD DC S3710 Series (800 GB, 2.5 in SATA 6 Gb/s, 20nm, MLC), Data Drives 8x – Seagate Enterprise  2.5 HDD ST2000NX0403 2 TB, Intel® SSD DC P3520 Series (2.0 TB), Temp Drive DC 3520 2 TB, NIC Intel X722 10 GBE – Dual Port, Hadoop Cloudera* 5.11, Benchmark TPCx-BB 1.2, Operating System CentOS* Linux release 7.3.1611 (Core); HDFS encryption turned ON.

16

3.1x, 1.2x, 2x ISA-L configuration. Intel® Xeon® processor Scalable family: Intel® Xeon® Platinum 8180 processor, 28C, 2.5 GHz, H0, Neon City CRB, 12x16 GB DDR4 2666 MT/s ECC RDIMM, BIOS PLYCRB1.86B.0128.R08.1703242666.

Intel® Xeon® E5-2600v4 series processor, E5-2650 v4, 12C, 2.2 GHz, Aztec City CRB, 4x8 GB DDR4 2400 MT/s ECC RDIMM, BIOS GRRFCRB1.86B.0276.R02.1606020546

Operating System: Redhat Enterprise Linux* 7.3, Kernel 4.2.3, ISA-L 2.18, BIOS Configuration, P-States: Disabled, Turbo: Disabled, Speed Step: Disabled, C-States: Disabled, ENERGY_PERF_ BIAS_CFG: PERF.

17

As measured by Intel® Xeon® processor Scalable family with Intel® FPGA optimized workload and Intel® Xeon® processor Scalable family without FPGA optimized workload.

18

Up to 1.58x claim based on Ghost-NodeJS workload: 1-Node, 2 x Intel® Xeon® processor E5-2699 v4 on Wildcat Pass with 384 GB Total Memory on Ubuntu* 16.04 LTS using Node.js version 6.9.2, MySQL* Maria DB version 15.1 Distrib 10.0.30. Data Source: Request Number: 2687, Benchmark: Ghost-NodeJS, Score: 2308 Higher is better vs. 1-Node, 2 x Intel® Xeon® Platinum 8180 processor on Wolf Pass SKX with 384 GB Total Memory on Ubuntu 16.10 using Node.js version 6.9.2, MySQL Maria DB version 15.1 Distrib 10.0.30. Data Source: Request Number: 2687, Bench-mark: Ghost-NodeJS, Score: 3647 Higher is better.

19

Up to 1.77x claim based on DPDK L3 Forwarding: E5-2658 v4: 5 x Intel® XL710-QDA2, DPDK 16.04. Benchmark: DPDK l3fwd sample application. Vs. Gold 6152: Estimates based on Intel internal testing on Intel® Xeon® 6152 2.1 GHz, 2x Intel®, FM10420(RRC) Gen Dual Port 100GbE Ethernet controller (100Gbit/card) 2x Intel® XXV710 PCI Express* Gen Dual Port 25GbE Ethernet controller (2x25G/card), DPDK 17.02. Score: 281 Gbits/s packet forwarding at 256B packet using cores, IO and memory on a single socket.

20

Up to 2.5x claim based on DPDK IPSec Seg-gw benchmark: Intel® Xeon® E5-2658 v4, Intel® PCH C612, DDR4-2400 Intel® 895XCC based Quick Assist Accelerator Adapter PCIe* Gen3 x8 links, DPDK 16.11 IPSec-secgw,1420 B packet). Intel® DPDK 16.11 IPsec-secgw sample application. Cores, IO, packet buffer memory, and processing cores are on a single socket. 6 cores used on one Socket, Crypto algorithm: AES-128-CBC-HMAC-SHA1 vs. Intel® Xeon® 6152 2.1 GHz, 3x Intel® Corporation, Ethernet Controller X710 (4x10 Gbe ports per card), Lewisburg B0 Quick Assist Accel-erator with PCIe Gen3 x24 links, Intel® DPDK 17.02 IPsec-secgw,  Intel® QAT1.7.Upstream.L.1.0.0-15, 6 cores used. Cores, IO, packet buffer memory, and processing cores are on a single socket. 6 cores used on one Socket, Crypto algorithm: AES-128-CBC-HMAC-SHA1.

21

Up to 2.4x claim based on TLS Web Proxy using NGINX®: Intel® Xeon® E5-2658 v4, DDR4-2133, Intel® PCH C612, Intel® 895XCC based QuickAssist Accelerator Adapter PCIe* Gen3 x8 links, OpenSSL-Async (0.4.9-009) + NGINX-1.6.2 (0.1.0-008), QAT1.6.L.2.6.0-60. Cores, IO, packet buffer memory, and processing cores are on a single socket. 6 cores used on one Socket 12Cores are used, Crypto algorithm: AES-128-CBC-HMAC-SHA1 vs. Intel Xeon 6152 2.10 GHz, DDR4-2400 3x Intel® Corporation Ethernet Controller X710 (4 x10 Gbe ports per card), 1x Intel® Corpora-tion Ethernet Controller X710 (2 x10 Gbe ports per card), PCIe x16 to 2 x8 PCIe bifurcation plugin card, Lewisburg-L B1 QuickAssist Accelerator with PCIe Gen3 x24 links, Intel®OpenSSL-1.0.1u + NGINX-1.9.6, Intel® QAT1.7.Upstream.L.1.0.0-15. Cores, IO, packet buffer memory, and processing cores are on a single socket. 6 cores used on one Socket, 20Core are used. Crypto algorithm: AES-128-CBC-HMAC-SHA1.

22

Inference: Platform: 2S Intel® Xeon® Platinum 8180 CPU @ 2.50 GHz (28 cores), HT disabled, turbo disabled, scaling governor set to “performance” via intel_pstate driver, 384GB DDR4-2666 ECC RAM. CentOS* Linux release 7.3.1611 (Core), Linux kernel 3.10.0-514.10.2.el7.x86_64. SSD: Intel® SSD DC S3700 Series (800GB, 2.5in SATA 6Gb/s, 25nm, MLC). Performance measured with: Environment variables: KMP_AFFINITY=’granularity=fine, compact‘, OMP_NUM_THREADS=56, CPU Freq set with cpupower frequency-set -d 2.5G -u 3.8G -g performance.
Deep Learning Frameworks: Caffe: (http://github.com/intel/caffe/), revision f96b759f71b2281835f690af267158b82b150b5c. Inference measured with “caffe time --forward_only” command, training measured with “caffe time” command. For “ConvNet” topologies, dummy dataset was used. For other topologies, data was stored on local storage and cached in memory before training. Topology specs from https://github.com/intel/caffe/tree/master/models/intel_optimized_models (GoogleNet, AlexNet, and ResNet-50), https://github.com/intel/caffe/tree/master/models/default_vgg_19 (VGG-19), and https://github.com/soumith/convnet-benchmarks/tree/master/caffe/imagenet_winners (ConvNet benchmarks; files were updated to use newer Caffe prototxt format but are functionally equivalent). Intel C++ compiler ver. 17.0.2 20170213, Intel® Math Kernel Library (Intel® MKL) small libraries version 2018.0.20170425. Caffe run with “numactl l”.

23

Training: Platform: 2S Intel® Xeon® CPU E5-2697 v2 @ 2.70GHz (12 cores), HT enabled, turbo enabled, scaling governor set to “performance” via intel_pstate driver, 256GB DDR3-1600 ECC RAM. CentOS Linux release 7.3.1611 (Core), Linux kernel 3.10.0-514.21.1.el7.x86_64. SSD: Intel® SSD 520 Series 240GB, 2.5in SATA 6Gb/s, 25nm, MLC.

Performance measured with: Environment variables: KMP_AFFINITY=’granularity=fine, compact,1,0‘, OMP_NUM_THREADS=24, CPU Freq set with cpupower frequency-set -d 2.7G -u 3.5G –g performance.

Deep Learning Frameworks: Caffe: (http://github.com/intel/caffe/), revision b0ef3236528a2c7d2988f249d347d5fdae831236. Inference measured with “caffe time --forward_only” command, training measured with “caffe time” command. For “ConvNet” topologies, dummy dataset was used. For other topologies, data was stored on local storage and cached in memory before training. Topology specs from https://github.com/intel/caffe/tree/master/models/intel_optimized_models (GoogleNet, AlexNet, and ResNet-50), https://github.com/intel/caffe/tree/master/models/default_vgg_19 (VGG-19), and https://github.com/soumith/convnet-benchmarks/tree/master/caffe/imagenet_winners (ConvNet benchmarks; files were updated to use newer Caffe prototxt format but are functionally equivalent). GCC 4.8.5, Intel® Math Kernel Library (Intel® MKL) small libraries version 2017.0.2.20170110.

24

基准性能测试结果均在实施近期软件补丁和固件更新(旨在解决称为“Spectre”和“Meltdown”所造成的漏洞)之前完成。实施这些更新后,这些结果可能会不适用于您的设备或系统。

性能测试中使用的软件和工作负载可能仅可基于英特尔® 微处理器进行性能优化。SYSmark* 和 MobileMark* 等性能测试是用特定的计算机系统、组件、软件、操作和功能测试的。对这些因素的任何更改可能导致不同的结果。您应该查询其他信息和性能测试以帮助您对正在考虑的采购作出全面的评估,包括该产品在与其他产品结合使用时的性能。有关更多完整的信息,请访问 https://www.intel.cn/benchmarks

基于天气研究预报的 Geomean,收益达 1.63 倍:Conus 12Km,HOMME,LSTCLS-DYNA Explicit,INTES PERMAS V16,MILC, GROMACS water 1.5M_pme,VASPSi256,NAMDstmv, LAMMPS,Amber GB Nucleosome,二项式期权定价,毕苏期权定价模式,Monte Carlo 欧式期权。结果根据内部英特尔分析预测得出,仅用于提供信息目的。系统硬件、软件设计或配置的任何不同都可能影响实际性能。