百度飞桨与第三代英特尔® 至强® 可扩展处理器
为深度学习产业落地打造速度与安全新支点

  • 本文介绍百度深度学习平台飞桨如何与第三代英特尔® 至强® VNNI 可扩展指令及软件防护扩展技术 SGX 结合,通过模型量化及加速帮助开发者更快更轻松地部署深度学习模型。

  • 同时通过机密计算能力帮助更多企业以安全可信的方式为深度学习模型提供更多源的数据。

author-image

作者

深度学习技术是推动人工智能时代发展的强大引擎,通过对文字、图形、声音和多媒体等数据的分析和推理推动产业向智能化迈进。然而,因为数据量庞大、技术门槛高,对很多企业而言,深度学习技术似乎高不可攀。开发者迫切希望找到深度学习模型在产业中落地的支点。

比如,大多数深度学习模型使用 32 位浮点精度 (FP32) 构建,复杂度高,模型参数量大,限制了其在一些场景和设备上进行部署,特别是在移动嵌入式设备的部署。如果能对模型进行 “瘦身”,减少存储空间的同时加快预测速度,即找到一个速度新支点,将能极大推动深度学习的落地可行性。

再者,数据是模型学习的基础,如果能突破企业自有数据瓶颈,聚合更多来源、更多维度和更高质量的数据,同时以机密计算确保数据的安全性,即找到一个安全新支点,将能释放出超乎想象的数据潜力。

针对这两点需求,百度开源深度学习平台百度飞桨结合第三代英特尔® 至强® 可扩展处理器给出了令产业开发者满意的解决方案,为深度学习技术在实际场景用落地提供了有力支撑。

关于百度飞桨

百度飞桨以百度多年的深度学习技术研究和业务应用为基础,是中国首个开源开放、技术先进、功能完备的产业级深度学习平台,集深度学习核心训练和推理框架、基础模型库、端到端开发套件和丰富的工具组件于一体。目前,飞桨已凝聚超 265 万开发者,服务企业 10 万家,基于飞桨开源深度学习平台产生了 34 万个模型 1。飞桨能助力开发者快速实现 AI 想法,快速上线 AI 业务,从而帮助越来越多的行业完成 AI 赋能,实现产业智能化升级。

2021 年 1 月,飞桨正式进入 2.0 时代,通过全新升级的 API 体系,让深度学习技术的创新和应用更简单;以成熟完备的动态图模式带来最佳编码体验;以更强大的分布式训练能力提升易用性与灵活性;并构建出更繁荣的硬件生态,实现软硬一体的深度优化。

飞桨模型落地的速度新支点:量化及加速

飞桨模型量化及加速的整体方案包括两个环节:以 PaddleSlim 产出量化的飞桨模型,然后通过 Paddle Inference 在英特尔® CPU 上部署和加速量化模型,如图一所示。

图一 . 产出量化模型并在英特尔® CPU 上部署

产出量化模型

为帮助用户快速满足模型 “瘦身” 的需求,百度飞桨提供了 PaddleSlim 深度学习模型压缩工具库,包含模型剪裁、定点量化、知识蒸馏、超参搜索和神经网络结构搜索 (NAS) 等一系列模型压缩策略。最新升级的 PaddleSlim 2.0 在静态图的基础上,还推出了动态图支持功能。

在众多瘦身方法中,量化是指用低比特数值替换 FP32 数值进行存储和计算,重点是 INT8 量化。模型量化的优点包括:减小存储空间、加快预测速度、降低能耗。PaddleSlim 支持量化训练和静态离线量化方法,可以覆盖计算机视觉 (CV) 和自然语言处理 (NLP) 模型,能产出较为准确的 scale 并统一采用对称量化方式。

通过英特尔® 技术部署和加速量化模型

在英特尔 CPU 上部署和加速百度飞桨量化模型时,关键步骤是与第三代英特尔® 至强® 可拓展处理器的内置 AI 加速技术及英特尔® oneAPI 工具包的结合。

VNNI 可扩展指令集

第三代英特尔® 至强® 可扩展处理器支持英特尔® 深度学习加速(英特尔® Deep Learning Boost,包括更新的 VNNI)技术,扩展了英特尔® 高级矢量扩展指令集 512(英特尔® AVX-512)。这一新的嵌入式加速器可将算力增加 4 倍,将内存要求降至 ¼(图二)。内存的减少和频率的提高加快了低数值精度运算的速度,最终加速 AI 和深度学习推理,适合图像分类、语音识别、语音翻译、对象检测等众多方面。

图二. 英特尔 DL Boost AVX512_VNNI VPDPBUSD 指令可通过 1 条 u8×s8→s32 指令执行 8 位乘法和 32 位累加,INT8 OP 理论算力峰值增益为 FP32 OP 的 4 倍

oneAPI

为激活 VNNI 加速功能,百度飞桨压缩量化方案广泛使用英特尔® oneAPI 工具包。英特尔® oneAPI 是一个统一的、简化的编程模型,集成了多平台下向量计算算子的 JIT (just-in-time) 代码库,使开发者在不同的架构上 (CPU、GPU 和 FPGA) 都可以方便地调用 oneAPI 算子的即时代码通用接口,而无需担心平台不兼容问题。

与百度飞桨融合及量化

借助 VNNI 扩展指令和统一编程接口 oneAPI 的支持,PaddleSlim 产出的模拟 INT8 模型可以转化成真实的 INT8 模型,并部署到第三代英特尔® 至强® 可扩展处理器上。转化部署过程中的核心步骤包括:
1.    收集微调模拟模型所得的 scale 等数据。
2.    对模型算子进行融合,如 conv+relu 算子融合并精简图。
3.    根据所支持的 oneDNN INT8 算子列表 ,结合模拟训练所得的 scale 数据,做量化/反量化算子的插入操作。
4.    最后,平台支持量化后的 INT8 模型保存,以便进行后续推理部署。

应用示例

目前,百度飞桨模型量化及加速方案已广泛应用在百度多个服务中,如百度文字识别 (OCR) 服务。百度商业化 OCR 覆盖多场景、多语种、高精度的文字检测与识别服务,适用于远程身份认证、财税报销、文档电子化等场景,旨在为企业降本增效。百度 OCR 提供稳定易用的在线 API、离线 SDK、软件部署包等多种服务。在模型量化及加速方面,百度打造了一套以量化为核心的 Slim OCR 工具,取得了显著的性能提升。鉴于百度多个 OCR 模型均以图像分类模型 ResNet50 为基础,此处以 ResNet50 为例展示性能收益。

图三. 图像分类模型 INT8 量化前后在英特尔® 至强® Platinum 8358 CPU2 单核上性能

测试结果表明,在 Full ImageNet Val 完整验证数据集上,ResNet50 INT8 推理吞吐量是 FP32 的 3.56 倍(图三)。可见,在第三代英特尔® 至强® 可扩展处理器上使用百度飞桨量化策略可让多种深度学习模型的推理速度显著提升,有效提升用户深度学习应用的工作效能。
 
飞桨模型落地的安全新支点:机密计算

通过英特尔® SGX 在飞桨中引入机密计算能力

在深度学习应用中聚合多源数据是众多企业面临的一大安全挑战,特别是在涉及敏感数据时。为此,百度飞桨实现了与百度安全计算平台 MesaTEE 的对接。MesaTEE 即内存安全可信计算环境 (Memory-safe Trusted Execution Environments),基于两大技术:内存安全的 Rust 语言及英特尔® 软件防护扩展(英特尔® Software Guard Extensions,简称英特尔® SGX)。英特尔® SGX 是基于硬件的安全解决方案,绕过操作系统和虚拟机软件层,帮助将敏感的程序代码和数据加载到指定的受 CPU 保护的内存分区 “飞地” (enclave) 里,提供更强的保护以防止其被泄露或更改。借助英特尔® SGX,MesaTEE 得以提供完善的机密深度计算能力,从而保护敏感数据。商业版 MesaTEE 基于 Apache Teaclave(以 Rust 语言开发的通用安全计算平台,目前正处在孵化阶段)开发,为厂商客户提供深度定制的商用解决方案,引入了独创的协同机密计算引擎,实现了分布式的 TEE 集群计算,让大规模的隐私数据分析及训练成为可能。

在与百度飞桨对接时,MesaTEE 的角色是协作平台和任务调度者,以 Executor 插件的形式将飞桨作为其一种任务执行环境,将特定的深度学习任务投递到飞桨的 TEE 运行环境中执行。此外,MesaTEE 还支持多种 TEE 厂商产品,适配其远程证明 (Remote Attestation) 流程的正确性,并且整合至通信协议上,确保其运行环境的安全性是可度量的。在文件访问方面,支持 S3 等远程文件存储协议,文件内容全部使用密文存储。飞桨在不改变使用方式的前提下,在训练过程中在 TEE 中访问的所有数据均为密文。在 TEE 外无论从磁盘、内存或网络通信上都不存在途径可以窥查其计算内容,从而可以抵抗恶意攻击,确保整体安全性。图四显示了百度飞桨如何与 MesaTEE 联动。

图四. PaddlePaddle 与 MesaTEE 的联动

应用前景及案例

百度飞桨将深度学习平台与机密计算能力有机结合,响应了业界趋势,能够在众多领域发挥重要作用。以金融行业为例。传统以来,金融机构以简单的二维数字型数据来勾勒借贷人画像,并使用机器学习技术展开建模和分析。深度学习技术的日趋成熟为信贷风险评估开拓了全新的可能。深度学习模型能突破传统机器学习技术的局限,高效利用语音识别、图像识别等方式,将多媒体数据和流数据纳入模型,比如支付数据(第三方支付)、消费数据(零售商及电商平台)、信贷数据(第三方信贷机构),甚至是社交人脉(社交平台)、工作履历(招聘平台)、旅游出行信息(出行平台)等。

然而,从数据提供方角度而言,这些用户隐私数据敏感性很高,并且可能受到法律保护不允许流通。这导致现实场景中,金融行业数据孤岛情况非常普遍。数据的提供方、建模方、评估方和使用方之间彼此割裂。通过在 TEE 中运行的百度飞桨深度学习平台,如百度度小满一样的金融机构将得以安全地与更多数据源合作,获得更多维的用户画像数据,打造出更健壮的信贷风险评估模式。

总结

本文介绍的英特尔® 深度学习加速 VNNI 指令集及英特尔® 软件防护扩展 SGX 技术是全新推出的第三代英特尔® 至强® 可扩展处理器的核心特色,能够推动安全高性能的 AI 应用。第三代英特尔® 至强® 可扩展处理器采用具有内置加速和高级安全功能的平衡架构,通过数十年的创新设计,可满足苛刻的工作负载要求。该处理器针对云、企业应用、AI、高性能计算、网络、安全性和物联网工作负载进行了优化,具有 8 至 40 个功能强大的内核以及广泛的功能。

此外,第三代英特尔® 至强® 可扩展处理器还是唯一具有内置 AI 加速功能、端到端数据科学工具和智能解决方案生态系统的数据中心 CPU。这一强大的能力组合可在从边缘到云的每个应用程序中解锁更多数据价值。

未来,凭借上述量化技术、部署工具及与英特尔® 硬件的深度整合优化,飞桨主平台中丰富的模型资源及越来越成熟的多种应用开发套件(如 PaddleOCR、PaddleDetection 等),都将无缝地在英特尔® 平台上线,为用户提供最优的模型 + 硬件加速体验。

此外,百度飞桨的部署工具 Paddle Inference 和 Paddle Lite 等也将分别针对 OpenVINO™ 工具套件等英特尔推理加速库进行原生整合。种种持续努力将帮助深度学习框架的用户以更低门槛体验在英特尔® 硬件上的加速效果。