实施人工智能概念验证的 5 大步骤

采用 5 步方法成功实施针对图像识别、自然语言处理或预测性维护的概念验证(PoC)。

下载文档

简介 - 概念验证在人工智能中的作用

人工智能(AI)软件程序能够感知、推理、行动和适应。它之所以能够如此,是因为它先从大型和多样化的数据集中“学习”,然后使用学到的知识来训练数据模型。完成训练后,数据模型将部署到系统中,用于从相似、新的或不可见数据中推导出结论,例如将语音转化为文字、确认一系列图像中的异常,或是计算机械装置将在何时发生故障。图 1 显示了这一过程。

虽然人工智能算法已出现多年,但直到最近基于人工智能的能力才开始在企业中得到快速扩展。这有多方面的原因,首先,处理和存储数据的成本都已大幅下降。与此同时,计算科学家已经改进了人工智能算法设计,包括神经网络在内,使得训练模型获得了更高的准确度。

随着人工智能变得更加流行,它也大幅推动了基础设施创新。在英特尔,我们致力于将与人工智能有关的功能直接嵌入到我们的硬件之中:最新的英特尔® 至强® 可扩展处理器为广泛的人工智能工作负载提供可扩展的性能,在深度学习模型训练和推理中提供突破性的性能,英特尔® Nervana™ 神经网络处理器则采用专为神经网络构建的新型架构。

这些发展进一步加快了人工智能的普及速度,为希望做出明智决策和创建更智能流程的组织创造了大量机遇,从而提供实实在在的商业利益。2017 年,Accenture 对多个行业和地区实施调查,结果发现,人工智能可以让企业的盈利能力提高 38%,在未来 10 年内产生超过 14 万亿美元的经济影响1

图 1:人工智能系统首先学习数据,然后从中推理出结果

尽管潜力明显,但许多企业还没有开始采用人工智能,其采用速度也比不上媒体和学术机构在报告中推测的速度2。随着企业开始踏上人工智能之旅,常见的应用案例将主要与自然语言处理(NLP)、计算机视觉和预测性维护相关。下一页的表格中给出了一些客户示例。

这些应用案例中存在的深度学习和机器学习机遇包括:

垂直领域:许多企业都致力于解决其行业特有的挑战,例如制造流程和备品备件管理、零售库存管理,以及医疗行业患者的诊疗结果。

业务部门:不同行业的公司可能具有类似的需求,具体由独立的业务部门决定。例如,自然语言处理应用可用于客户服务部门,而图像识别和预测性维护则与供应链应用相关。

技术架构:即便所使用的数据池和提供的结果各不相同,但我们遇到的许多人工智能示例大多采用相似架构。例如,一位客户用来检测太阳能面板缺陷的图像处理和异常检测功能所基于的平台,可能与自然资源保护论者用于“倾听”蝙蝠行为变化所用的平台相似。

IT 相关:有些人工智能的应用可以跨应用和服务存在,因为它们涉及管理数据流、预先消除瓶颈、预测故障并对故障和违规行为快速响应。

广泛的潜在机遇会带来许多挑战——哪些机遇能够带来最好的结果?如何确保能取得成功的结果?概念验证(PoC)的作用在于:让决策者能够回答这些问题,同时最大化价值,最小化风险。

何谓概念验证?

概念验证(POC)是一种“封闭”而有效的解决方案,从了解要求一直到实现成功,可根据明确的标准对该解决方案进行评估和测量。对于任何人工智能项目或程序,概念验证让决策者能够:

• 更快收获价值   

• 获取技能和经验

• 测试硬件、软件和服务选项

• 确认和解决潜在的数据瓶颈

• 突出人工智能对 IT 基础设施和广泛业务的影响

• 提升人工智能的积极印象,提高用户的信任度

第 1 步 确认机遇

请您务必从一开始就明确了解您希望利用人工智能达到哪些效果,为何它对您的企业至关重要,以及您如何确保它能够提供所需的功能,这些非常重要。如果您尚未明确能从人工智能中获得哪些益处,您应该实施评估,看看人工智能可在哪些地方产生立竿见影的效果:

• 思考行业中的其他企业都在使用人工智能做些什么。

• 在您的企业中,看看哪些方面存在明确需要解决的问题,或哪些方面能从人工智能中获益。

• 在工作中利用现有的专业知识库,使用内部已有的技能和经验。

在确定了哪些方面能从人工智能获益后,可以根据几项标准来测试各个机遇。这项工作无需花费很长时间,而以下问题可以帮助您确认您的组织在规划方面的不足,以免仓促启动人工智能项目:

• 您是否明确知道自己想要解决的问题、其对应的具体要求,以及您将如何衡量成功?您是否考虑过或曾部署其他解决方案来解决此问题,后来因为倾向于人工智能而放弃这些解决方案?

• 是否明确限定了机遇的范围?例如,您是否能简要说明这个机遇会使用到的数据集、关键组件、将会受到影响的人员,以及其他依赖项?它是某个更大解决方案的一部分吗?

• 您是否具备让它成为现实所需的技术资源和资金?您是否能够不受技术、合同或其他因素的阻碍,直接使用您所需的数据源?

• 对业务的有利影响是否足以抵消所付出的努力?那些容易看到的成果非常重要,有利于提高用户对人工智能的信任度,让更多的利益相关者参与进来。

• 推动力和获得的支持是否足够(例如高层的支持)?受到影响的业务部门是否全力参与来解决这个问题?

• 时间安排上是否合适?是否明确指定了交付团队?这个团队是否具有足够的时间、技能和动力来完成这项工作?

• 组织是否具备更广泛的数据科学和 / 或人工智能战略?此战略是否与其目标一致?组织目前已具备哪些数据科学基础设施和专业知识?

• 概念验证成功完成之后,后续准备怎么做?是否有资金用于维护或扩展该解决方案?负责运营的 IT 部门是否获知了基本情况并准备好参与其中?

这些问题有助于考察解决方案的价值、成本和风险,并形成商业案例——尽管简单的概念验证可能并不需要编制正式文档。

如需从更广阔的视野了解人工智能就绪性,不妨阅读 The AI Readiness Model(人工智能就绪模型)

第 2 步 确定问题的特征并分析数据

在您确认和测试过机遇之后,接下来可将注意力转向了解和详细阐述待解决的问题,将其映射至更广泛的类别,例如推理、感知或计算机视觉。

组织遭遇的部分挑战,尤其对于尚处于人工智能早期阶段的组织而言,就是内部没有足够的技能。英特尔可以通过旗下的技术专家和咨询合作伙伴为广大公司提供帮助,而且还提供了培训课程。其中包括为期 12 周的机器学习和深度学习自主入门课程,旨在帮助开发人员了解如何将商业问题与相关的英特尔® 人工智能技术结合在一起。

在您的人工智能工作流程中,这也是思考更多可能会给解决方案带来影响的技术问题的绝佳时机。例如:

• 您是否倾向使用某些硬件或软件?为什么(基准测试数据、TCO、首选供应商)?

• 安全 / 监管 / 数据 / 其他方面的需求是否更倾向于选择本地系统而不是云?

• 您的解决方案是在本地自己维护,还是部署到数据中心中?

• 当前数据中心的利用率是多少?性能 - 功耗比有多重要?

• 您会按照什么频率和数量为训练 / 推理提供新数据?

• 在静态和动态情形下,如何保持原始数据和生成的洞察始终安全?

第 3 步 架构和部署解决方案

下一个问题是,如何设计和部署已通过概念验证测试的解决方案。如图 3 所示,这由一个技术栈组成,包括:

• 基础产品和系统基础设施

• 人工智能特定的软件,用于推动基础设施建设

• 起支撑作用的人工智能框架,用于为计划的解决方案提供支持

• 虚拟化技术、前端软件和 / 或硬件

在这个阶段,您可以考虑到底是构建、购买或再利用硬件和软件,还是利用云服务。在我们配套的白皮书为人工智能解决方案选择最佳基础设施策略中,我们介绍了构建、购买等选项。在许多情况下,如果客户使用的是市场领先的英特尔® 至强® 处理器,则他们在试点时可以利用现有基础设施。

即便是按照最佳实践构建和测试的基础设施和软件,仍然需要考虑人工智能的各种要求。尤其是持续提供高质量数据这一要求。数据科学家能够与 IT 系统架构师合作设计从数据中心到边缘的部署架构,并且考虑软件集成、网络连接、硬件问题和其他各方面。可能需要测试多个选项:应该采用测试加学习的方法,以便能获取更多的经验。

完成之后,您可以处理解决方案的其他人工智能相关元素——构建模型、训练和调优。

构建模型

模型构建属于人工智能的核心任务。数据科学家参与其中,使用训练数据和管理参数来实施迭代测试。这样,在他们发送模型用于更广泛的训练和调优之前,可以检查模型的初始融合准确性。

训练和调优

训练和调优是人工智能工作流程中计算密度最高的部分。在这一阶段,数据科学家需要确定在哪些参数下,模型能够基于所提供的训练数据实现最有效的融合,同时解决作业调度和基础设施管理等常见的传统 IT 问题。

这个过程非常耗费人力,数据科学家需要花费大量时间来手动整理数据并执行数百次试验。可以利用英特尔® Nervana™ Deep Learning Studio 来简化此流程,这是一款全面的软件套件,让数据科学家团队能够减少测试周期,快速开发和部署定制的企业级深度学习解决方案。

在人工智能应用中能够使用标准 CPU 吗?

虽然图形处理器有助于推动人工智能领域中的算法处理,但深度学习(DL)现在可以在基于通用 CPU 的架构中上使用。

过去,在 CPU 上执行深度学习训练需要花费相当长的时间,这是因为处理器缺乏硬件和软件优化,后者尤甚。现在,情况已经发生了变化。最新一代的英特尔® 至强® 可扩展处理器已经显著缩小了性能差距。与前一代没有优化软件的产品相比,英特尔® 至强® 可扩展处理器执行深度学习任务的性能大幅提升,训练吞吐量提升高达 127 倍3

此外,英特尔® 至强® 可扩展处理器可以有效地横向扩展,满足几乎所有的深度学习吞吐量要求。由于现在可使用 CPU 来处理很多深度学习任务,因此解决了许多组织所面临的只基于 GPU 的人工智能挑战:

• GPU 架构要求暂时将数据流水线复制到 GPU 数据存储中,之后再复制回来,这破坏了典型的数据流和处理工具链的连贯性。

• 与基于 CPU 的节点相比,要在非集群模式下,在大量基于 GPU 的节点上扩展和管理计算是非常困难的,因此难以节省训练成本。

• 可能存在内存限制,对于希望在较小的 GPU 内存空间(16 或 32GB)中处理极大量图像的组织而言,这种限制尤其明显,例如医疗服务和定位应用。

• 任何特定领域的架构都可能出现未充分利用的情况。采用通用型 CPU 之后,空闲节点可用于实施其他工作负载,且 / 或作为 IaaS 进行租赁。

越来越多的组织开始意识到 CPU 在深度学习中的优势。英特尔正与众多客户合作,其中包括 Facebook、 deepsense.ai、OpenAI、AWS、EMR、Databricks、Alibaba、Microsoft 和 Cloudera。随着 CPU 和 GPU 在人工智能性能上的差距逐渐缩小,这一名单中的成员还会增加。

关于英特尔技术如何能够为您的人工智能概念验证提供技术基础,请参阅人工智能概念验证信息图解析。

图 3:人工智能解决方案架构可以表示为堆栈

第 4 步 评估商业价值

作为解决方案设计的一部分,您需要定义概念验证的评估标准:对于工程师,这些标准可以转化成能够设计、衡量、持续自动测试的评估标准。

以下这些评估标准可用于评估商业价值:

• 准确度:解决方案提供的结果和洞察是否正确?是否可以重复?

完备性:这种解决方案是否正确使用所有数据源?

时效性:是否在需要时,按照需要提供洞察?

除此以外,无论其运行状况是否符合预期,此解决方案还需遵循其他标准:

扩展性:如果数据量或用户数量随时间不断增加,或者急剧增加,该解决方案是否能继续发挥作用?

兼容性:解决方案是否为开放的,并且能使用标准协议与第三方数据源和服务集成?

灵活性:如果数据需求或模型发生变化,解决方案能否适应不断变化的环境?

工程性:能否简单快捷地调试训练模型中的错误输出?

最后,需要根据人工智能领域广为人知的“可解释性”(即决策质量)来评估解决方案的需求。与可解释性有关的标准包括:

偏见:如何确保人工智能系统不会基于训练数据、模型或目标函数的缺点对世界存在偏见(或者对存有偏见的世界保持公正的态度)?如果其人类创造者下意识或潜意识地存有偏见呢?

公平公正:如果决策是基于人工智能系统制定的,如何确认这些决策是否公平公正?在这种环境中,公平公正意味着什么——对谁公平?

• 因果联系:该模型除了提供正确的推理之外,是否还能解释一些基础现象?

透明性:针对基于人工智能的洞察给出的解释,用户能否理解?在什么样的情况下,所发现的结果可以被质疑?

安全性:无论用户对得出结论的过程了解与否,如何增加用户对人工智能系统可靠性的信心?

第 5 步 纵向扩展概念验证

截至目前,您已经定义了问题,设计了解决方案,分析了数据且建立了模型。概念验证已成功构建、测试和部署。那接下来应该做什么呢?

积极的用户体验有利于提升用户需求,以获得更大的成功。但是,概念验证也会因此遭遇风险,成为受到过多关注的牺牲品。您可以采取一些措施,确保您的概念验证持续保持成功,为更广泛的人工智能战略提供支持:

纵向扩展推理能力。人工智能不是以线性方式扩展的——例如,从单节点配置迁移后,50 个处理器并不一定会带来 50 倍的性能。您仍然需要利用在单节点配置中采用的很多方法来测试和优化多节点配置。

纵向扩展更广泛的基础设施。为确保人工智能获得成功,您需要验证推理链路中的每一个环节。检查现有的技术平台、网络和存储,以增加可用的数据量,改善时效性和延迟。此举将最大限度减少未来遭遇瓶颈的可能性,同时最大限度提高从数据源中获得的价值。

调整和优化概念验证解决方案。随着时间推移,您会积累更多的技能,用于提升和增强您所部署的人工智能解决方案。为了获得更好的结果,您可以优化数据监管和打标签等领域的软件,也可以尝试训练和部署新模型。

横向扩展至其它业务场景。您的概念验证可能涵盖其它业务领域的应用,例如预测性维护解决方案之前被部署到制造环境的某一个区域,现在可对其实施扩展。您可以采用一组方法来管理如何在更广泛的用户群内扩展概念验证。

管理和运营规划。就本质而言,许多人工智能应用案例都要求系统实时执行推理,而不是在离线或批处理模式下执行。此外,随着时间推移,可能需要重新训练并更新模型。这些因素对服务交付提出了一些额外要求。要确保预先分配了足够的时间和技能资源,以便继续提供概念验证。

图 4:现代平台的性能优化

图 4 显示了一些有望进一步优化人工智能解决方案的方面。在英特尔,我们一直在优化广受欢迎的基于英特尔® 架构的人工智能框架,从而大幅提高性能。其中包括 Theano* 和 TensorFlow*,我们计划在未来通过英特尔® nGraph™ 编译器4支持更多的框架

此外,英特尔创建了 BigDL,将深度学习技术引入大数据。这是面向 Apache Spark* 的分布式深度学习库,可直接在现有的 Spark 或 Apache Hadoop* 集群上运行,并且允许您的开发团队编写深度学习应用(Scala 或 Python 程序)。

从小规模着手,保持可管理性

为了最大限度增加成功的几率并快速提供价值,我们建议您从小规模着手,保持可管理性,确保从一开始目标就是明确的,并且侧重于商业领域。

在英特尔,我们全心致力于帮助客户,让他们能够通过以下选项充分发挥人工智能的潜力:

解决方案——英特尔的数据科学家、技术服务和参考方案团队会开发、应用和共享人工智能解决方案,帮助您更快地完成从数据到洞察的这一旅程。

平台——英特尔提供多种一站式、全栈式且用户友好的系统,这些系统可以快速部署,从而加快人工智能创新的速度。

工具——英特尔的人工智能软件套件包括可提高效率的工具,让数据科学家和开发人员能够缩短深度学习创新周期。

框架——英特尔正在优化广泛流行的深度学习开源社区框架,从而在广泛的处理器平台上实现最高性能。

——英特尔通过优化原语和创建英特尔® nGraph™ 编译器来加快人工智能应用的速度,使得框架能够以峰值性能使用任何目标硬件。

硬件——英特尔全面的硬件产品组合可满足从数据中心至网络边缘的各种需求,并且适合当前所有的人工智能方案。

英特尔为其强大的生态系统和合作伙伴网络提供支持,通过广泛的产业合作来加快人工智能的发展。和我们的客户一样,我们也有自己的人工智能旅程,我们利用先进的研发来扩展人工智能计算的前沿范围,逐渐进入神经形态和量子计算等领域。

而且,这仅仅是个开始。

了解更多信息

• 有关更多信息,请访问:ai.intel.com

• 探索——借助英特尔的性能:经过优化的库和框架

• 参与——联系您的英特尔代表获得帮助和 POC 机遇

参考和资源

英特尔在 ai.intel.com 上发布案例研究、参考解决方案和参考架构,以便客户自行确定和构建类似的人工智能解决方案。

有关可解释人工智能技术的挑战和机遇,请访问:https://ai.intel.com/the-challenges-and-opportunities-of-explainable-ai/

零售业的未来在于人工智能:https://ai.intel.com/future-retail-artificial-intelligence

英特尔® AI Academy——学习基础知识:https://software.intel.com/zh-cn/ai-academy/basics

Loihi——英特尔的新款自学芯片有望加快人工智能的步伐:https://newsroom.intel.com/editorials/intels-new-self-learning-chip-promises-accelerate-artificial-intelligence/

人工智能领域的开发人员如何起步,Singh,Niven:https://software.intel.com/zh-cn/articles/how-to-get-started-as-a-developer-in-ai

您的理财和银行业务人工智能个人助理:https://www.intel.cn/content/www/cn/zh/analytics/artificial-intelligence/ai-personal-assistant.html

预测分析有助于降低机器维护成本:https://www.intel.cn/content/www/cn/zh/big-data/intel-sap-telekom-predictive-analytics-paper.html

英特尔技术特性和优势取决于系统配置,并可能需要支持的硬件、软件或服务得以激活。产品性能会基于系统配置有所变化。没有计算机系统是绝对 安全的。更多信息,请见 intel.cn,或从原始设备制造商或零售商处获得更多信息。 性能测试中使用的软件和工作负荷可能仅在英特尔微处理器上进行了性能优化。诸如 SYSmark 和 MobileMark 等测试均系基于特定计算机系统、硬件、软件、操作系统及功能。上述任何要素的变动都有可能导致测试结果的变化。请参考其他信息及性能测试(包括结合其他产品使用时的运行性能)以对目标产品进行全面评估。有关更多完整信息,请访问 www.intel.cn/content/www/cn/zh/benchmarks/benchmark.html

预估结果在实施近期针对“Spectre”和“Meltdown”漏洞的软件补丁和固件更新之前测得。实施更新后,这些结果可能不再适用于您的设备或系统。 此处提供的所有信息可在不通知的情况下随时发生变更。关于英特尔最新的产品规格和路线图,请联系您的英特尔代表。 英特尔、至强、Nervana、nGraph、英特尔标识是英特尔公司在美国和 / 或其他国家的商标。

* 其他的名称和品牌可能是其他所有者的资产。

 

人工智能,从至强® 开始

人工智能 (AI) 可以帮助您的企业将数据价值发挥到极致。快来一探究竟,看运行在 CPU 架构上的 AI 如何为您做得更多。

了解更多

如何开始人工智能之旅: 技术路径不只一条,您的选择也不只一个

在 AI 之旅的起点上,无论是传统推理、机器学习、深度学习,亦或是它们的融合,都是可选项。

了解更多

如何开始人工智能之旅: 改弦更张不合算,别忽视既有平台

无论是在机房,还是选择公有云服务,企业要充分评估既有的数据存储、处理和分析平台,基于或借助它构建和部署符合自身需求的 AI 应用。

了解更多

如何开始人工智能之旅: 你已拥有 “原力”,只待释放潜能

企业既有 IT 基础设施在 AI 应用上的潜能很强,随着 CPU 在流行深度学习框架上的持续优化和提供更多的软件工具,只需对它稍做升级,即可充分释放潜能。

了解更多

产品和性能信息

3使用 FP32 Batch Size Caffe GoogleNet v1 256 AlexNet 256 实施推理。性能预估值在实施近期针对“Spectre”和“Meltdown”漏洞的软件补丁和固件更新之前测得。实施更新后,这些结果可能不再适用于您的设备或系统。性能测试中使用的软件和工作负荷可能仅在英特尔微处理器上进行了性能优化。诸如 SYSmark 和 MobileMark 等测试均系基于特定计算机系统、硬件、软件、操作系统及功能。上述任何要素的变动都有可能导致测试结果的变化。请参考其他信息及性能测试(包括结合其他产品使用时的运行性能)以对目标产品进行全面评估。有关更多完整信息,请访问 https://www.intel.cn/content/www/cn/zh/benchmarks/intel-product-performance.html 来源:英特尔截至 2017 年 6 月的测量结果。优化声明:英特尔编译器针对英特尔微处理器的优化程度可能与针对非英特尔微处理器的优化程度不同。这些优化包括 SSE2,SSE3 和 SSSE3 指令集以及其它优化。对于非英特尔微处理器上的任何优化是否存在、其功能或效力,英特尔不做任何保证。本产品中取决于微处理器的优化是针对英特尔微处理器。不具体针对英特尔微架构的特定优化为英特尔微处理器保留。请参考适用的产品用户与参考指南,获取有关本声明中具体指令集的更多信息。推理吞吐量的配置:处理器:双路英特尔(R)至强(R)铂金 8180 CPU,2.50GHz / 28 核,启用超线程技术,启用睿频,总内存 376.46GB(12 插槽 / 32 GB /2666 MHz)。CentOS Linux-7.3.1611-Core,固态盘 sda RS3WC080 HDD 744.1GB,sdb RS3WC080 HDD 1.5TB,sdc RS3WC080 HDD 5.5TB,深度学习框架 caffe 版本:f6d01efbe93f70726ea3796a4b89c612365a6341  拓扑:googlenet_v1 BIOS:SE5C620.86B.00.01.0004.071220170215MKLDNN:版本:ae00102be506ed0fe2099c6557df2aa88ad57ec1 NoDataLayer。测量结果:1190 张图像 / 秒;对比平台配置:双路英特尔® 至强® CPU E5-2699 v3(2.30GHz,18 核),启用超线程(HT),启用睿频,通过 intel_pstate 驱动程序将扩展调节器设定为“performance”,256GB DDR4-2133 ECC RAM。CentOS Linux 版本 7.3.1611(Core),Linux 内核 3.10.0-514.el7.x86_64。操作系统驱动器:Seagate* Enterprise ST2000NX0253 2 TB 2.5 英寸内置硬盘。性能评测标准基于:环境变量:KMP_AFFINITY=granularity=fine, compact,1,0‘,OMP_NUM_THREADS=36,CPU 频率设置为 cpupower frequency-set -d 2.3G -u 2.3G -g performance。深度学习框架:英特尔® Caffe:(http://github.com/intel/caffe/), 修订版 b0ef3236528a2c7d2988f249d347d5fdae831236。推理能力的测量基于“caffe time --forward_only”命令,训练能力的测量基于“caffe time”命令。对于“ConvNet”拓扑,使用虚拟数据集。对于其他拓扑,数据在本地存储,并且在训练之前在内存中缓存。拓扑规范来源于 https://github.com/intel/caffe/tree/master/models/intel_optimized_models(GoogLeNet、AlexNet 和 ResNet-50)、https://github.com/intel/caffe/tree/master/models/default_vgg_19(VGG-19)和 https://github.com/soumith/convnet-benchmarks/tree/master/caffe/imagenet_winners(ConvNet 基准测试;更新文件以使用最新的 Caffe prototxt 格式,但功能等效)。GCC 4.8.5,MKLML 版本2017.0.2.20170110。BVLC-Caffe:https://github.com/BVLC/caffe,推理和训练能力的测量基于“caffe time”命令。对于“ConvNet”拓扑,使用虚拟数据集。对于其他拓扑,数据在本地存储,并且在训练之前在内存中缓存。BVLC Caffe(http://github.com/BVLC/caffe),修订版 91b09280f5233cafc62954c98ce8bc4c204e7475(提交日期 5/14/2017)。BLAS:atlas 版本 3.10.1。训练吞吐量的配置:处理器:双路英特尔(R)至强(R)铂金 8180 CPU,2.50GHz / 28 核,启用超线程技术,启用睿频,总内存 376.28GB(12 插槽 / 32 GB / 2666MHz)。CentOS Linux-7.3.1611-Core,固态盘 sda RS3WC080 HDD 744.1GB,sdb RS3WC080 HDD 1.5TB,sdc RS3WC080 HDD 5.5TB,深度学习框架 caffe 版本:f6d01efbe93f70726ea3796a4b89c612365a6341 拓扑:alexnet BIOS:SE5C620.86B.00.01.0009.101920170742MKLDNN:版本:ae00102be506ed0fe2099c6557df2aa88ad57ec1 NoDataLayer。测量结果:1023 张图像 / 秒;对比平台配置:双路英特尔® 至强® CPU E5-2699 v3(2.30GHz,18 核),启用超线程(HT),启用睿频,通过 intel_pstate 驱动程序将扩展调节器设定为“performance”,256GB DDR4-2133 ECC RAM。CentOS Linux 版本 7.3.1611(Core),Linux 内核 3.10.0-514.el7.x86_64。操作系统驱动器:Seagate* Enterprise ST2000NX0253 2 TB 2.5 英寸内置硬盘。性能评测标准基于:环境变量:KMP_AFFINITY=granularity=fine, compact,1,0‘,OMP_NUM_THREADS=36,CPU 频率设置为 cpupower frequency-set -d 2.3G -u 2.3G -g performance。深度学习框架:英特尔® Caffe:(http://github.com/intel/caffe/),修订版 b0ef3236528a2c7d2988f249d347d5fdae831236。推理能力的测 量基于“caffe time --forward_only”命令,训练能力的测量基于“caffe time”命令。对于“ConvNet”拓扑,使用虚拟数据集。对于其他拓扑,数据在本地存储,并且在训练之前在内存中缓存。拓扑规范来源于 https://github.com/intel/caffe/tree/master/models/intel_optimized_models(GoogLeNet、AlexNet 和 ResNet-50)、https://github.com/intel/caffe/tree/master/models/default_vgg_19(VGG-19) 和 https://github.com/soumith/convnet-benchmarks/tree/master/caffe/imagenet_winners(ConvNet 基准测试;更新文件以使用最新的 Caffe prototxt 格式,但功能等效)。GCC 4.8.5,MKLML 版本2017.0.2.20170110。BVLC-Caffe:https://github.com/BVLC/caffe,推理和训练能力的测量基于“caffe time”命令。对于“ConvNet”拓扑,使用虚拟数据集。对于其他拓扑,数据在本地存储,并且在训练之前在内存中缓存。BVLC Caffe(http://github.com/BVLC/caffe),修订版 91b09280f5233cafc62954c98ce8bc4c204e7475(提交日期 5/14/2017)。BLAS:atlas  版本  3.10.1.
4请注意,每个框架都采用不同程度的优化和配置协议,如需了解全部详情,请访问:ai.intel.com/framework-optimizations/