英特尔® Tiber™ Secure Federated AI
保护敏感数据和知识产权,同时提高模型精度。
现在处于测试阶段 – 基于私人数据训练 AI 模型的一站式联邦学习服务
生成器需要多样化的真实世界数据集来创建强大而稳定的可通用 AI 模型,但隐私法规导致用户很难获取基于私人数据和敏感数据的数据集。联邦学习提供了解决方案,但该架构可能难以扩展、管理、运营和部署。
为了应对这些挑战,英特尔开发了英特尔 Tiber Secure Federated AI,这项一站式服务旨在利用联邦学习基于私人数据安全训练 AI 模型。
立即行动
保护敏感数据和知识产权,同时提高模型精度。
英特尔® Tiber™ 信任服务
详细了解整个产品组合。
联系顾问
请与英特尔公司代表交谈,讨论满足您独特需求的最佳部署。
使用案例
协作式医学研究
医疗保健提供商、医院、诊所和健康研究公司已使用 AI 和机器学习模型来分析数百万个患者数据集,以帮助更好地了解、预测和预防各种类型的疾病。
英特尔 Tiber Secure Federated AI 可用于训练 AI/ML 模型,以便多方通过将算法与数据结合来为改进模型。这有助于改善临床疗效,因为 AI 模型更加强大而稳定并且可通用,同时医院和诊所可保留对敏感患者数据的控制权。
早期药物研发
新型疗法的发现和开发过程会占用大量资源,这需要专业领域的专业知识。生成式机器学习模型已成为药物研发的强大工具,但其性能和通用性严重依赖于数据,而在不同研究机构和公司之间,数据通常无法进行共享。
整合这些数据可以实现更全面、更具代表性的数据分布,从而生成更加强大而稳定的模型。但是,由于隐私和其他法律问题、竞争压力以及技术限制,这并不可行。
英特尔 Tiber Secure Federated AI 可用于训练这些模型,而无需组合数据集。这样,公司就能够在模型训练方面进行安全协作,同时管理数据隐私顾虑。
欺诈检测
AI 和机器学习正日益用于实时检测欺诈,但许多中小型银行并不具备训练强大而稳定的检测模型所需的大量交易数据。多家银行可以将其欺诈数据集中起来共用,但由于监管原因而无法这样做。
英特尔 Tiber Secure Federated AI 可用于在多家银行之间安全训练欺诈检测模型,而无需转移数据。这有助于通过执行更精确的欺诈检测来减少损失。
常见问题解答
常见问题解答
英特尔® Tiber™ Secure Federated AI 是一项一站式服务,旨在利用联邦学习根据私人数据安全训练 AI 模型。它可帮助确保数据始终由数据所有者负责监管,而不论数据存储在何处 — 本地、公有云还是私有云。这项服务使用基于硬件的安全功能、加密方法和算法技术来帮助确保模型和数据的高级别隐私性和安全性。
联邦学习 (FL) 是一种机器学习技术,可用于在保存本地数据样本的多台分散式设备或服务器上训练 AI 模型,而无需转移数据。联邦训练不再将数据发送到中央服务器,而是在每台设备上本地进行模型训练,仅共享和聚合模型更新,以改进整体模型。这种方法日渐用于保护数据隐私和安全,帮助确保遵循数据主权法律,以及加强知识产权保护。
模型生成器需要多样化的真实世界数据集,才能创建强大而稳定的可通用 AI 模型。英特尔 Tiber Secure Federated AI 旨在通过安全的隐私保护技术来改进模型开发,帮助组织基于分布式数据协同完成模型训练。
英特尔 Tiber Secure Federated AI 允许机构利用去中心化数据来训练 AI 模型,同时保护数据安全和隐私,从而实现数据协作。这项服务采用了基于硬件的安全功能(包括机密计算以及硬件和工作负载鉴证)、加密方法和算法技术,它们专为确保模型和数据的高级别隐私和安全性而设计。
您的数据将本地存储到联邦 AI 系统内的每个数据站点或机构,数据所有者可对其敏感数据集进行全面监管,而无需集中处理数据。这种去中心化方法可帮助确保数据的安全性和隐私性,同时支持协作式模型训练和评估。
请联系英特尔代表,了解有关我们产品和测试计划的详细信息。