常见问题解答

常见问题解答

英特尔® Tiber™ Secure Federated AI 是一项一站式服务,旨在利用联邦学习根据私人数据安全训练 AI 模型。它可帮助确保数据始终由数据所有者负责监管,而不论数据存储在何处 — 本地、公有云还是私有云。这项服务使用基于硬件的安全功能、加密方法和算法技术来帮助确保模型和数据的高级别隐私性和安全性。

联邦学习 (FL) 是一种机器学习技术,可用于在保存本地数据样本的多台分散式设备或服务器上训练 AI 模型,而无需转移数据。联邦训练不再将数据发送到中央服务器,而是在每台设备上本地进行模型训练,仅共享和聚合模型更新,以改进整体模型。这种方法日渐用于保护数据隐私和安全,帮助确保遵循数据主权法律,以及加强知识产权保护。

英特尔 Tiber Secure Federated AI 基于英特尔作为 Linux 基金会 LF AI 和数据项目的一部分开发的开源联邦学习框架 OpenFL 而构建。OpenFL 已在保险制药医疗保健等各行业得到广泛应用,并且是唯一获准用于国际空间站的联邦学习框架。

通过提供 OpenFL 的整体实施,英特尔 Tiber Secure Federated AI 为我们的客户带来了两大关键优势:

  • 简化配置:提供用户友好的设置流程,可帮助降低构建联邦学习环境的复杂性并缩短所需时间。

  • 增强安全功能:实施旨在保护敏感数据和模型知识产权的零信任安全措施。

模型生成器需要多样化的真实世界数据集,才能创建强大而稳定的可通用 AI 模型。英特尔 Tiber Secure Federated AI 旨在通过安全的隐私保护技术来改进模型开发,帮助组织基于分布式数据协同完成模型训练。

英特尔 Tiber Secure Federated AI 允许机构利用去中心化数据来训练 AI 模型,同时保护数据安全和隐私,从而实现数据协作。这项服务采用了基于硬件的安全功能(包括机密计算以及硬件和工作负载鉴证)、加密方法和算法技术,它们专为确保模型和数据的高级别隐私和安全性而设计。

您的数据将本地存储到联邦 AI 系统内的每个数据站点或机构,数据所有者可对其敏感数据集进行全面监管,而无需集中处理数据。这种去中心化方法可帮助确保数据的安全性和隐私性,同时支持协作式模型训练和评估。

请联系英特尔代表,了解有关我们产品和测试计划的详细信息。