关于“让 AI 无处不在”的报告 3:技术决策者指南

关于“让 AI 无处不在”的报告 3:技术决策者指南

AI 战略选择

企业 AI:战略必要性

对于当今企业而言,AI 的采用就如同互联网诞生之初的应用一样势在必行。企业 AI 不仅是大势所趋,更是企业维持影响力并确保竞争优势的必要之举。随着众多 CEO 纷纷加大 AI 投资,在传统环境以外处理的数据不断增加,AI 的战略部署已成为现代企业运营的基石。这意味着要强化数据安全、加强知识产权管理,以及精心设计符合企业具体需求的 AI 场景。企业需要行动起来,目标明确并精准地采用企业 AI,充分挖掘 AI 的潜力,以把握增长和创新的机遇。

战略选择

AI 领域的多样性和复杂性决定了“万能”解决方案是不可行的。想要在 AI 方面取得成功,不能局限于数据科学,还需要从广泛的 AI 软硬件中进行合理选择。从数据处理、模型调整、训练和调优,到有效集成到业务系统以及持续监督,整个过程中需要做出许多战略决策,每一个决策对于实现 AI 从云端到边缘再到客户端的无缝功能都至关重要。

战略意图

在部署 AI 时,必须确保实施计划符合战略意图。将 AI 部署与业务目标保持一致,可确保技术不仅适合现有的运营框架,而且还能推动企业和机构向前发展。

化愿景为现实

将 AI 愿景转化为现实不仅需要初始部署,还需要坚持不懈地进行调整和完善。持续监控可确保 AI 应用保持高效、安全,并适应不断演变的业务和技术环境。从愿景到现实的这一过程涵盖了 AI 引进的核心要素:适应、学习和发展,从而达成甚至超越业务目标。

面对 AI 的复杂性,采用结合了深思熟虑的选择、契合业务目标且具备适应能力的战略方法不仅能更好地发挥 AI 的潜力,还能将远见卓识转化为切实可见的成功。

AI 决策图

在部署 AI 解决方案时,您需要在多个决策点做出明智决策,而如何做出明智选择则需要考虑相关 AI 项目的具体要求和限制因素。

1初步启动:自建 vs. 利用 vs. 购买

这一决策奠定了 AI 战略的基础,并对成本、上市时间、定制化程度和可扩展性有重要影响。

A.自行构建 AI 模型

从头开始构建新的 AI 模型。这个过程包括:

  • 定义您自己的模型架构。
  • 根据具体需求选择算法。
  • 使用您的数据训练模型;需要大量的数据准备、模型训练和验证。
     

这种方法定制化程度高,但需要耗费大量的时间和资源,对相关人员的专业知识要求也很高。

B.利用预建模型

采用他人开发的现有 AI 模型。这个过程包括:

  • 选择一个已经创建好的模型;通常可以通过 AI 平台或开源库获取。
  • 可能需要使用您的数据对模型进行微调或再训练,以更好地满足您的具体需求,但无需从头开始开发模型架构。
     

与从头开始构建模型相比,这种方法可以加快部署速度,减少开发工作量,同时也能进行一定程度的定制。

C.购买现成解决方案

部署速度最快,前期成本较低,但定制化程度有限,各供应商提供的安全性各不相同。

■  AI 模型规模: 大型模型 vs. 敏捷模型

  • 大型 AI 模型:能够处理庞大且复杂的数据,适用于深入全面的数据分析,但需要更多资源。
  • 敏捷 AI 模型:处理速度更快,效率更高,占用空间更小,适用于需要速度、适应性和特定领域专业知识的应用。
     

■  模型可解释性: AI 决策过程的透明度

  • 透明模型:决策可理解且可解释的 AI 模型。
  • 黑盒模型:决策复杂、不易解释的 AI 模型。
     

■  学习方法: AI 模型训练方法

  • 监督学习:使用标记数据训练 AI 模型。
  • 无监督学习:使用未标记的数据训练 AI 模型。
     

2.公开性:可见 vs. 隐藏

向终端用户和生态系统开放 AI 系统会产生一定后果。成功的关键在于,要综合考虑前端响应速度与后端算力和安全性。
 

  • 推理速度和时延:重点关注 AI 系统中面向用户的元素。这一决策的核心是优化 AI 系统,实现快速响应和低时延,这对实时交互至关重要。
  • 高负载下的可扩展性和性能:重点关注 AI 系统后端的计算问题。这需要能够应对用户负载波动,确保性能稳定和可扩展性。
     

用户交互:用户与 AI 的交互程度

  • 自主系统:仅需极少的人工输入即可运行 AI。
  • 辅助系统:需在人工指导下运行 AI。
     

网络依赖性:AI 对网络连接的依赖性

  • 联网 AI需要持续的网络连接。
  • 离线 AI无需网络连接即可运行。
     

3.工作负载管理:纯 AI vs. 混合

AI 工作负载管理涉及确定 AI 任务与传统计算任务之间的恰当组合。例如,大多数新一代视频会议工具都将实时 AI 转录与标准视频会议功能相结合。此类混合工作负载需要将 AI 和非 AI 组件无缝集成,以确保系统响应快速、准确无误,同时不影响主要应用的关键功能。

 

  • AI 工作负载:仅专注于 AI 任务,需要特定的资源分配。这可能导致 AI 任务的性能较高,但灵活性较低。
  • 混合工作负载:平衡了性能和灵活性,有利于企业将 AI 应用到更广泛的运营中。
     

集成

  • RAG 技术让企业能够利用其专有数据和业务模式,针对具体业务安全地生成 GenAI 结果,并且无需与第三方大型基础模型共享数据,因此能够让企业更好地保护数据安全。
     

4.数据处理:实时 vs. 批量

确定 AI 系统处理数据的方式(实时或定时批处理)至关重要。这一决策会影响性能、资源分配和成本。

 

  • 实时处理:收到数据后立即处理。这需要功能强大、能够连续运行的系统,因此成本较高,但可提供即时数据处理,非常适合欺诈检测等应用。
  • 批处理:定时处理大批量数据。在定期处理大量数据方面更具成本效益。与实时处理相比速度较慢,但处理数据分析和报告生成等任务时效率较高。
     

更新频率:AI 模型的更新频率

  • 低频率:很少更新的静态模型。
  • 高频率:根据相关性定期。
     

5.计算:集中式 vs. 边缘

这一决策的关键是数据处理和分析的位置。
 

  • 集中式计算:通常在数据中心集中处理数据。提供高算力,适合复杂的 AI 任务,但时延和能耗较高。
  • 边缘计算:在靠近数据源的位置本地处理数据。时延和能耗较低,适合本地实时处理。与集中式系统相比,算力有限。更新的动态模型。
     

AI 视觉推理: AI 处理时包含视觉数据处理

  • 包含视觉推理:AI 分析和解读视觉数据。
  • 不包含视觉推理:AI 关注非视觉数据形式。
     

6.托管:云端 vs. 本地

AI 训练和计算策略制定完成后,就需要决定托管位置。

 

  • 云端 AI将 AI 托管于云平台,可实现可扩展性和灵活性。其特点是初始成本较低,各供应商提供的安全性各不相同。但这种方法需要持续的运营支出。
  • 本地 AI本地托管 AI 可以加强控制和安全性。这需要较高的前期投资,但可提供可预测的长期成本,还能更好地控制数据安全和隐私。
     

能效:在 AI 性能与功耗之间取得平衡

  • 能效型的系统:优先考虑节能,但可能会降低性能。
  • 能源密集型系统:最大限度地提高算力,但代价往往是能耗更高

AI 管线

AI 项目可划分为三大支柱:数据、模型和推理。这个框架非常有用,对许多 AI 应用均适用。无论具体应用场景如何,这种方法都为深入理解和有效管理复杂的 AI 系统提供了明确且系统化的途径。

以下是这三大支柱的重要意义:

这一支柱是 AI 系统的基础。AI 需要数据来学习,方能高效运作。数据类型因应用而异,可包含图像、文本、传感器读数等。

AI 模型是否成功很大程度上取决于这些数据的质量、多样性、体量和相关性。无论是训练用于图像识别的神经网络,还是将文本输入大语言模型 (LLM),数据都决定了 AI 系统的学习内容以及表现如何。

模型是一种计算结构,能够处理数据并从中学习。这可以是各种神经网络架构或其他机器学习模型,可根据具体任务要求定制。

例如,卷积神经网络通常用于图像处理,而 GPT-4 等 LLM 则使用 Transformer 架构来处理文本。模型是 AI 系统实现智能的核心,能够学习模式、进行预测并推动决策过程。

在这一阶段,经过训练的模型将根据未见过的新数据进行预测或决策。这实质上是模型的运行阶段,模型将其所学的能力付诸于实际应用。

对于 LLM,推理是指模型根据提示生成文本的过程。对于其他 AI 应用,推理可能涉及识别图像中的物体、语音转文本、预测市场趋势、控制机械臂或向消费者推荐产品。

阶段一:数据

AI 需要数据来学习,方能高效运作。数据类型因应用而异,可包含图像、文本、传感器读数等。AI 模型是否成功很大程度上取决于这些数据的质量、多样性、体量和相关性。无论是训练用于图像识别的神经网络,还是将文本输入大语言模型 (LLM),数据都决定了 AI 系统的学习内容以及表现如何。

数据转型之旅

企业产生的大量数据中,仅有极少部分是结构化数据,这些数据存放在数据库中,条理清晰,易于搜索。而大量数据是非结构化的视频和音频数据、文本文档、电子邮件和即时消息。

 

  • 数据扩充:为数据添加规则和标签,以便智能系统能够使用。与数据本身一样,元数据对 AI 应用场景非常重要。
  • 多样性:从多种来源收集数据,以避免偏差。这将为数据分析提供更好、更全面的信息。
  • 准确性:应检查数据以确保其准确性。这样可以避免重复出现常见错误模式。
  • 合理管理:必须按照明确的道德标准处理数据。
  • 安全性:确保重要数据的安全性和隐私性。利用智能技术管理数据,以避免数据泄露或数据混淆。

为确保符合这五项原则,可将数据阶段分为以下几项子任务。

 

  • 数据收集:从数据库、传感器或在线平台等不同来源收集相关数据的过程。
  • 数据摄取:将收集到的数据整合到存储解决方案中,以便进行访问和处理。
  • 数据分析:仔细检查数据,了解数据模式、关系、异常或趋势,以指导业务决策或科学研究。
  • 数据验证:根据验证规则检查数据的准确性和一致性,确保数据适于使用。
  • 数据打标:为数据样本指定标签或标记。这对监督学习非常重要,根据未打标的新数据进行结果预测时可用已打标的数据作为参考。
  • 数据清洗:通过纠正错误、删除重复数据和处理缺失值来完善数据,以确保数据质量。
  • 数据准备:通过格式化和整理对数据进行预处理,以便进行数据分析。其中可能包括数据的归一化、聚合和结构化。
  • 数据转换:转换数据格式、结构或数值,以满足下游处理或分析任务的要求。

探索理想路径,提高处理能力
英特尔® 至强® 可扩展处理器和搭载英特尔® 酷睿™ Ultra 处理器的 AI PC 提供强大的处理能力,内置加速器非常适合处理各种通用任务,涵盖数据工作负载中的所有子阶段。

AI 工作负载:数据

许多公司可能缺乏实现 AI 目标所需的必要数据,即使是可用的数据也往往有待转换。为了成功引入 AI,当前需要您重新审视公司数据状况。

阶段二:模型

模型是 AI 系统实现智能的核心,能够学习模式、进行预测并推动决策过程。模型是一种计算结构,能够处理数据并从中学习。

参数难题

AI 模型的规模各不相同,这是由其包含的参数量决定的。大规模基础语言模型 (Foundation Language Model) 虽然功能强大,但往往超出了典型应用的需求和能力,因此行业转向了规模较小的敏捷 AI 模型。寻求更高应用开发和 AI 与业务整合效率及针对性已成为日益增长的市场需求,而敏捷模型能够更好地满足这类需求。

单一的解决方案无法满足所有的 AI 训练处理需求。对于大型模型,可以采用专用的 AI 解决方案,如专为大规模时延敏感型工作负载设计的英特尔® Gaudi® AI 深度学习加速器。也可以利用内置 AI 加速器的英特尔® 至强® 可扩展处理器,其性能非常出色,可运行众多 AI 模型。

这一阶段共有 6 个子阶段:

  1. 特征创建:从原始数据中识别并构建新特征,以提高模型性能。
  2. 模型选择:根据问题和数据的性质选择合适的机器学习算法。
  3. 模型训练:通过调整模型参数以适应训练数据集,使模型从数据中学习。
  4. 模型验证:用未见过的数据测试微调后的模型,以确保其泛化良好且性能稳定。
  5. 模型调优:系统地调整模型的超参数,以完善其预测并提高在验证集上的准确性。
  6. 模型评估:用单独的数据集衡量模型性能,确保其学习效果符合预期。

探索理想路径,提高处理能力
英特尔® 至强® 可扩展处理器配备内置加速器,可加快机器学习模型的训练速度,尤其是数据集包含多达 100 亿参数的模型。英特尔® Gaudi® 是一款经济高效、性能出色的训练、微调和推理加速器,也是替代同类 GPU 的理想选择。

AI 工作负载:模型

业界普遍非常重视扩大 AI 模型的规模。然而,规模较小的模型同样很有价值,因为敏捷模型的训练、微调和部署更加快速。您在模型方面的偏好将影响到性能、资源分配和成本。

阶段三:部署

这一阶段是利用开发运维方法将开发与生产衔接起来,对模型的推理能力进行实际部署。模型已准备就绪,可解读新数据并运行模型,在实际环境中提供实时预测和决策。

推理

推理是模型应用的最后一个关键阶段。此时模型可以处理未见过的新数据,并提供预测或洞察。

推理主要分为两种类型:高峰推理和主流推理,前者针对大型、复杂的问题,后者则适用于较为简单的日常任务。关键目标是提高模型的速度和准确性,确保其在各种场景下都能高效运行。

扩展

扩展对于模型在生产中高效处理大规模请求和数据非常重要,可通过优化代码、升级硬件或利用云服务来实现。

这一阶段共有 6 个子阶段:

  1. 模型优化:在部署前完善模型,以提高性能和效率。
  2. 模型打包:将模型打包为可部署的格式,同时考虑依赖性和环境一致性。
  3. 端点配置:为模型配置必要的端点,以便在部署时接收输入和发送输出。
  4. 模型投入使用:将模型投入可接收输入数据的生产环境中。
  5. 推理:已部署的模型通过有效应用所学数据处理新数据,以生成预测或洞察。
  6. 性能监控:持续跟踪已部署的模型,确保其长期保持性能标准。

探索理想路径,提高处理能力
英特尔® 至强® 可扩展处理器配备内置加速器,非常适合大多数推理场景,包括支持企业级检索增强生成 (RAG) 模型。
英特尔® Gaudi® AI 深度学习处理器是大规模、时延敏感型推理工作负载(如 LLM)的理想选择。英特尔® Gaudi® 的架构专为满足这些需求而设计,具有出色的性能和可扩展性。
英特尔® 至强® 和英特尔® Gaudi® 配合使用,有助于为您的 AI 部署在灵活性和性能方面提供优化,满足广泛多样的推理需求。

AI 工作负载:部署

AI 系统对前端和后端性能都有影响。成功的关键在于,在前端响应速度与后端算力和安全性之间取得平衡,特别是要考虑推理对于高效处理新数据的作用。

英特尔® AI 堆栈在企业中的应用

针对合适的任务选择合适的解决方案

英特尔走在行业前列,致力为企业提供全方位的云边协同技术。为了实现 AI 愿景,企业需要借助多样化的软硬件产品。

我们的战略远大,但也很简单:我们要将 AI 算力融入我们所有技术当中。从 AI PC 和动态边缘到强大的数据中心和覆盖广泛的云端,我们的异构架构可在企业的每个触点支持 AI。我们拥有英特尔® 至强® 和英特尔® 酷睿™ Ultra 处理器,以及英特尔® Gaudi® AI 加速器和英特尔锐炫™ 独立显卡等优秀产品,能够提供具有竞争力、高性能和开放标准的解决方案。我们的产品使企业能够大规模部署 AI,灵活而精准地满足各种工作负载和用例的需求。

欢迎访问 www.Intel.cn/AI,携手英特尔,共启 AI 之旅