什么是主权 AI?
主权 AI 代表着从租用 AI 到拥有 AI 的转变。这意味着拥有技术、将数据保留在本地,并确保您的 AI 系统能够体现您的价值观和法律要求。
主权 AI 是数字主权的一种实现形式,旨在通过消除对外部服务提供商的依赖,实现 AI 功能的去中心化。借助开源模型和本地基础架构,主权 AI 构建了一个将 AI 视为本地拥有和运营的公共事业的框架。
具体而言,主权 AI 是指独立拥有和运营的物理和数据基础架构。这包括 AI 加速器(例如图形处理单元(GPU))、大语言模型(LLM),以及在本地托管它们的推理服务器。这种架构可确保从训练到推理的整个 AI 生命周期,都处于特定司法管辖范围之内。
为什么要构建主权 AI 系统?
随着 AI 日益融入我们的日常生活以及维系社会秩序的各类系统中,关于 AI 如何运作以及由谁掌控的讨论变得愈发重要。
也许构建主权 AI 系统的最大动机在于消除风险。主权 AI 提供了所需的架构,可将有价值的数据保留在合法的安全区域内,只有您才能制定规则并控制输出结果。其他原因包括:
隐私: 将数据发送到其他国家/地区的云,这可能会违反当地隐私法律,并导致信息泄露或被窃取。为防止这种情况,一些政府要求 AI 在其境内处理数据。主权 AI 将数据保留在本地,这有助于保护隐私。
技术独立性:拥有自己的主权 AI 基础架构,这可以构建一道安全屏障,即便出现地缘政治格局变动或服务条款变更,也能确保您的技术正常运行。这有助于各个国家/地区从技术消费者转变为技术创造者,甚至成为技术出口方。
经济增长:借助主权 AI,各个国家/地区可以将就业机会和利润留在当地。当一个国家拥有“AI 工厂”(或数据中心)和模型时,在 AI 方面花费的金钱便会留存在本地经济体系中循环。
国家安全: 随着军事系统越来越多地使用 AI,政府希望确保国家安全不依赖于外国技术。建立主权 AI 系统的国家/地区可以更安全、更私密地访问不会危及国家安全的数据。
- 文化认同:一些最主流的 AI 模型是由美国企业开发的。这意味着来自美国的模型是根据西方内容和价值观进行训练的,这可能会在其他文化中造成偏见和误解。借助主权 AI,各国能够使用基于本地语言、文化和语境的数据进行训练。
实施 AI 技术的 4 个关键注意事项
主权 AI 系统的组成部分
构建和维护主权 AI,绝非遵循一份一成不变的检查清单,它是一个包含诸多变动环节的动态体系。这需要掌控和理解从实验到生产阶段的所有环节。可以将主权 AI 系统的各个组成部分想象成一块千层蛋糕,每叠加一层,系统的自主性或主权性就增强一分。这些层级有时被称为 AI 堆栈,它们的主权程度呈光谱状分布,需审视以下方面:
硬件:谁拥有芯片和数据中心?
数据: 谁拥有并提供用于训练和优化 AI 的数据?
模型: AI 使用的算法归谁所有?
应用: 谁创建了用户界面?谁有权访问该用户界面及其采集的数据?
能源(附加层):国家或企业组织能否为自己的 AI 提供支持?
要构建主权 AI 系统,还需要提出以下问题:
- 谁构建模型?
- 模型基于哪些内容进行训练?
- 模型遵循何种价值体系?
- 模型能识别哪些语言和方言?
- 出现问题时由谁负责?
如果您决定构建一个主权系统,首先需要的是基础架构,即 AI 工厂。这些数据中心需要能够非常快速地处理、分析和生成大量数据。
借助 vLLM 和 llm-d 等优化软件,用户查询和实时数据流可以在本地进行处理,无需接触公共应用编程接口(API)。这些技术通过 PagedAttention 优化 GPU 内存使用,并允许在多个较小的 GPU 之间共享大量基础模型。这一过程被称为分布式推理,它使企业在自己现有的基础架构上托管高性能生成式人工智能(生成式 AI),在经济和技术层面变得可行。如此一来,企业便无需再租用昂贵且缺乏主权的云 API。
接下来,您需要组建一支专业团队。您需要一个专门的团队来制定规则、创建系统和审核输出。团队中应包括工程师、数据科学家、法律顾问和研究人员。您还需要与政府官员协作,共同制定监管框架。这意味着要为 AI 开发和部署制定指导方针,且最佳实践应聚焦于可解释性、透明度、数据保护及网络安全等问题。
即便最终目标是拥有主权,您在起步阶段可能仍需要帮助。因此,您需要考虑与其他国家/地区的实体开展合作,以整合资源和专业知识。这些合作伙伴关系还有助于制定关于 AI 使用的全球标准,并促进跨境数据流动。
什么是机密推理?
机密推理是让主权目标得以落地的技术。它可以帮助国家和企业组织从“希望数据安全”转变为“确信数据安全”。
机密推理是一种硬件级安全防护机制,用于在 AI 分析数据时对数据进行加密。这既可以保障数据的私密性,又能确保云提供商无法查看您的数据。在此过程中,无论数据在网络中传输还是到达服务器时,始终处于加密状态(不可读取)。
数据到达中央处理单元(CPU)或 GPU 后,会被临时解密。但是,数据依然保持私密状态,因为它进入了硬件(CPU 或 GPU)内部的物理区域,即可信执行环境(TEE)。芯片内的这一安全隔离区内划出了一块独立的电路区域,使得计算机的其他部分无法访问。它本质上是一道物理隐私屏障。
在推理阶段,数据处于解密状态(但仍受保护)。当数据通过云服务器传输时,它会再次被加密;当数据到达您的设备时,则会再次被解密。
如何实现主权 AI
要摆脱对外国基础架构的依赖,达到主权自主的状态,实体必须掌控 AI 堆栈中的四大关键组成部分:
数据主权:数据主权是指对数据收集、分类、处理及存储方式保持控制权,以满足数据法规的要求。敏感数据必须存储在物理上位于主权边界内的存储设备中,从而仅受当地法律的约束。
在主权 AI 的背景下,数据主权影响着训练、推理和权重。这意味着用于训练 AI 的数据归您所有。当用户提出问题时,数据不会传输至国外数据中心,而是在本地进行处理。最后,主权 AI 领域内的数据主权确保了决定 AI 如何“思考”的操作手册归您所有,且由您定制。
技术主权:技术主权是指拥有(并能够验证)您的 AI 堆栈的蓝图。AI 不仅仅是一个软件,它更像是一个包含一长串“原料”的食谱。在构建 AI 堆栈时,您会使用来自不同供应商的“原料”。技术主权要求建立透明的监管链,以追踪构成 AI 系统的每一种“原料”。这种用以追溯的书面记录也被称为软件物料清单(SBOM)或 AI 物料清单(AIBOM)。它相当于您正在使用的技术的完整清单,并能帮助您对系统进行审计,以确保其健康运行。
试想一下:您是一位将记账工作外包出去的企业主。您将财务记录交由第三方企业处理,并对他们的工作寄予信任。一年后,您接受了审计。您发现记账员没有保留任何收据,账目也对不上。
技术主权就好比决定将会计工作留在内部处理。您在自己的计算机上使用自有软件,并要求每笔账目都有电子收据。当审计员上门时,您可以向他们提交一个带有时间戳的文件夹,里面包含所有收据,以及接触过这些文件的所有人的日志记录。
运营主权:运营主权关乎由谁来运营您的系统。它要求拥有完整的管理控制权、自给自足能力(依靠国内人才)以及“紧急关闭”防御机制。这意味着您不必担心外国实体会远程禁用或更改您的 AI 设置。简而言之,运营主权意味着您独立运营自己的技术。
试想一下:印度的一家银行使用了一套来自美国的 AI 系统。这个来自美国的 AI 系统推出了一项软件更新,导致 AI 处理数据和运行的方式出现了偏差。这开始给用户带来问题,突然之间,客户无法访问自己的账户。该银行无法请当地工程师来解决问题,只能拨打客户服务电话寻求运营帮助。
保障主权:保障主权是指能够独立验证并确保数字系统及流程的完整性、安全性与可靠性。换句话说,就是要确保您的 AI 言行一致。保障主权侧重于持续的系统审计,并采用您的衡量标准(而非制造商或提供商提供的标准)进行独立验证。
如果没有保障主权,您拥有和运行的系统可能会产生幻觉或不按您希望的方式运行。有了保障主权,您就能确保系统逻辑符合您的标准和期望。如果系统运行异常,您可以打开系统并诊断问题。
有了保障主权,您还可以生成关于 AI 行为的“审计就绪”证据,这对于确保监管合规性至关重要。Feast 等开源工具可将不同来源的数据整合到一个有序的系统中,并提供溯源记录。这意味着,如果监管机构询问您的 AI 为何拒绝贷款,您可以指出用于做出该决策的具体数据版本。
进一步了解 Feast
主权 AI 和开源
开源提供了创建主权 AI 所需的蓝图和工具。如果没有开源模型,只有少数财力雄厚的企业才有资源构建 AI,这将迫使其他所有企业只能租用技术,而无法自行构建。
毕竟,创建主权 AI 的最大障碍之一,便是从头开始训练模型和系统的成本。借助开源软件和开放权重模型,各个企业或国家可以采用基础模型并使用各自的数据对其进行微调,以满足自身需求。他们还可以使用开源代码库(例如 vLLM)来降低成本。
主权 AI 和可解释 AI
主权 AI 关乎掌控 AI 系统的权利, 而可解释 AI 则是行使这一权利的能力体现。如果您不了解一台机器的工作原理,也不明白它为何会产生特定输出,就无法对这台机器拥有主权(或控制权)。如果没有可说明性,主权 AI 就只是一个可能暗藏偏见的“黑箱”模型。
主权 AI 和代理式 AI
随着 AI 从回答问题的工具演进为能够理解上下文的系统,企业组织需要创建语义层和模型上下文协议(MCP)网关,以便 AI 代理能够安全地遍历整个企业数据资产。
如果为了提供上下文而授予 AI 访问大量信息的权限,那么对这些信息加以保护就很有必要,尤其是涉及敏感信息时。
要在主权 AI 系统内运行代理式 AI,代理、知识图谱和后端系统的训练与认证均应在该代理管辖的物理空间内进行。这样一来,它便能够使用特定于其用例的潜在私有知识进行训练,并能够访问这些知识。这种物理上的邻近性也有助于减少延迟。
以专门研究德国法律并协助制定政策决策的 AI 代理为例。如果没有主权 AI 系统,可能会出现以下问题:
- 如果使用基于全球数据或美国法律体系训练的数据集,那么在德国语境下,它可能会产生偏见或输出不完全准确的结果。
- 如果这些代理部署在外国云(而非主权云)中,则其服务提供商便能查看数据、内存和逻辑,并有可能顺势接入该连接进行监听。
- 如果代理出现失误,本地实体与国际实体可能就适用哪套职业过失法律产生分歧。
- 如果发生国际纠纷,您的代理可能会因外国服务提供商撤销了您的 API 密钥而被关闭。
主权 AI 有助于确保您的代理在您所属司法管辖区的法律框架与管辖边界内运行。在这种主权场景下,负责处理德国法律事务的德国代理可以访问德国服务器上的存档数据。它理解德国文化的细微差别,能够访问相当于德国法律学位教育水准的培训与认证资料。并使用物理存储于德国境内的德国法院判决知识图谱。
如果没有采用主权 AI 的实践方式,德国政策制定者使用的 AI 可能会在德国与其他国家/地区之间来回传输数据。它可能会使用包含全球法律信息的知识图谱。但无法获取有助于案件审理的德国法院判决。该代理接受的训练,在文化层面可能与德国立法者对其法律体系和政策的期望存在差异。
主权 AI 的优势
随着主权 AI 广泛采用,一个由专业化和本地化 AI 生态系统组成的网络将应运而生,并带来以下好处:
- 安全防护和数据保护:在医疗卫生、金融和政府等受严格监管的行业中,主权 AI 尤为重要。它有助于确保网络安全,并保护专有数据和知识产权。同时,它也为可审计的软件供应链提供支撑。借助 vLLM 和 llm-d 等工具,您可以在软件的每个部分触及敏感数据之前,对其进行验证。这会将您的安全防护机制从被动防御转变为主动验证。
摆脱对外国 AI 提供商的依赖:通过构建和使用自主研发的 AI 系统,政府和企业组织能够在面对破坏性外部因素时,保持控制力并持续运营。这些因素可能包括贸易战、监管变化、地缘政治问题或外部电力中断。
竞争优势:通过控制 AI 基础架构和模型,企业组织可以对其系统进行微调并自定义输出结果,使 AI 行为符合其文化背景和业务需求。
提升用户信任度:如果用户和客户知道自己的数据保存在本地,会感到更加安心。
可持续性和资源控制:通过控制工作负载的运行方式和位置,企业组织可以决定如何为这些工作负载提供支持。这可能意味着使用可再生能源,使运营活动与当地的环境承诺保持一致。归根结底,主权 AI 可推动企业组织或国家从依赖状态转变为赋权与独立的状态。
主权 AI 面临的挑战
主权 AI 是一条需要长期投资的战略路径。运营定制化的主权堆栈,意味着用便利性换取责任担当。这种转变可能会面临以下几项挑战:
- 法律模糊性:不同司法管辖区对法律的处理方式各有不同。企业组织必须在相互冲突的法律框架中摸索前行,以便就 AI 应如何行事做出明智的决策。这可能需要法律顾问的帮助。
变革步伐缓慢:合规与监管机构向来以行动迟缓著称。决策过程可能不会迅速推进,项目需要进行战略性管理。
成本:除了为用于处理 AI 的计算能力和基础架构付费外,企业组织还必须寻找优秀专家来实施他们希望创建的技术解决方案。他们还需要在研发方面进行投资,从而打造出能够惠及并支持用户的服务。
- 技术复杂性:要创建主权 AI 堆栈,可能需要对整体 IT 基础架构进行一些调整。具体而言,这意味着需要编写新代码并迁移现有数据。自行管理这些事务,要比使用模型即服务(MaaS)等即插即用的方案困难得多。
主权 AI 目标示例
实现主权 AI 的策略因资源可用性而异。以下是不同国家如何布局主权 AI 领域的一些示例:
设计之初即追求全面主权:中国是目前近乎完全实现主权 AI 的最突出范例。中国政府掌控着数据(通过严格的法律和对私营部门数据的访问权限)、应用(通过完全本土化的生态系统)和模型(通过国内实验室)。中国投资于本土芯片开发,但在硬件方面尚未实现完全自主。防火墙是一个国家运营的互联网审查系统,借助它,中国比任何其他国家都更接近数字主权。
私营部门占主导地位: 在美国,私营公司在几乎没有得到美国政府直接帮助的情况下,打造出了占据主导地位的 AI 系统。因此,谷歌、微软、OpenAI 和 Anthropic 主导全球 AI 发展,这本身就是一种主权体现。
监管主权: 欧盟的主权策略侧重于治理而非基础架构建设。《欧盟人工智能法案》根据风险等级对 AI 进行了分类,并规定了系统在欧盟境内运营所必须达到的标准。欧盟并未试图在基础架构和计算预算方面与美国或中国等国家匹敌,而是投资于 Mistral 等本土项目,并制定明确的法规来引导行业发展。
极简主权路径: 较小的国家接受对外国基础模型的依赖,但将时间和投资集中在针对本地语言进行微调、构建国内治理框架以及将本土数据保留在本地。这意味着投资于本地研究人员,而不是试图打造自己的 OpenAI ChatGPT 版本。新加坡的 SEA-LION 项目便是一个示例,它展现了人们如何组织本地人才,共同构建专注于东南亚社区的 LLM。
主权 AI 与 AI 主权
这两个术语有时会交替使用,很容易混淆。我们来探讨下它们之间的区别。
主权 AI 是指允许国家或实体按照自己的方式部署 AI 系统的产品、技术堆栈和工具。它关乎的是从一开始就拥有决定 AI 如何运作的权力。它强调的是能力、实力与手段。
AI 主权则更具哲学性,它探讨的是谁有权决定 AI 政策。其核心在于确保多元化的公民群体和社区对 AI 如何影响他们的生活和未来拥有切实的发言权。AI 主权将关于 AI 使用的讨论范围扩展至人权、民主、同意、文化保护及价值观等领域。
试想一下:一个国家在追求主权 AI 的过程中,可能会损害其公民的 AI 主权。一个国家可能拥有完全独立于任何其他国家运行的复杂 AI 工具,但使用这些工具的方式却未必对其公民公平或公正。
主权 AI 与 AI 主权之间也存在着明显的重叠。要创建一个主权 AI 系统,我们需要思考有关价值观和权力、问责制与代表性的问题,这些问题迫使我们考虑 AI 主权的各个方面。
什么是垄断式 AI?
垄断式或集中式 AI 是指只有少数超大规模云服务商掌控着全球智能供给的场景,即基础架构、原始数据访问权限以及塑造社会的技术。这种情况可能导致缺乏自主权的国家依赖外国势力,从而加剧地缘政治冲突。从诸多方面来看,主权 AI 正是为了防止这种情况发生而做出的努力。
主权 AI 与 MaaS
模型即服务(MaaS)是指通过付费来访问 ChatGPT 等模型的使用模式。采用 MaaS 时,如果提供商更改模型或取消您的访问权限,您将束手无策。主权 AI 旨在实现从依赖他人服务到拥有自主服务的转变。
在追求主权 AI 的过程中,了解主权程度至关重要,这有助于明确您当前所处的位置以及下一步该如何行动:
零主权: 大多数公司从这里起步,即采用 MaaS。您正在使用一个自己并不完全理解的模型,并跨境发送数据以进行处理。在此情境下,您只是一个租户,如果提供商切断服务,您的 AI 就会消失。
部分主权:这是一个中间地带:您使用开放权重模型,并将它们托管在区域基础架构上。您了解如何塑造模型的知识体系,并且拥有代码的所有权。在此情境下,您可能使用的是位于其他国家/地区的 NVIDIA 芯片或云提供商。这意味着您依赖外部硬件。
完整主权:您的 AI 在国内构建,并且在您拥有的硬件上运行。它基于本地数据进行训练,并依靠国内电力驱动运转。
主权 AI 的未来展望
主权 AI 这一概念引发了一个问题:一个国家是否会反过来塑造日益影响其社会的 AI。这是更大拼图中的一块,该拼图还包括更广泛的主权类型,例如数字主权和技术主权:
数字主权关乎数字空间的规则、权利及司法管辖权。
技术主权关乎对底层基础架构和技术的所有权与掌控力。
主权 AI 将两者相结合,并将重点放在 AI 系统上,这些系统遵循您制定的规则,基于您的基础架构构建,使用您的数据进行训练,并与您的价值观保持一致。
目前,大多数国家/地区都在数字主权或技术主权的范畴内运作。尽管大家都渴望创建主权 AI,但要实现这一目标,还需要进一步完善技术政策。
未来几年内,您可能会看到区域性或国家级 AI 系统的数量不断增加。欧盟大力推动《人工智能法案》,以及对 Mistral 等模型的投资,都印证了这一趋势,这表明欧洲希望拥有一种有别于当前美国和中国所提供的 AI 身份认同。
红帽能如何提供帮助?
红帽® AI 旨在通过 vLLM 驱动的服务器实现快速、灵活且高效的推理。它能将模型与您的数据可靠地连接起来,在单一平台上统一实现专用代理的定制与开发。我们的产品建立在开源基础之上,让您能够端到端全方位掌控任意规模的 AI 工作流。
红帽可帮助企业组织构建物理隔离(孤立)的 AI 工厂,同时保持对安全性、数据、模型及结果的掌控,从而为主权 AI 奠定坚实基础。
我们生态系统的强大之处在于它具备开放性。没有哪个供应商能够凭一己之力解决主权 AI 的挑战。红帽充当不同硬件和云之间的统一协调者,助您遵守地区法规并避免外国供应商锁定。
通过专注于透明度、上游贡献和开放标准,红帽的方法允许对整个技术堆栈进行独立验证。
Artificial Intelligence (AI)
See how our platforms free customers to run AI workloads and models anywhere