什么是模型即服务?

复制 URL

模型即服务(MaaS)是一种将 AI 模型作为共享资源进行交付的方式,可让企业组织内的用户按需访问。MaaS 以应用编程接口(API)端点的形式提供可直接使用的 AI 基础能力,有助于更快地规模化部署私有化 AI。 

观看红帽的 MaaS 网络培训课堂

许多企业组织都渴望借助 AI 加强竞争力,但如何有效利用私有模型却成为大多数组织难以突破的瓶颈。当前,来自 Hugging Face 等开放平台的预训练 AI 模型已日益普及。如果您拥有合适的硬件,比如大量图形处理单元(GPU),部署并运行模型似乎并非难事。但问题在于:部署并运行模型后,如何实现团队协同使用?又如何支撑规模化落地? 

要规模化部署私有 AI 模型,您需要使单个模型实例能够同时供多个用户和多个应用访问。否则,模型将仅限于创建者使用,这会造成很大的资源浪费。而这个痛点,正是 LLMOps 的用武之地。 

模型即服务支持同一企业组织的多个团队和应用共享私有模型的访问权限,同时不牺牲对数据的控制权。 

企业组织首次采用 AI 时,通常会从易于使用的工具和界面入手。但随着采用规模的扩大,重点将从少数几个模型试验转向 AI 的规模化运行。初期可能仅在生产环境中部署少数特定模型,而发展至成熟阶段时,可能会运行多种不同的类型:语言模型、图像模型、音频模型等,且通常涉及多版本迭代和多样化用例。

这意味着从“工匠式”方法(所有工作均手动完成)转变为更具“工厂化”的方法,实现模型的高效且一致的管理。

以可靠且可扩展的方式管理各个方面,正是模型即服务的价值所所在。

您无需依赖公共 AI 提供商也能探索检索增强生成(RAG)智能代理、编码助手等 AI 模式。私有 AI 模型可为这些工具提供支持,且不会影响面向最终用户的易用性。

模型即服务旨在支持使用公开可用的大语言模型(LLM),如 Mistral、Llama、DeepSeek 等。此外,它也不局限于预训练的基础模型。MaaS 可以在同一个享有全面支持的平台上提供经过微调的模型,甚至是从零构建的的预测性 AI 模型,实现多类型模型的集中管理与运行。 

在典型的 MaaS 实施中,IT 团队或 AI 平台工程团队会通过 API 端点为开发人员和业务人员等内部用户提供 AI 模型。通常,MaaS 环境构建于混合云 AI 平台之上,且配有 API 网关,以简化跨多个团队和业务的集成。MaaS 的关键组件包括:模型、可扩展的 AI 平台、AI 编排系统及 API 管理。这些环节协同运作,使模型即服务能够支撑可扩展的 AI 战略。 

观看 MaaS 演示

实施 AI 技术的 4 个关键注意事项

完善的 MaaS 解决方案可让您的 AI 集成变得更加轻松。它不仅能节省时间和成本,还能帮助您保留对 AI 战略的控制权。MaaS 具有以下特点: 

易于使用且可扩展。企业组织通常会构建私有 AI 以保留对其 AI 战略的控制权。但如果使用门槛过高,就很难获得采用。私有 AI 若想取得成功,就需要像公共 AI 服务(如 OpenAI、OpenRouter 或 Gemini)一样方便用户使用。真正的 MaaS 得满足两方面:既要面向非 AI 专家,使用门槛低,才能在组织中高效推广和扩展;又能与日常任务无缝融合,并能在整个企业组织的业务中实现规模化应用。

可追踪且可调整。掌握模型即服务的用户画像、用量数据及使用意图至关重要。这样一来,您就可以生成使用量报告(展示费用)或计费(分摊费用)。若无法追踪使用情况,就很难管理跨团队的成本、资源容量及公平性。 

透明且安全。要充分发挥私有 AI 模型的价值,企业的独有数据至关重要,同时,严格遵守管理此类数据传输范围的规定也同样关键。借助 MaaS,您可以将此模型转变为私有模型,并保留对数据的完全控制权。一定要警惕缺乏透明度的“黑盒”模型。可解释性和可追溯性有助于您了解自己的 AI 模型、提高效率并遵循合乎道德的 AI 最佳实践。

什么是企业 AI?

大语言模型即服务(LLMaaS)是 MaaS 的一种,专注于 LLM 功能,例如复杂的语言处理。  

LLM 是一种深度学习模型,能够对海量数据进行计算处理,从而实现对多种语言的理解和交互。LLM 用于生成式 AI,常被用来创建聊天机器人。大语言模型也是当今大多数现代 AI 用例的核心,如RAG代理式 AI和编码助手。 

与 LLMaaS 相比,MaaS 对技术的依赖性更低。随着新的模型类型不断出现,MaaS 也能够灵活适应。这种灵活性确保了在模型不断变化和迭代的情况下,模型的提供与访问功能依然稳定可靠。 

探索更多生成式 AI 用例

采用 MaaS 的优势在于可以掌控资源。它能够为那些缺乏预算或 AI 技能的团队提供帮助,让他们能够按照自己的方式构建、训练和部署模型。

管理基础架构和 GPU 的成本可能非常高。通过成为私有 AI 提供者,您既可以避免碎片化 AI 服务带来的复杂性,又能有效控制基础架构成本。

MaaS 的具体优势包括:

  • 更快地实现价值。MaaS 使团队得以从管理底层基础架构的工作中解放出来,专注于开发应用和解决业务问题,从而加快部署速度并促进创新。
  • 提高效率并降低成本。 借助集中式 AI 基础架构,企业组织能够基于单一数据源开展工作,而非依赖众多不同的 AI 服务。这有助于避免工作重复、费用超支以及资源管理混乱。
  • 更高效的时间管理。GPU 管理既需要专业技术人员支持,也需要充足的预算支持。借助 MaaS,您的 AI 团队可以专注于管理和服务模型等职责,而不用陷入耗时且重复的任务中。
  • 隐私保护与安全保障。作为您自己的私有 AI 提供者,您可以自行托管 AI 模型,从而避开使用面向公共的基础架构。当数据无需经由第三方处理时,不仅能更轻松地保护数据,还能依托现有安全策略,持续保障治理效能。 

您既可以使用提供商的现成的 MaaS 解决方案,也可以由公司内部的团队开发内部专属 MaaS 解决方案,然后在企业组织内进行分发和实施。 

创建满足您需求的模型服务固然很重要,但这只是自行开发过程中的首要环节。开始之前还需考量的要素包括: 

  • 数据收集流程:您将如何确保训练数据保持高质量?如何保护您的隐私数据?
  • 资源管理:谁将负责创建、构建和管理您的 MaaS 和 GPU?
  • 可靠的基础架构:您的基础架构是否能可靠支持新的 AI 模型?模型创建后,您是否有资源能从模型获益? 

在开始之前厘清这些问题,就能为成功打下坚实基础。 

MaaS 在什么情况下适合您的企业?

红帽® AI 这一 AI 产品平台筑基于深受客户信赖的红帽解决方案。红帽 AI 可帮助企业组织:

  • 快速采用 AI 并进行创新。
  • 拆解交付 AI 解决方案的复杂流程。
  • 跨混合云部署。

进一步了解红帽 AI

 

红帽 OpenShift® AI 包含在红帽 AI 中。它提供了一个灵活且经济实惠的 AI 平台,可在云端、边缘或本地为 MaaS 提供支持。 

红帽 OpenShift AI 可帮助企业组织:

  • 通过简化数据接入、模型训练、模型服务和可观测性工作流,提升跨团队协作效率。
  • 通过内置身份验证和基于角色的访问控制来提高安全性。
  • 当模型处于物理隔离且断网的环境中时,可确保私密数据的私密性。
  • 借助灵活的 API 网关,覆盖业务的每一个角落,无论是在云端还是在本地。
  • 通过全面的模型治理和 AI 防护机制,避免模型出现偏差和偏移。

探索红帽 OpenShift AI

资源

开启企业 AI 之旅:新手指南

此新手指南介绍了红帽 OpenShift AI 和红帽企业 Linux AI 如何加快您的 AI 采用之旅。

携手红帽探索 AI 之旅:为您的 AI 之旅提供专业知识、培训和支持服务

探索红帽独特的 AI 产品组合。红帽 AI 可以通过人工智能(AI)帮助您实现业务和 IT 目标。

扩展阅读

什么是分布式推理?

分布式推理通过将推理任务分配给一组互联设备,从而使 AI 模型更高效地处理工作负载。

什么是模型上下文协议(MCP)?

了解模型上下文协议(MCP)如何将 AI 应用连接到外部数据源,助您构建更加智能的工作流。

AIOps 详解

AIOps 即“面向 IT 运维的 AI”(AI for IT operations),是一种利用机器学习及其他先进 AI 技术来实现 IT 运维自动化的方法。

AI/ML 相关资源

相关文章