AI 创新步伐不断加快,随着红帽 AI 3 的推出,我们意识到,要将这种潜能转化为企业现实,需要建立一个基于选择与协作的强大开放生态系统。我们的目标始终是提供一致且强大的 AI 平台,能够支持任何模型、任何加速器并可跨混合云运行。今天,我们非常高兴地看到合作伙伴们正与我们携手共进,基于红帽平台共同打造开放混合 AI 的未来。
红帽合作伙伴生态系统是推动生成式 AI(生成式人工智能)和代理式功能的引擎,客户需要这些功能来实现广泛的市场采用。它汇聚顶尖硬件、软件与服务资源,创造出远超各部分简单相加的整体价值。
助力实现快速、灵活且高效的推理
我们之所以推出红帽 AI 3,是为了推动企业 AI 推理,扩大模型选择范围,并支持开放模型,以优化成本并提高灵活性,助力企业从训练阶段迈向“实际应用”阶段。红帽合作伙伴在实现这一目标过程中发挥着关键作用。
为了使用 vLLM 和 Kubernetes 实现大规模 AI 推理,llm-d 开源项目现已作为红帽 OpenShift AI 3.0 的一部分公开发布,该项目由领先的生成式 AI 模型提供商、AI 加速器和一流 AI 云平台联盟共同提供支持。创始贡献者包括 CoreWeave、Google Cloud、IBM 研究院和英伟达,并且 AMD、思科、Hugging Face、英特尔、Lambda 及Mistral AI 等合作伙伴也提供了支持。自今年早些时候该项目启动以来,微软、Oracle 和 WEKA 也已成为活跃贡献成员。
“作为 llm-d 社区的一员,WEKA 的 NeuralMesh、NeuralMesh Axon 和 Augmented Memory Grid 提供了推理所需的自适应、高性能数据基础,能够扩展 GPU 内存并大规模支持缓存感知型工作负载。我们很荣幸能与红帽和这个由技术领导者组成的强大生态系统携手合作,共同构建开放、高效的生产就绪型 AI 环境,帮助客户更无缝地从训练阶段扩展到推理阶段。”
随着大语言模型(LLM)成为各种生成式 AI 应用的基础,红帽推出了《合作伙伴模型验证指南》,旨在赋能合作伙伴并为客户提供更多选择。本指南概述了一个标准化的分步流程,供红帽合作伙伴对其 LLM 进行基准测试,以便纳入红帽 OpenShift AI 模型目录。
借助《合作伙伴模型验证指南》,模型提供商合作伙伴可以使用规定的开源工具链生成验证所需的数据,这些工具链包括vLLM(用于提供服务)、GuideLLM(用于进行性能基准测试)以及 LM 评估框架(用于评估准确性)。一旦提交并经我们团队验证,这些合作伙伴模型及其性能和质量指标将面向所有红帽 OpenShift AI 客户公开可用。这一举措丰富了我们的模型目录,在模型层面为客户提供了更透明的见解和指导,为构建 AI 应用提供了更广泛的一流开源模型选择,并为我们的模型提供商合作伙伴提供了市场可见性。
加速代理式 AI 部署
最终目标是将 AI 应用投入生产环境,使其创造商业价值。红帽 AI 与我们的合作伙伴生态系统相结合,为开发、部署和管理代理式 AI 提供了必要功能。 这正是我们的系统集成商和服务合作伙伴发挥关键作用的环节。红帽与 Accenture、HCL、Kyndryl、IBM Consulting、Infosys 和 NTT DATA 等全球领先企业合作,支持客户扩展这些应用并优化推理,以便在从数据中心到边缘的任何地方运行 AI。
有了坚实的基础和完善的基础架构,重点就会转移到为智能应用提供支持的工具和模型上。AI 策略的好坏与否,取决于支持该策略的数据平台、矢量数据库、安全防护工具和开发人员实用程序组成的生态系统。红帽拥有丰富多元的合作伙伴生态系统,可为构建现代 AI 工作流提供关键组件。
模型上下文协议(MCP)
随着红帽 AI 3 的推出,我们精心整合了一系列 MCP 服务器。这使得 ISV 能够将其工具和服务直接连接到红帽 AI。CyberArk、Dynatrace、Elastic、EnterpriseDB、Palo Alto Networks 等合作伙伴正在与红帽携手合作,展示他们的 MCP 服务器,帮助客户使用值得信赖的工具构建复杂的代理式应用。
“企业 AI 代理成功与否,取决于能否从企业数据中大规模获取最相关的上下文,而这需要由具备全面可组合工具的开放式 AI 生态系统提供支持。借助我们运行于红帽 OpenShift AI 上 MCP 服务器,客户能够将 Elasticsearch 上下文工程平台和矢量数据库无缝集成到他们的 AI 工作流中。”
“红帽 OpenShift AI 帮助我们强化和改进了 MCP。Dynatrace 使客户能够将实时可观测性无缝整合到他们的 AI 工作流中。我们携手合作,帮助企业组织利用可信的见解加速模型开发,自动执行异常检测,并确保 AI 应用在混合和多云环境中具备可靠性、可扩展性和安全性。”
Llama Stack
红帽与 Meta 的开源 Llama Stack 合作,为赋能红帽 AI 3 开发人员奠定了坚实基础。通过积极为这个开源项目做出贡献,红帽及其合作伙伴正助力完善一整套标准化工具,彻底革新生成式 AI 应用生命周期。这有助于确保开发人员拥有一个引人入胜、强大且灵活的环境,从而加速创建和部署创新型 AI 解决方案,为我们的合作伙伴和客户提供一条清晰的生产路径。通过降低集成各种 AI 服务和工具的复杂性,Llama Stack 使开发人员能够专注于创新,而不是基础架构挑战。
跨混合云扩展 AI
AI 加速器
为了覆盖最广泛的功能,提供丰富选择至关重要。正因如此,我们深化了与 AMD、Google Cloud 和英特尔等加速器合作伙伴的合作。
我们正与英伟达携手合作,将英伟达经过性能优化的 AI 计算、网络和软件与红帽 AI 集成,助力客户大规模构建、部署和管理 AI,并针对不同工作负载优化基础架构。红帽和英伟达持续推动 AI 基础架构扩展,支持 NVIDIA GB200 NVL72 基础架构,目标是实现大规模高端 AI 训练和推理。此外,NVIDIA RTX PRO(R) 6000 Blackwell 服务器版 GPU 支持红帽 AI、红帽 OpenShift 和红帽 OpenShift 虚拟化,可通过风冷 GPU 和服务器加速一系列企业工作负载,包括企业 AI 和 VDI 图形处理。
我们与 AMD 合作,通过在红帽 AI 上支持 AMD 基于 x86 的处理器和 GPU 产品组合,助力实现更高效的生成式 AI。这一进展得益于我们在 vLLM 和 llm-d 等上游社区的技术激活成果,实现了性能提升与 GPU 支持强化。
此外,红帽将持续深化与英特尔的长期合作关系,跨越不断扩展的硬件平台和加速器产品组合(包括英特尔® Gaudi® AI 加速器)为红帽 AI 提供支持。
这种对多样化选择的承诺贯穿于整合混合云领域。在此领域,我们正与 Google Cloud 积极合作,以增强红帽 AI 对 TPU 的支持,并通过 llm-d 和 vLLM 等项目推动社区驱动创新这一共同愿景的实现。
基础架构解决方案
然而,加速器只是其中一个组成部分。客户需要的是经过验证的集成式解决方案。这正是我们的 OEM 服务器合作伙伴发挥作用之处,他们能够将 AI 的理论潜力转化为切实的企业现实。虽然 AI 的基础在于底部的加速器和顶部的语言模型,但大规模实际部署和管理 AI 需要强大的集成式解决方案。
红帽与思科、戴尔科技、慧与和联想等行业领导者积极合作,致力于简化混合云环境中的 AI 部署和管理。我们与戴尔合作,确保其强大的服务器和存储解决方案针对红帽 AI 进行了优化,为客户的 AI 工作负载提供可靠且可扩展的基础架构。这包括共同努力为 Dell AI Factory with NVIDIA 提供红帽 OpenShift 和红帽 OpenShift AI 支持,该方案整合了经过优化的硬件和软件功能,推动更无缝的 AI 部署,从而处理要求最苛刻的计算任务。
同样,我们在与思科合作过程中,将思科在网络、安全、计算和可观测性方面的优势与红帽 OpenShift 相结合,作为思科 AI POD 中容器化 AI 工作负载的应用平台,思科 AI POD 是 Cisco Secure AI Factory with NVIDIA 的核心 AI 基础架构构建块。红帽 AI 在此基础上构建,为 AI 模型开发、训练和推理提供一致的自动化环境。这最终打造出一个可扩展、高性能且安全的全栈 AI 平台。
我们正在将 AI 基础架构参考设计和产品扩展到整个基础架构生态系统。这些协作对于为客户提供实施 AI 所需的全面解决方案至关重要,有助于确保集成必要的硬件、软件和服务,以加速 AI 采用和创新步伐。
我们庞大的全球分销商和增值经销商(VAR)生态系统,在为企业大规模构建可重复的解决方案方面发挥着关键作用。Ahead、Arrow、TD Synnex、WWT 等众多合作伙伴都在其解决方案组合中整合红帽 AI。
“World Wide Technology 在其 AI 试验场中利用红帽 AI 产品组合,以简化预测性 AI 和生成式 AI 模型的构建和部署流程。”
打造领先的 AI 生态系统
通过与硬件、软件及服务领域的合作伙伴建立战略协作关系,红帽为 AI 提供了一致且强大的平台,在混合云中为用户提供多种选择和灵活性。从通过 llm-d 优化分布式推理,到借助《合作伙伴模型验证指南》验证语言模型,再到加速代理式 AI 部署,这种协作方法有助于确保客户能够大规模实施 AI 并释放全部商业价值。
关于作者
Ryan King is Vice President of AI and Infrastructure for the Partner Ecosystem Success organization at Red Hat. In this role, King leads a team in shaping Red Hat's AI strategy with key infrastructure and hardware providers to drive go-to-market engagements and customer success with AI.