红帽 AI
利用您拥有的资源和独到的洞察,在充分自由的环境下,实现 AI 价值。
红帽® AI 植根于开源技术,并经过专业设计,可帮助您从容构建并运行 AI 解决方案。
红帽 AI 助力企业更轻松地拥抱 AI
红帽 AI Enterprise 简介:一个旨在弥合 AI 实验与全球规模之间差距的平台。该平台提供推理、模型定制、部署和管理功能,可灵活支持任何环境中任何硬件上的任何模型。
无论是模型,还是数据,您都可以自由选择。
若要让 AI 应用发挥最佳性能,快速、经济高效的推理必不可少。红帽 AI 提供了一个统一且灵活的平台来实现这一目标,其核心是 llm-d,这是一个支持大规模分布式推理的框架。
基于 vLLM 的成功实践,llm-d 充分利用 Kubernetes 的可靠价值,提供一致、高效的数据处理能力,从而实现可预测的性能。
随着企业组织转向代理式 AI,他们不仅需要效率,更需要可互操作的框架,以便在混合云环境中连接模型、数据和 AI 工作流。
通过引入基于 Llama Stack 的统一 API 层,可让企业组织在一个位置接入各种 AI 功能。此外,还集成了模型上下文协议(MCP),可助力企业组织更轻松地在生产环境中大规模交付和运行代理式 AI。
2 月 17 日星期二上午 11 点(东部标准时间)
红帽 AI 的最新动态与未来展望
与红帽 AI 的主管一起了解红帽 AI 的最新进展。
红帽 AI 产品组合
红帽 AI Enterprise 是一个集成式 AI 平台,用于部署和管理高效、具成本效益的模型、代理和应用。
该平台统一了模型与应用生命周期,并提供模型调优、高性能推理和代理式 AI 工作流管理等核心功能。它专为灵活部署而设计,支持将任何模型和任何硬件自由部署到任何地方。
红帽 AI 推理服务器可优化混合云中的模型推理,实现更快、更具成本效益的模型部署。
它由 vLLM 提供支持,并且支持访问 Hugging Face 上经过验证和优化的第三方模型。此外,红帽 AI 推理服务器还内置 LLM Compressor 工具。
红帽 OpenShift® AI 基于红帽 OpenShift 的功能构建,是一个值得信赖且可扩展的 AI 平台,用于训练、调优、部署和监控机器学习模型。
红帽企业 Linux® AI 是一个开箱即用的平台,可在独立的服务器环境中持续运行大语言模型(LLM)。
借助在镜像模式下运行的内置推理功能,您可以获得快速、经济高效的混合云推理服务,利用 vLLM 最大限度地提高吞吐量和降低延迟。
能够满足您需求并按您意愿运行的 AI。
生成式 AI
制作文本和软件代码等新内容。
借助红帽 AI,您可以更快地运行您选择的生成式 AI 模型,同时减少资源消耗并降低推理成本。
预测性 AI
应用模式并预测未来结果。
借助红帽 AI,企业组织能够构建、训练、部署和监控预测模型,同时在混合云环境中始终保持一致性。
运营化 AI
创建支持大规模维护和部署 AI 的系统。
借助红帽 AI,在节省资源并确保遵守隐私法规的同时,管理与监控支持 AI 的应用的生命周期。
代理式 AI
构建在有限监督下执行复杂任务的工作流。
红帽 AI 为在现有应用中构建、管理和部署代理式 AI 工作流提供了灵活的方法和稳定的基础。
广结 AI 盟友,共拓未来之路
专家和技术汇聚一堂,助力我们的客户在 AI 领域创造更多价值。众多技术合作伙伴与红帽携手合作,以确保其产品与我们的解决方案兼容并经过认证。
2025 年红帽全球峰会和 AnsibleFest 大会 AI 客户案例集锦
土耳其航空公司通过实现企业范围内的数据访问,将部署速度提高了一倍。
JCCM 利用 AI 技术,改进了该地区的环境影响评估(EIA)流程。
Denizbank 将上市时间从数天缩短到数分钟。
Hitachi 借助红帽 OpenShift AI 在整个业务范围内实施了 AI。
AI 快速入门
来自我们社区的各种实训业务示例,助力现有红帽客户快速开始使用。





