红帽 AI
利用您拥有的资源和独到的洞察,在充分自由的环境下,实现 AI 价值。
红帽® AI 植根于开源技术,并经过专业设计,可帮助您从容构建并运行 AI 解决方案。
红帽 AI 3 全新上市
我们的最新版本采用 llm-d,使 AI 推理变得更高效、更具成本效益。新增功能为打造可扩展的代理式 AI 工作流奠定了基础。这些功能可提供统一而灵活的体验,满足团队的协作需求,帮助他们大规模构建生产就绪型 AI 解决方案。
无论是模型,还是数据,您都可以自由选择。
若要让 AI 应用发挥最佳性能,快速、经济高效的推理必不可少。红帽 AI 提供了一个统一且灵活的平台来实现这一目标,其核心是 llm-d,这是一个支持大规模分布式推理的框架。
基于 vLLM 的成功实践,llm-d 充分利用 Kubernetes 的可靠价值,提供一致、高效的数据处理能力,从而实现可预测的性能。
随着企业组织转向代理式 AI,他们不仅需要效率,更需要可互操作的框架,以便在混合云环境中连接模型、数据和 AI 工作流。
通过引入基于 Llama Stack 的统一 API 层,可让企业组织在一个位置接入各种 AI 功能。此外,还集成了模型上下文协议(MCP),可助力企业组织更轻松地在生产环境中大规模交付和运行代理式 AI。
2 小时 | 10 月 14 日星期二上午 10 点(东部标准时间)
红帽 AI 的最新动态与未来展望
打造企业就绪型 AI
与红帽 AI 的主管一起了解红帽 AI 的最新进展。
最新版本侧重于提供高性能、实现可预测的推理,以及加速 AI 代理开发。产品更新有助于解决 AI 方面的一些难题,例如成本、复杂性和控制权。
红帽 AI 包括:
红帽 AI 推理服务器可优化混合云中的模型推理,实现更快、更具成本效益的模型部署。
它由 vLLM 提供支持,并且支持访问 Hugging Face 上经过验证和优化的第三方模型。此外,红帽 AI 推理服务器还内置 LLM Compressor 工具。
红帽企业 Linux® AI 是一个可在独立的服务器环境中一致地运行大语言模型(LLM)的平台。
借助随附的红帽 AI 推理服务器,您可以使用快速、经济高效的混合云推理服务,利用 vLLM 最大限度地提高吞吐量和降低延迟。
此外,利用镜像模式等功能,您可以一致地大规模实施解决方案。它还支持在 Linux 中应用相同的安全配置文件,让您的团队能在一个工作流中高效协作。
红帽 OpenShift® AI 基于红帽 OpenShift 的功能打造而成,为大规模管理生成式 AI 和预测性 AI 模型的生命周期提供了一个平台。
它提供生产 AI,可让企业组织在混合云环境(包括主权和私有 AI)中构建、部署和管理 AI 模型。
能够满足您需求并按您意愿运行的 AI。
生成式 AI
制作文本和软件代码等新内容。
借助红帽 AI,您可以更快地运行您选择的生成式 AI 模型,同时减少资源消耗并降低推理成本。
预测性 AI
应用模式并预测未来结果。
借助红帽 AI,企业组织能够构建、训练、部署和监控预测模型,同时在混合云环境中始终保持一致性。
运营化 AI
创建支持大规模维护和部署 AI 的系统。
借助红帽 AI,在节省资源并确保遵守隐私法规的同时,管理与监控支持 AI 的应用的生命周期。
代理式 AI
构建在有限监督下执行复杂任务的工作流。
红帽 AI 为在现有应用中构建、管理和部署代理式 AI 工作流提供了灵活的方法和稳定的基础。
广结 AI 盟友,共拓未来之路
专家和技术汇聚一堂,助力我们的客户在 AI 领域创造更多价值。众多技术合作伙伴与红帽携手合作,以确保其产品与我们的解决方案兼容并经过认证。
2025 年红帽全球峰会和 AnsibleFest 大会 AI 客户案例集锦
土耳其航空公司通过实现企业范围内的数据访问,将部署速度提高了一倍。
JCCM 利用 AI 技术,改进了该地区的环境影响评估(EIA)流程。
Denizbank 将上市时间从数天缩短到数分钟。
Hitachi 借助红帽 OpenShift AI 在整个业务范围内实施了 AI。
解决方案模式
使用红帽技术和 NVIDIA AI Enterprise 构建的 AI 应用
创建 RAG 应用
红帽 OpenShift AI 是一个用于构建数据科学项目并为依托 AI 的应用提供服务的平台。您可以集成支持 检索增强生成(RAG)所需的所有工具,这是一种从自己的参考文档中获取 AI 答案的方法。将 OpenShift AI 与 NVIDIA AI Enterprise 关联后,您可以尝试各种 大语言模型(LLM),以找到适用于您应用的最佳模型。
构建文档处理管道
要使用 RAG,首先需要将文档导入到一个向量数据库中。在示例应用中,我们将一组产品文档嵌入到 Redis 数据库中。由于这些文档经常更改,我们可以为此过程创建一个管道并定期运行,以确保始终拥有最新版本的文档。
浏览 LLM 目录
NVIDIA AI Enterprise 支持访问不同 LLM 的目录,因此您可以尝试不同的选择,并选取能够提供最佳效果的模型。这些模型托管在 NVIDIA API 目录中。设置 API 令牌后,您就可以直接从 OpenShift AI 使用 NVIDIA NIM 模型服务平台来部署模型。
选择合适的模型
在测试不同的 LLM 时,您可以让用户对每个生成的响应进行评分。您还可以设置一个 Grafana 监控面板,用于比较各个模型的评分、延迟和响应时间。然后,您就可以根据这些数据来选择最适合在生产环境中使用的 LLM。





