红帽 AI

利用您拥有的资源和独到的洞察,在充分自由的环境下,实现 AI 价值。 

红帽® AI 植根于开源技术,并经过专业设计,可帮助您从容构建并运行 AI 解决方案。 

红帽 AI 产品图形
红帽 AI 3
全新推出

红帽 AI 3 全新上市

我们的最新版本采用 llm-d,使 AI 推理变得更高效、更具成本效益。新增功能为打造可扩展的代理式 AI 工作流奠定了基础。这些功能可提供统一而灵活的体验,满足团队的协作需求,帮助他们大规模构建生产就绪型 AI 解决方案。

红帽 AI 3 的三大要点。视频时长:3:18

无论是模型,还是数据,您都可以自由选择。

若要让 AI 应用发挥最佳性能,快速、经济高效的推理必不可少。红帽 AI 提供了一个统一且灵活的平台来实现这一目标,其核心是 llm-d,这是一个支持大规模分布式推理的框架。 

基于 vLLM 的成功实践,llm-d 充分利用 Kubernetes 的可靠价值,提供一致、高效的数据处理能力,从而实现可预测的性能。

随着企业组织转向代理式 AI,他们不仅需要效率,更需要可互操作的框架,以便在混合云环境中连接模型、数据和 AI 工作流。

通过引入基于 Llama Stack 的统一 API 层,可让企业组织在一个位置接入各种 AI 功能。此外,还集成了模型上下文协议(MCP),可助力企业组织更轻松地在生产环境中大规模交付和运行代理式 AI

2 小时 | 10 月 14 日星期二上午 10 点(东部标准时间)

网络培训课堂

红帽 AI 的最新动态与未来展望

打造企业就绪型 AI

与红帽 AI 的主管一起了解红帽 AI 的最新进展。

最新版本侧重于提供高性能、实现可预测的推理,以及加速 AI 代理开发。产品更新有助于解决 AI 方面的一些难题,例如成本、复杂性和控制权。

红帽 AI 包括:

红帽 AI 推理服务器徽标

红帽 AI 推理服务器可优化混合云中的模型推理,实现更快、更具成本效益的模型部署。 

它由 vLLM 提供支持,并且支持访问 Hugging Face 上经过验证和优化的第三方模型。此外,红帽 AI 推理服务器还内置 LLM Compressor 工具。 

红帽企业 Linux AI 徽标

红帽企业 Linux® AI 是一个可在独立的服务器环境中一致地运行大语言模型(LLM)的平台。 

借助随附的红帽 AI 推理服务器,您可以使用快速、经济高效的混合云推理服务,利用 vLLM 最大限度地提高吞吐量和降低延迟。

此外,利用镜像模式等功能,您可以一致地大规模实施解决方案。它还支持在 Linux 中应用相同的安全配置文件,让您的团队能在一个工作流中高效协作。

包括红帽 AI 推理服务器

红帽 OpenShift AI 徽标

红帽 OpenShift® AI 基于红帽 OpenShift 的功能打造而成,为大规模管理生成式 AI 和预测性 AI 模型的生命周期提供了一个平台。 

它提供生产 AI,可让企业组织在混合云环境(包括主权和私有 AI)中构建、部署和管理 AI 模型。

包括红帽 AI 推理服务器

包括红帽企业 Linux AI

经验证的卓越性能,成就真实世界影响力

红帽 AI 提供一系列经过验证的开箱即用型第三方模型,这些模型可在我们平台上通过 vLLM 高效运行。

借助红帽经过验证的第三方模型来测试模型性能、优化推理并获得指导,以降低复杂性并加速 AI 的采用。

 

能够满足您需求并按您意愿运行的 AI。

生成式 AI

生成式 AI

制作文本和软件代码等新内容。 

借助红帽 AI,您可以更快地运行您选择的生成式 AI 模型,同时减少资源消耗并降低推理成本。 

预测性 AI

预测性 AI

应用模式并预测未来结果。 

借助红帽 AI,企业组织能够构建、训练、部署和监控预测模型,同时在混合云环境中始终保持一致性。

运营化 AI

运营化 AI

创建支持大规模维护和部署 AI 的系统。 

借助红帽 AI,在节省资源并确保遵守隐私法规的同时,管理与监控支持 AI 的应用的生命周期。 

代理式 AI

代理式 AI

构建在有限监督下执行复杂任务的工作流。 

红帽 AI 为在现有应用中构建、管理和部署代理式 AI 工作流提供了灵活的方法和稳定的基础。

广结 AI 盟友,共拓未来之路

专家和技术汇聚一堂,助力我们的客户在 AI 领域创造更多价值。众多技术合作伙伴与红帽携手合作,以确保其产品与我们的解决方案兼容并经过认证。 

戴尔科技
联想
英特尔
英伟达
AMD

2025 年红帽全球峰会和 AnsibleFest 大会 AI 客户案例集锦

土耳其航空公司

土耳其航空公司通过实现企业范围内的数据访问,将部署速度提高了一倍。

JCCM 徽标

JCCM 利用 AI 技术,改进了该地区的环境影响评估(EIA)流程。

DenizBank

Denizbank 将上市时间从数天缩短到数分钟。

Hitachi 徽标

Hitachi 借助红帽 OpenShift AI 在整个业务范围内实施了 AI。

解决方案模式

使用红帽技术和 NVIDIA AI Enterprise 构建的 AI 应用

创建 RAG 应用

红帽 OpenShift AI 是一个用于构建数据科学项目并为依托 AI 的应用提供服务的平台。您可以集成支持 检索增强生成(RAG)所需的所有工具,这是一种从自己的参考文档中获取 AI 答案的方法。将 OpenShift AI 与 NVIDIA AI Enterprise 关联后,您可以尝试各种 大语言模型(LLM),以找到适用于您应用的最佳模型。

构建文档处理管道

要使用 RAG,首先需要将文档导入到一个向量数据库中。在示例应用中,我们将一组产品文档嵌入到 Redis 数据库中。由于这些文档经常更改,我们可以为此过程创建一个管道并定期运行,以确保始终拥有最新版本的文档。

浏览 LLM 目录

NVIDIA AI Enterprise 支持访问不同 LLM 的目录,因此您可以尝试不同的选择,并选取能够提供最佳效果的模型。这些模型托管在 NVIDIA API 目录中。设置 API 令牌后,您就可以直接从 OpenShift AI 使用 NVIDIA NIM 模型服务平台来部署模型。

选择合适的模型

在测试不同的 LLM 时,您可以让用户对每个生成的响应进行评分。您还可以设置一个 Grafana 监控面板,用于比较各个模型的评分、延迟和响应时间。然后,您就可以根据这些数据来选择最适合在生产环境中使用的 LLM。

下载 pdf 图标

架构图展示了一个使用红帽 OpenShift AI 和 NVIDIA AI Enterprise 构建的应用。组件包括用于连接 GitHub 和处理 DevOps 交互的 OpenShift GitOps、用于监控的 Grafana、用于数据科学的 OpenShift AI、作为向量数据库的 Redis 以及作为镜像仓库的 Quay。这些组件都流向应用的前端和后端。这些组件基于红帽 OpenShift AI 构建,并与 ai.nvidia.com 集成。

红帽 AI 实践场景

双手在使用计算器

Ortec Finance 徽标

Ortec Finance 实现增长与产品上市双提速 

全球风险与收益管理技术解决方案提供商 Ortec Finance 现已在微软 Azure 红帽 OpenShift 上部署机器学习模型,并正式采用红帽 AI。

人物正在看着设备
Phoenix logo

Phoenix Systems 提供新一代云计算服务

了解 Phoenix Systems 如何与红帽强强联合,提升客户选择自由度、透明度以及 AI 创新能力。​

通用图形图表

DenizBank 徽标

Denizbank 赋能其数据科学家

DenizBank 正致力于开发 AI 模型,旨在为客户精准推荐贷款方案,有效防范欺诈风险。得益于红帽 AI,数据科学家们如今能够更自主地管理和利用数据。

紫色圆圈

服务器堆栈图标

RHEL 图标

粉色立方体位于云旁边的图标

OpenShift 图标

带有代表 AI 的闪光星星图案的浏览器图标

OpenShift 图标

齿轮图标

OpenShift 图标

筑基于可靠基础

红帽的产品组合范围广泛,涵盖混合云基础架构、应用服务、云原生应用开发和自动化解决方案,可以在任何基础架构上快速交付 IT 服务,经济高效,深受全球企业的信赖。

红帽企业 Linux

从本地到云端再到边缘,支持在灵活的操作环境中部署应用。

了解更多

红帽 OpenShift

快速构建并规模化部署应用,同时对现有应用进行现代化升级。

了解更多

红帽 Ansible
自动化平台

创建、管理并动态地将自动化扩展到整个企业。

了解更多

红帽 AI

利用与企业相关的数据对小型模型进行调优,并在混合云环境中开发和部署 AI 解决方案。

了解更多

探索更多 AI 资源

如何开启企业 AI 之旅

获取红帽 AI 咨询服务

利用开源模型,释放 AI 创新潜力

红帽咨询:AI 平台基础

联系红帽,咨询红帽 AI 相关事宜