红帽 OpenShift AI

红帽® OpenShift® AI 是一个平台,用于在混合云环境中大规模管理预测性 AI 模型和生成式人工智能(生成式 AI)模型的生命周期。 

RHOSAI 界面图片

什么是红帽 OpenShift AI?

OpenShift AI 采用开源技术构建,能够提供值得信赖且运维一致的功能,助力团队开展实验、部署模型并交付创新应用。

OpenShift AI 支持数据获取和准备、模型训练和微调、模型服务、模型监控及硬件加速。依托由硬件和软件合作伙伴组成的开放式生态系统,OpenShift AI 能够灵活满足特定用例的需求。

观看红帽 OpenShift AI 演示,了解其部分最新功能。视频时长:5:59

红帽 AI 图片

加速将依托 AI 的应用投入使用

这款一站式企业就绪型 AI 应用平台集结了红帽 Openshift AI 和红帽 OpenShift 成熟可靠的功能,能够促进团队间展开高效协作。数据科学家、工程师和应用开发人员可以在统一的平台上协同工作,从而提高一致性、安全性和可扩展性。

最新发布的 OpenShift AI 包含一系列精挑细选、经过优化的生产就绪型第三方模型,而且这些模型均已通过红帽 OpenShift AI 验证。有了对这一第三方模型目录的访问权限,您的团队能够更好地控制模型可访问性和可见性,从而满足安全性与政策要求。 

此外,OpenShift AI 还借助经优化的 vLLM 框架实现分布式部署,以有效管控推理成本。为了进一步降低运维复杂性,它提供了高级工具来实现部署自动化,并支持自助访问模型、工具和资源。

减少 AI 基础架构管理时间

按需获取高性能模型,从而更轻松地实现自助服务、扩展和部署。 开发人员可省去复杂操作,同时保持控制权并优化成本。

模型即服务(MaaS)等功能目前处于开发人员预览阶段。该功能以 API 端点的形式提供 AI 访问途径,助力大规模实现私密且高效的 AI 部署。 

经过测试且受支持的 AI/ML 工具

红帽会对 AI/ML 工具及模型服务进行测试、集成并提供支持,而无需您自行操作。OpenShift AI 借鉴了红帽 Open Data Hub 社区项目及 Kubeflow 等开源项目多年的孵化经验。 

我们凭借丰富的经验和开源专业知识,提供了一个支持生成式 AI 的基础平台,让客户在制定生成式 AI 策略时拥有更多选择与更大的信心。 

跨混合云的灵活性

红帽 OpenShift AI 既可以作为自助管理软件使用,也可作为 OpenShift 上的全托管云服务提供;借助这个既安全又灵活的平台,您可以选择在任何位置开发和部署模型,无论是在本地、公共云中还是在边缘。

运用最佳实践

无论您处于 AI 应用进程的哪个阶段,红帽服务均可提供专业知识、培训与支持,助力您攻克 AI 领域的重重挑战。 

此外,无论您是想构建 AI 解决方案原型、简化 AI 平台的部署,还是推进 MLOps 策略,红帽咨询都将为您提供支持和指导。

llm-d 为开发人员铺就坦途

红帽 OpenShift AI 搭载开源框架 llm-d,可解决在实现大规模分布式 AI 推理过程中面临的挑战。

通过在分布式 GPU 集群中扩展模型,可实现全新层级的控制力与可观测性。企业还可以通过将推理管道拆解为模块化智能服务,大规模优化复杂的 LLM。 

适用于红帽 OpenShift AI 的 MCP 服务器

探索我们精挑细选的 MCP 服务器集合,这些来自技术合作伙伴的服务器可与红帽 OpenShift AI 集成。 

模型上下文协议(MCP)是一种开源协议,可实现 AI 应用与外部服务之间的双向连接和标准化通信。

现在,您可利用这些 MCP 服务器,将企业工具和资源集成到 AI 应用和代理式工作流中。 

利用 vLLM 进行优化,以实现快速且经济高效的大规模推理。

红帽 AI 推理服务器是红帽 AI 平台的一部分。它既可以作为独立产品使用,同时也已包含在红帽企业 Linux® AI 和红帽 OpenShift® AI 中。

能够满足您需求并按您意愿运行的 AI。

生成式 AI

生成式 AI

制作文本和软件代码等新内容。 

借助红帽 AI,您可以更快地运行您选择的生成式 AI 模型,同时减少资源消耗并降低推理成本。 

预测性 AI

预测性 AI

应用模式并预测未来结果。 

借助红帽 AI,企业组织能够构建、训练、部署和监控预测模型,同时在混合云环境中始终保持一致性。

运营化 AI

运营化 AI

创建支持大规模维护和部署 AI 的系统。 

借助红帽 AI,在节省资源并确保遵守隐私法规的同时,管理与监控支持 AI 的应用的生命周期。 

代理式 AI

代理式 AI

构建在有限监督下执行复杂任务的工作流。 

红帽 AI 为在现有应用中构建、管理和部署代理式 AI 工作流提供了灵活的方法和稳定的基础。

合作伙伴

通过与其他服务和产品集成,更充分地发挥红帽 Openshift AI 平台的潜力。

英伟达徽标

红帽携手英伟达共创可扩展的平台,让客户能够以空前的灵活性加快各种 AI 用例的开展。

英特尔徽标

红帽携手英特尔® 帮助企业组织加快 AI 技术的采用,并快速将 AI/ML 模型投入使用。

IBM 徽标

红帽携手 IBM 通过 IBM watsonx.aiTM(面向 AI 构建者的企业就绪型 AI 开发平台)等方式提供开源创新,加快 AI 应用的开发。 

Starburst 徽标

红帽携手 Starburst Enterprise 通过跨多个不同且分散的数据平台快速进行数据分析,从而支持更出色且更及时的洞察分析。

适用于 AI 平台的可扩展 Kubernetes 基础架构

了解如何应用机器学习运维(MLOPs)原则和实践来构建 AI 驱动的应用。 

借助模型工作台实现协同工作

AI 中心与生成式 AI 工作室让平台工程师和 AI 工程师能够协同工作,从而更快地将生成式 AI 模型投入使用。 

AI 中心支持平台工程师管理 LLM 与集中式 AI 工作负载,同时获取来自第三方模型验证的性能洞察分析。生成式 AI 工作室为 AI 工程师提供一个实操环境,可通过 Playground 与模型进行交互,并快速构建生成式 AI 应用原型。在将模型集成至生命周期流程之前,工程师可借助沙箱环境来测试聊天及检索增强生成(RAG)流程,从而验证模型的适用性。

此外,数据科学家可以访问预构建或定制的集群镜像,使用偏好的 IDE 与框架来开展模型相关工作。红帽 OpenShift AI 会跟踪对 Jupyter、PyTorch、Kubeflow 及其他开源 AI 技术进行的更改。

OpenShift AI 控制台中“已启用应用”选项卡的屏幕截图

AI 防护机制可确保您的生成式 AI 模型受到保护。视频时长:10:02

借助红帽 OpenShift AI 实现模型服务与安全防护的规模化扩展

可通过经优化的 vLLM 版本(或您选择的其他模型服务器)来部署模型,将其集成到在本地、公共云或边缘运行的 AI 赋能应用。还可以基于对源 notebook 的更改来重新构建、重新部署和监控这些模型。

模型幻觉与偏差问题可能会损害模型的完整性,还会增加其规模化应用的难度。为帮助维护模型公平性、安全性和可扩展性,OpenShift AI 允许数据从业人员监控模型输出与训练数据之间的一致性。 

偏差检测工具可以实时监控模型推理所使用的实际数据是否偏离原始训练数据。 此外,内置的 AI 防护机制可以保护模型输入和输出免受有害信息的影响,如辱骂性和亵渎性言论、个人数据或特定领域限制。 

解决方案模式

使用红帽技术和 NVIDIA AI Enterprise 构建的 AI 应用

创建 RAG 应用

红帽 OpenShift AI 是一个用于构建数据科学项目并为依托 AI 的应用提供服务的平台。您可以集成支持 检索增强生成(RAG)所需的所有工具,这是一种从自己的参考文档中获取 AI 答案的方法。将 OpenShift AI 与 NVIDIA AI Enterprise 关联后,您可以尝试各种 大语言模型(LLM),以找到适用于您应用的最佳模型。

构建文档处理管道

要使用 RAG,首先需要将文档导入到一个向量数据库中。在示例应用中,我们将一组产品文档嵌入到 Redis 数据库中。由于这些文档经常更改,我们可以为此过程创建一个管道并定期运行,以确保始终拥有最新版本的文档。

浏览 LLM 目录

NVIDIA AI Enterprise 支持访问不同 LLM 的目录,因此您可以尝试不同的选择,并选取能够提供最佳效果的模型。这些模型托管在 NVIDIA API 目录中。设置 API 令牌后,您就可以直接从 OpenShift AI 使用 NVIDIA NIM 模型服务平台来部署模型。

选择合适的模型

在测试不同的 LLM 时,您可以让用户对每个生成的响应进行评分。您还可以设置一个 Grafana 监控面板,用于比较各个模型的评分、延迟和响应时间。然后,您就可以根据这些数据来选择最适合在生产环境中使用的 LLM。

下载 pdf 图标

架构图展示了一个使用红帽 OpenShift AI 和 NVIDIA AI Enterprise 构建的应用。组件包括用于连接 GitHub 和处理 DevOps 交互的 OpenShift GitOps、用于监控的 Grafana、用于数据科学的 OpenShift AI、作为向量数据库的 Redis 以及作为镜像仓库的 Quay。这些组件都流向应用的前端和后端。这些组件基于红帽 OpenShift AI 构建,并与 ai.nvidia.com 集成。

2025 年红帽全球峰会和 AnsibleFest 大会 AI 客户案例集锦

土耳其航空公司

土耳其航空公司通过实现企业范围内的数据访问,将部署速度提高了一倍。

JCCM 徽标

JCCM 利用 AI 技术,改进了该地区的环境影响评估(EIA)流程。

DenizBank

Denizbank 将上市时间从数天缩短到数分钟。

Hitachi 徽标

Hitachi 借助红帽 OpenShift AI 在整个业务范围内实施了 AI。

如何试用红帽 OpenShift AI

开发人员沙盒

适合想要尝试在灵活的预配置环境中构建 AI 赋能应用的开发人员和数据科学家。

60 天试用

企业组织准备好评估 OpenShift AI 的全部功能后,可通过为期 60 天的产品试用体验这些功能。需要用到现有的红帽 OpenShift 集群。

探索更多 AI 资源

DenizBank 借助红帽 OpenShift AI 为数据科学家赋能

开源:取得 AI 成功的捷径

土耳其航空公司的开发人员利用 OpenShift AI 推动 AI 实验

在企业组织中成功实施 MLOps 的五大方式

联系销售代表

联系红帽,咨询红帽 AI 相关事宜