


红帽 AI
为您的企业构建 AI
利用您拥有的资源和独到的洞察,在充分自由的环境下,实现 AI 价值。
红帽® AI 赋能企业,构建并运行满足自身独特需求的 AI 解决方案,从初步试验到全面投入生产,一路相伴。
红帽 AI 包括:
红帽企业 Linux AI
红帽企业 Linux® AI 可以助力客户开启 AI 之旅,即使他们尚未明确具体的业务用例。该 AI 平台旨在开发、测试和运行生成式 AI(gen AI)基础模型。
功能和优势
- 包含 IBM 的 Granite 系列大语言模型
- 利用 InstructLab 在本地微调模型
- 对于 GPU 资源受限的客户而言,具有成本效益
红帽 OpenShift AI
红帽 OpenShift® AI 专为希望大规模部署 AI 应用的客户而打造。通过此平台,您可以轻松管理混合云环境中预测性和生成式 AI 模型的整个生命周期。
功能和优势
- 企业 MLOps 功能
- 包含 IBM Granite 大语言模型和 InstructLab 工具
- 利用硬件加速器和混合云支持,大规模构建和交付 AI
利用 InstructLab 在本地自定义 LLM
红帽的 InstructLab 是一个社区驱动的项目,旨在让更多开发者能够轻松体验 IBM 的 Granite 模型,即使他们不具备深厚的机器学习背景。
无论您是想体验自己选择的 AI 模型,还是在本地硬件上微调基础模型,这里都是一个很好的起点。
它消除了试验 AI 模型的成本和资源限制,让您在将 AI 技术应用于企业之前,可以充分进行探索和验证。
广结 AI 盟友,共拓未来之路
专家和技术汇聚一堂,助力我们的客户在 AI 领域创造更多价值。众多技术伙伴与红帽携手合作,以确保其产品与我们的解决方案兼容并经过认证。
解决方案模式
使用红帽技术和 NVIDIA AI Enterprise 构建的 AI 应用
创建 RAG 应用
红帽 OpenShift AI 是一个用于构建数据科学项目并为依托 AI 的应用提供服务的平台。您可以集成支持 检索增强生成(RAG)所需的所有工具,这是一种从自己的参考文档中获取 AI 答案的方法。将 OpenShift AI 与 NVIDIA AI Enterprise 关联后,您可以尝试各种 大语言模型(LLM),以找到适用于您应用的最佳模型。
构建文档处理管道
要使用 RAG,首先需要将文档导入到一个向量数据库中。在示例应用中,我们将一组产品文档嵌入到 Redis 数据库中。由于这些文档经常更改,我们可以为此过程创建一个管道并定期运行,以确保始终拥有最新版本的文档。
浏览 LLM 目录
NVIDIA AI Enterprise 支持访问不同 LLM 的目录,因此您可以尝试不同的选择,并选取能够提供最佳效果的模型。这些模型托管在 NVIDIA API 目录中。设置 API 令牌后,您就可以直接从 OpenShift AI 使用 NVIDIA NIM 模型服务平台来部署模型。
选择合适的模型
在测试不同的 LLM 时,您可以让用户对每个生成的响应进行评分。您还可以设置一个 Grafana 监控面板,用于比较各个模型的评分、延迟和响应时间。然后,您就可以根据这些数据来选择最适合在生产环境中使用的 LLM。


