红帽 AI 推理服务器

红帽® AI 推理服务器可优化混合云中的模型推理,实现更快、更具成本效益的模型部署。 

红帽推理服务器主视觉图

什么是推理服务器?

推理服务器是一种软件,支持人工智能(AI)应用与大语言模型(LLM)交互,并根据数据生成响应。这个过程就叫做推理。这正是业务价值实现之处,也是最终成果的交付环节。

为确保高效执行,LLM 需要大量的存储空间、内存和基础架构来实现规模化推理——因此,它们往往会占据预算的主要部分。 

作为红帽 AI 平台的关键组件,红帽 AI 推理服务器可通过优化推理能力,有效降低传统方案的高昂成本与庞大基础架构需求。 

红帽 AI 推理服务器——快速且经济高效的 AI 推理解决方案。视频时长:2:28

一张交互式演示的屏幕截图,其中显示命令行界面及以下提示信息:“这些模型已针对红帽 AI 推理服务器进行了优化,您可以根据需要,通过标准化 API 将其部署至任意环境——无论是红帽产品还是非红帽的 Kubernetes 与 Linux 环境。”

红帽 AI 推理服务器简介

红帽 AI 推理服务器的工作原理

红帽 AI 推理服务器可提供快速且经济高效的大规模推理能力。开源架构使它能够灵活支持任何生成式 AI 模型,可在任何 AI 加速器上运行,适配所有云环境。 

推理服务器由 vLLM 提供支持,可最大限度提高 GPU 利用率,加快响应速度。结合 LLM Compressor 的压缩能力,可在不牺牲性能的前提下提升推理效率。凭借强大的跨平台兼容性和不断壮大的贡献者社区,vLLM 正在成为生成式 AI 推理领域的 Linux®。 

50%

一些使用 LLM Compressor 的客户在不影响性能的前提下节省了 50% 的成本。*

*Zelenović, Saša,“释放 LLM 的全部潜力:使用 vLLM 优化性能”。红帽博客,2025 年 2 月 27 日。 

模型选择,尽在掌握

红帽 AI 推理服务器支持所有主流开源模型,还具有灵活的 GPU 可移植性。您可以自由选用任何生成式 AI 模型,也可以从我们经过优化的已验证开源第三方模型库中挑选。  

此外,作为红帽 AI 的一部分,红帽 AI 推理服务器已通过所有红帽产品认证。根据红帽第三方支持政策,还可将其部署到其他 Linux 和 Kubernetes 平台并获得支持。 

红帽 AI 推理服务器模型选择图片

vLLM 助力提升效率

vLLM 可帮助优化任何 AI 加速器上的任何生成式 AI 模型的部署。

LLM Compressor

可压缩任意规模的模型,在保持模型高精度响应能力的同时,显著降低计算资源消耗及相关成本。 

混合云的灵活性

保持跨 GPU 的可移植性,支持在本地、云端或边缘环境中运行模型。

红帽 AI 模型库

经过第三方验证和优化的模型已准备就绪,可随时进行推理部署,助您更快实现价值并持续降低成本。

红帽 AI 技术支持

作为 vLLM 项目数一数二的企业级贡献方,红帽对该技术有着深刻的理解。我们的 AI 咨询团队拥有深厚的 vLLM 专业实力,可助力企业实现 AI 战略目标。 

红帽 AI 界面图片

如何购买

红帽 AI 推理服务器既支持单独使用,也已集成在了红帽 AI 平台中。该产品已内置于红帽企业 Linux® AI 和红帽 OpenShift® AI 解决方案中。 

红帽 AI

与合作伙伴共同部署

汇聚行业专家与领先技术,只为助力我们的客户在 AI 领域创造更多价值。探索所有与红帽携手完成兼容性认证的合作伙伴,打造更值得信赖的 AI 解决方案。 

戴尔科技徽标
联想徽标
英特尔徽标
英伟达徽标
AMD 徽标

常见问题解答

是否需要购买红帽企业 Linux AI 或红帽 OpenShift AI 才能使用红帽 AI 推理服务器?

不需要。红帽 AI 推理服务器可单独购买。 

是否需要购买红帽 AI 推理服务器才能使用红帽企业 Linux AI?

不需要。如果您购买红帽企业 Linux AI 或红帽 OpenShift AI,红帽 AI 推理服务器已包含在内。 

红帽 AI 推理服务器是否可以在红帽企业 Linux 或红帽 OpenShift 上运行?

是的,可以。根据我们的第三方支持协议,该产品也可以在第三方 Linux 环境中运行。

红帽 AI 推理服务器如何定价?

按加速器数量定价。

探索更多 AI 资源

如何开启企业 AI 之旅

获取红帽 AI 咨询服务

利用开源模型,释放 AI 创新潜力

红帽咨询:AI 平台基础

联系销售代表

联系红帽,咨询红帽 AI 相关事宜