什么是 LLMOps?

复制 URL

大语言模型(LLM)是可以理解和生成人类语言的机器学习(ML)模型。 GPT-3、LLaMA 和 Falcon 等 LLM 是 从数据中学习以生成单词和句子的工具。随着这些工具的不断演进,企业需要掌握如何运维这些模型的最佳实践。 而这正好就是 LLMOps 的用武之地。

大语言模型运维(LLMOps)是指一系列用于管理大语言模型的运维方法。通过 LLMOps,LLM 的整个生命周期,从微调到维护都得到管理并实现自动化,从而帮助开发人员和团队部署、监控和维护 LLM。

探索红帽 AI

企业 AI 入门:新手指南

如果说 LLM 是 ML 模型的一个子集,那么 LLMOps 同样也是机器学习运维(MLOps)中适用于大语言模型的一个子集。作为一组工作流实践,MLOps 旨在简化 ML 模型的部署和维护过程。MLOps 的目标是建立一个不断发展演进的过程,以便将 ML 模型无缝融入到软件开发流程中。同样,LLMOps 也要不断地试验、迭代、部署和改进 LLM 的开发和部署生命周期。

LLMOps 和 MLOps 既有相似之处,也有不同之处。具体来说:

学习:传统的 ML 模型都是从头开始创建或训练,但 LLM 是从一个基础模型开始,然后使用新数据进行微调,以提高其完成任务的性能。

调优:对于 LLM,微调可以改进模型的性能并提高准确性,使其更加深入地理解某个特定主题的知识。而提示词调优(Prompt Tuning)可以使 LLM 更好地执行特定任务。超参数调优是另一个不同之处。在传统 ML 中,调优侧重于提高准确性。对于 LLM,调优不仅关乎准确性,还有助于减少成本和训练过程中所需的能源消耗。无论是传统 ML 模型还是 LLM,调优过程都有好处,但侧重点各不相同。最后,值得一提的是检索增强生成(RAG),这是指利用外部知识来确保 LLM 能够收集到准确和具体的事实,以生成更好的回答。

反馈:人类反馈强化学习(RLHF)是一种改进 LLM 训练的方法。人类的反馈对模型的性能至关重要。LLM 会使用人类反馈来评估准确性,而传统 ML 模型使用特定的指标来评估准确性。

性能指标:ML 模型具有  精确的性能指标, 但 LLM 有一组不同的指标,如双语评估备考 (BLEU) 和面向回忆的备考 (ROUGE ) ,这需要更复杂的评估。

了解有关 MLOps 的更多信息

红帽资源

随着 LLMOps 成为监控和增强性能的最佳方式, 三大优势值得探讨:

效率:LLMOps 使得团队能够更快地开发模型,提升模型质量,并实现快速部署。通过一种更简化的管理方式,团队可以在一个促进沟通、开发和部署的平台上进行更有效的协作。

可扩展性:LLMOps 有助于扩展和管理,因为可以管理和监控多个模型 ,以实现 持续集成和持续交付/部署 (CI/CD)。此外,LLMOps 通过改善数据通信和响应,为用户提供了更加迅捷的体验。 

风险降低:LLMOps 提高了透明度,并帮助更好地遵守企业和行业的政策。 LLMOps 可以通过保护敏感信息和防止暴露于风险来提高 安全 和隐私。

详细了解如何构建 AI/ML 环境

下方列出了 LLMOps 的几个用例。

持续集成和交付(CI/CD):CI/CD 旨在简化、加速和自动执行模型开发生命周期。 它消除了获取新代码所需的人工干预,从而减少了停机时间并加快了代码发布速度。Tekton 等工具是 红帽 OpenShift Pipelines 的基础,可跨多个平台自动部署,为开发人员的工作流提供帮助。

数据收集、标注与存储:数据收集过程从多种来源获取准确的信息。数据标注对收集的数据进行分类,而数据存储负责收集和保存与网络关联的数字化信息。

模型调优、推理、监控:模型调优可以优化模型,以执行特定领域的任务。模型推理可以基于现有知识来管理生产的内容,并基于推理的信息来执行操作。模型监控(包括人类反馈)可以收集和存储有关模型行为的数据,以了解模型如何使用真实的生产数据。

进一步了解 AI 的基础模型

LLMOps 分为几个阶段,各自都有相应的最佳实践:

探索性数据分析(EDA):通过创建数据集来评估数据,准备机器学习生命周期所需的数据。

  • 数据收集:训练 LLM 的第一步,从不同来源(例如代码库和社交媒体网络)收集数据。
  • 数据清理:收集到数据后,就需要对数据进行检查并为训练做好准备,包括剔除错误、纠正不一致和删除重复数据。
  • 数据探索:接着是探索数据,以更好地了解数据特征,包括识别异常值和发现特定模式。

数据准备和提示设计:跨团队共享可访问数据并为 LLM 开发 提示的过程。

  • 数据准备:用于训练 LLM 的数据以 方式准备,包括 综合和总结收集的数据。
  • 提示符工程:创建使用 作为文本的提示符,以确保 LLM 生成所需的输出。

模型调优:使用主流的开源库(例如 Hugging Face Transformers)来调优和改进模型性能。

  • 模型训练:在准备好数据后,通过使用机器学习算法来学习数据中的模式,从而训练或调优 LLM。
  • 模型评估:完成训练后,需要使用未曾用于 LLM 训练的测试数据集来评估 LLM 的性能。
  • 模型调优:如果 LLM 表现不佳,可以对其进行微调,包括修改 LLM 的参数来提高其性能。

模型审查和治理:借助 Kubeflow等开源 MLOps 平台,跨 ML 模型发现、共享和协作的过程。

  • 模型审查:完成了调优后,就需要对 LLM 进行审查来确保其安全可靠,包括检查偏差和安全风险。
  • 模型治理:模型治理是指在 LLM 的整个生命周期中管理 LLM 的过程,包括跟踪其性能,根据需要进行更改,以及在不再需要时将其停用。

模型推理和服务:管理生产环境中的细节,例如模型刷新频率或请求时间。 

  • 模型服务:LLM 经过审查并获得批准后,就可以部署到生产环境中,以便用户通过应用编程接口(API)使用 LLM。
  • 模型推理:相关的应用可以查询 API 来生成文本或回答问题。这可以通过多种方式来完成,例如 表述性状态传递应用编程接口(REST API) 或 Web 应用。

模型监控与人类反馈:创建模型和数据以监控异常或负面用户行为。

  • 模型监控:完成部署后,需要对 LLM 进行监控,以确保其按预期执行,包括跟踪其性能、识别存在的问题以及根据需要进行更改。
  • 人类反馈:人类用户对 LLM 生成的文本进行反馈,或者识别出 LLM 性能中的任何问题,从而提升 LLM 的性能。

LLMOps 平台为 开发人员和团队提供一个环境,通过数据分析、实验跟踪、即时工程设计和 LLM 管理来促进协作。它还为 LLM 提供 托管模型转换、部署和监控。 通过改进库管理,该平台可以帮助降低运维成本,并减少对高技能技术团队成员完成数据预处理、模型监控和部署等任务的需求。

了解如何选择适用于 AI 和 LLMOPs 的平台

无论您是想了解如何使用 LLMOps 来发挥自己的优势,还是只是想了解机器学习运维, 红帽都可以为您的团队奠定基础,让他们从 AI 中受益。

红帽® AI 是我们专门针对企业组织需求而构建的 AI 产品组合,它筑基于深受客户信赖的红帽解决方案。 

红帽 AI 可以帮助企业组织做到以下几点:

  • 快速采用 AI 并进行创新。
  • 拆解交付 AI 解决方案的复杂流程。
  • 随处部署

探索红帽 AI 

合适的 LLMOps 工具可以管理和自动化 LLM 的生命周期。 红帽 OpenShift® AI 能够跨混合云环境管理预测性和生成式 AI 模型的生命周期。开发人员可以无缝部署、监控和维护 LLM。

了解红帽 OpenShift AI 

中心

红帽官方博客

获取有关我们的客户、合作伙伴和社区生态系统的最新信息。

所有红帽产品试用

我们的免费试用可让您亲身体验红帽的产品功能,为获得认证做好准备,或评估某个产品是否适合您的企业。

扩展阅读

什么是企业 AI?

企业 AI 是指将人工智能(AI)工具和机器学习软件集成到大规模运维和流程中。如今,企业解决问题的时间大幅缩短,几周内便可完成过去需要数年才能解决的问题。

什么是参数高效微调(PEFT)?

PEFT 是一组仅调整 LLM 中部分参数的技术,可节省资源。

LoRA 与QLoRA:有何区别

LoRA(低秩自适应)和 QLoRA(量化低秩自适应)技术均可用于训练 AI 模型。

AI/ML 相关资源

相关文章