AI267

在红帽 OpenShift AI 上开发和部署 AI/ML 应用

概述

课程概述

利用红帽 OpenShift AI 大规模实施现代 AI 应用的完整生命周期管理。

“在红帽 OpenShift AI 上开发和部署 AI/ML 应用”(AI267)课程为学员提供了管理现代 AI 应用整个生命周期所需的基础知识。本课程将帮助学员掌握核心技能,让他们能够使用红帽 OpenShift AI 大规模高效训练、测试、部署和监控预测性 AI 及生成式 AI 模型。 

本课程基于红帽 OpenShift® 4.18 和红帽 OpenShift AI 2.25。

课程内容摘要

  • 红帽 OpenShift AI 简介
  • 使用工作台进行 AI/ML 开发
  • 模型服务基础知识
  • 生成式和预测性 AI 模型服务
  • AI 模型监控
  • 数据科学管道简介
  • Kubeflow 管道高级开发和实验
  • 生成式 AI 模型的选择、优化与评估
  • 生成式 AI 应用的构建

课程培训对象

  • 负责处理 MLOps/LLMOps 生命周期运维任务(如部署、自动化与监控)的 ML 工程师。
  • 自主完成模型训练、部署与跟踪的数据科学家。 

推荐培训

课程大纲

课程大纲 

红帽 OpenShift AI 简介
了解红帽 OpenShift AI 如何提供完整的 MLOps 和 GenAIOps 平台,以及如何使用该平台来配置数据科学项目以促进团队协作。

使用工作台进行 AI/ML 开发
使用工作台环境进行 AI/ML 开发,并将其与数据源及数据存储进行连接。

模型服务基础知识
借助 OpenShift AI 的模型服务功能,完成模型的准备、部署与提供。

生成式和预测性 AI 模型服务
借助专用运行时部署并提供 AI 模型服务,包括用于预测模型的 OpenVINO 以及用于大语言模型的 vLLM。

AI 模型监控
使用 TrustyAI 和可观测性工具监控已部署模型的偏差、数据偏移和性能,以确保在生产环境中实现可靠且合乎道德的 AI 性能。 

数据科学管道简介
使用 Elyra 与 Kubeflow SDK 创建和管理基础数据科学管道,以实现核心 AI/ML 工作流的自动化。

Kubeflow 管道高级开发和实验
为生产级 MLOps 工作流实现高级管道功能,包括容器组件、工件管理、Kubernetes 配置和系统化实验。

生成式 AI 模型的选择、优化与评估
借助 RHOAI 的模型目录、压缩技术与评估框架,系统化进行大语言模型的选择、优化与评估。

生成式 AI 应用的构建
利用 RAG、代理式工作流和值得信赖的 AI 实践等行业模式,构建生产就绪型生成式 AI 应用,从基础模型服务升级为交付完整智能解决方案。

学习成果

企业组织获益

  • 企业组织的数据科学工作往往会因大量手动操作,以及 AI 工具(尤其是生成式 AI)集成复杂度的不断提升而进展缓慢。借助红帽 OpenShift AI,企业组织可通过统一平台管理现代 AI 应用的完整生命周期。这种能力让他们能够大规模高效训练、测试、部署和监控预测性 AI 和生成式 AI 模型,将实验性项目转化为可靠的业务成果。

个人获益

  • 完成本课程学习后,您将能够管理现代 AI 应用的完整生命周期,大规模高效训练、测试、部署和监控预测性 AI 及生成式 AI 模型。您将学会配置可协作的数据科学项目、高效使用工作台环境并分配专用资源。您将借助专用运行时完成模型的准备、部署与服务发布。此外,您还将通过创建高级数据科学管道实现 MLOps 工作流的自动化,并构建生产就绪型生成式 AI 解决方案。最后,您将通过监控已部署模型的偏差和数据偏移,确保可靠且合乎道德的 AI 性能,并为生成式应用实施安全防护措施。

下一阶段课程或考试推荐

选择您的地点

更多技能提升途径

尽享双重优势:专家主导的虚拟培训和自定进度学习,更有专家指导与认证考试加持。一切尽在红帽培训订阅。

可提供上门培训

如果您想对整个团队进行培训,可以选择在您的场所或者远程进行。

红帽培训订阅

提供关于红帽产品的全面培训和学习路径、行业认可的认证以及灵活动态的 IT 学习体验。