AI267
在红帽 OpenShift AI 上开发和部署 AI/ML 应用
课程概述
利用红帽 OpenShift AI 大规模实施现代 AI 应用的完整生命周期管理。
“在红帽 OpenShift AI 上开发和部署 AI/ML 应用”(AI267)课程为学员提供了管理现代 AI 应用整个生命周期所需的基础知识。本课程将帮助学员掌握核心技能,让他们能够使用红帽 OpenShift AI 大规模高效训练、测试、部署和监控预测性 AI 及生成式 AI 模型。
本课程基于红帽 OpenShift® 4.18 和红帽 OpenShift AI 2.25。
课程内容摘要
- 红帽 OpenShift AI 简介
- 使用工作台进行 AI/ML 开发
- 模型服务基础知识
- 生成式和预测性 AI 模型服务
- AI 模型监控
- 数据科学管道简介
- Kubeflow 管道高级开发和实验
- 生成式 AI 模型的选择、优化与评估
- 生成式 AI 应用的构建
课程培训对象
- 负责处理 MLOps/LLMOps 生命周期运维任务(如部署、自动化与监控)的 ML 工程师。
- 自主完成模型训练、部署与跟踪的数据科学家。
推荐培训
- 参加免费评估,确定本课程是否契合您的技能水平。
- 掌握机器学习基本原理和工作流程。
- 了解生成式 AI 与大语言模型(LLM)基础知识。
- 具备 Git 基础使用经验
- 具备 Python 开发经验,或已完成红帽 Python 编程(AD141)课程
- 具备红帽 OpenShift 相关经验,或已完成红帽 OpenShift 开发人员二:构建和部署云原生应用(DO288)课程
课程大纲
红帽 OpenShift AI 简介
了解红帽 OpenShift AI 如何提供完整的 MLOps 和 GenAIOps 平台,以及如何使用该平台来配置数据科学项目以促进团队协作。
使用工作台进行 AI/ML 开发
使用工作台环境进行 AI/ML 开发,并将其与数据源及数据存储进行连接。
模型服务基础知识
借助 OpenShift AI 的模型服务功能,完成模型的准备、部署与提供。
生成式和预测性 AI 模型服务
借助专用运行时部署并提供 AI 模型服务,包括用于预测模型的 OpenVINO 以及用于大语言模型的 vLLM。
AI 模型监控
使用 TrustyAI 和可观测性工具监控已部署模型的偏差、数据偏移和性能,以确保在生产环境中实现可靠且合乎道德的 AI 性能。
数据科学管道简介
使用 Elyra 与 Kubeflow SDK 创建和管理基础数据科学管道,以实现核心 AI/ML 工作流的自动化。
Kubeflow 管道高级开发和实验
为生产级 MLOps 工作流实现高级管道功能,包括容器组件、工件管理、Kubernetes 配置和系统化实验。
生成式 AI 模型的选择、优化与评估
借助 RHOAI 的模型目录、压缩技术与评估框架,系统化进行大语言模型的选择、优化与评估。
生成式 AI 应用的构建
利用 RAG、代理式工作流和值得信赖的 AI 实践等行业模式,构建生产就绪型生成式 AI 应用,从基础模型服务升级为交付完整智能解决方案。
企业组织获益
- 企业组织的数据科学工作往往会因大量手动操作,以及 AI 工具(尤其是生成式 AI)集成复杂度的不断提升而进展缓慢。借助红帽 OpenShift AI,企业组织可通过统一平台管理现代 AI 应用的完整生命周期。这种能力让他们能够大规模高效训练、测试、部署和监控预测性 AI 和生成式 AI 模型,将实验性项目转化为可靠的业务成果。
个人获益
- 完成本课程学习后,您将能够管理现代 AI 应用的完整生命周期,大规模高效训练、测试、部署和监控预测性 AI 及生成式 AI 模型。您将学会配置可协作的数据科学项目、高效使用工作台环境并分配专用资源。您将借助专用运行时完成模型的准备、部署与服务发布。此外,您还将通过创建高级数据科学管道实现 MLOps 工作流的自动化,并构建生产就绪型生成式 AI 解决方案。最后,您将通过监控已部署模型的偏差和数据偏移,确保可靠且合乎道德的 AI 性能,并为生成式应用实施安全防护措施。
下一阶段课程或考试推荐
更多技能提升途径
尽享双重优势:专家主导的虚拟培训和自定进度学习,更有专家指导与认证考试加持。一切尽在红帽培训订阅。
可提供上门培训
如果您想对整个团队进行培训,可以选择在您的场所或者远程进行。
红帽培训订阅
提供关于红帽产品的全面培训和学习路径、行业认可的认证以及灵活动态的 IT 学习体验。