AI267

Developing and Deploying AI/ML Applications on Red Hat OpenShift AI

Überblick

Kursbeschreibung

Operationalisierung des gesamten Lifecycles moderner KI-Anwendungen in großem Umfang mit Red Hat OpenShift AI

Developing and Deploying AI/ML Applications on Red Hat OpenShift AI (AI267) vermittelt den Kursteilnehmenden grundlegende Kenntnisse zur Verwaltung des gesamten Lifecycles moderner KI-Anwendungen. In diesem Kurs können Teilnehmende wichtige Kompetenzen erwerben, um mit Red Hat OpenShift AI prädiktive und generative KI-Modelle in großem Umfang effizient zu trainieren, zu testen, bereitzustellen und zu überwachen. 

Dieser Kurs basiert auf Red Hat OpenShift® 4.18 und Red Hat OpenShift AI 2.25.

Übersicht über den Kursinhalt

  • Einführung in Red Hat OpenShift AI
  • Verwendung von Workbenches für die KI/ML-Entwicklung
  • Grundlagen der Modellbereitstellung
  • Bereitstellung von generativen und prädiktiven KI-Modellen
  • Überwachung von KI-Modellen
  • Einführung in Data Science Pipelines
  • Erweiterte Entwicklung und Experimente mit Kubeflow-Pipelines
  • Auswahl, Optimierung und Bewertung von GenAI-Modellen
  • Erstellung von GenAI-Anwendungen

Zielgruppe

  • ML Engineers, die für die operativen Aufgaben des MLOps/LLMOps-Lifecycles verantwortlich sind, wie etwa Deployment, Automatisierung und Überwachung
  • Data Scientists, die ihre eigenen Modelle trainieren, bereitstellen und nachverfolgen 

Empfohlenes Training

Inhalt

Kursinhalte 

Einführung in Red Hat OpenShift AI
Erfahren, wie Red Hat OpenShift AI eine vollständige MLOps- und GenAIOps-Plattform bietet und wie Sie damit Data Science-Projekte für die Zusammenarbeit im Team konfigurieren können

Verwendung von Workbenches für die KI/ML-Entwicklung
Workbench-Umgebungen für die KI/ML-Entwicklung verwenden und sie mit Datenquellen und -speichern verbinden

Grundlagen der Modellbereitstellung
Modelle mithilfe der Modellbereitstellungsfunktionen von OpenShift AI vorbereiten und bereitstellen

Bereitstellung von generativen und prädiktiven KI-Modellen
KI-Modelle mit spezifischen Runtimes bereitstellen, darunter OpenVINO für prädiktive Modelle und vLLM für LLMs

Überwachung von KI-Modellen
Bereitgestellte Modelle mit TrustyAI und Beobachtbarkeits-Tools auf Verzerrung, Datendrift und Performance überwachen, um für eine zuverlässige und ethische KI-Performance in der Produktion zu sorgen 

Einführung in Data Science Pipelines
Grundlegende Data Science Pipelines mit Elyra und dem Kubeflow-SDK zur Automatisierung grundlegender KI/ML-Workflows erstellen und verwalten

Erweiterte Entwicklung und Experimente mit Kubeflow-Pipelines
Erweiterte Pipeline-Features wie Container-Komponenten, Artefaktverwaltung, Kubernetes-Konfiguration und systematisches Experimentieren für MLOps-Produktions-Workflows implementieren

Auswahl, Optimierung und Bewertung von GenAI-Modellen
LLMs mithilfe des Modellkatalogs, der Komprimierungstechniken und der Bewertungs-Frameworks von RHOAI systematisch auswählen, optimieren und bewerten

Erstellung von GenAI-Anwendungen
Produktionsbereite GenAI-Anwendungen unter Verwendung von Branchenmustern wie RAG, agentischen Workflows und vertrauenswürdigen KI-Praktiken entwickeln und über die grundlegende Modellbereitstellung hinausgehen – bis hin zur Bereitstellung vollständiger intelligenter Lösungen

Ergebnisse

Auswirkungen auf die Organisation

  • Die Data Science-Initiativen von Unternehmen werden häufig durch manuelle Aufgaben und die zunehmende Komplexität beim Integrieren von KI-Tools verlangsamt, insbesondere bei generativer KI. Mit Red Hat OpenShift AI erhalten Unternehmen eine einheitliche Plattform, auf der sie den gesamten Lifecycle moderner KI-Anwendungen verwalten können. Diese Fähigkeit ermöglicht ihnen ein effizientes Trainieren, Testen, Bereitstellen und Überwachen sowohl prädiktiver als auch generativer KI-Modelle in großem Umfang, sodass experimentelle Initiativen in zuverlässige Geschäftsergebnisse umgewandelt werden.

Auswirkungen auf Einzelne

  • Nach Abschluss dieses Kurses sind Sie in der Lage, den gesamten Lifecycle moderner KI-Anwendungen zu verwalten, indem Sie sowohl prädiktive als auch generative KI-Modelle in großem Umfang effizient trainieren, testen, bereitstellen und überwachen. Sie lernen, wie Sie kollaborative Data Science-Projekte konfigurieren, Workbench-Umgebungen effizient nutzen und spezialisierte Ressourcen zuweisen. Sie bereiten Modelle mithilfe spezialisierter Runtimes vor und stellen sie bereit. Darüber hinaus automatisieren Sie MLOps-Workflows, indem Sie erweiterte Data Science-Pipelines erstellen und produktionsbereite GenAI-Lösungen entwickeln. Schließlich sorgen Sie für eine zuverlässige und ethische KI-Performance, indem Sie die bereitgestellten Modelle auf Verzerrung und Datendrift überwachen und Sicherheitsleitplanken für generative Anwendungen implementieren.

Empfohlene Anschlusskurse oder Prüfungen

Wählen Sie Ihren Standort aus

Mehr Möglichkeiten zur Weiterentwicklung Ihrer Kompetenzen

Das Beste aus beiden Welten: von Expertinnnen und Experten geleitetes virtuelles Training und selbstbestimmtes Lernen, dazu fachkundige Unterstützung und eine Zertifizierungsprüfung. All das ist in der Red Hat Learning Subscription enthalten.

Onsite-Training verfügbar

Wenn Ihr gesamtes Team geschult werden soll, können wir das Training bei Ihnen vor Ort durchführen – als Remote- oder Präsenzschulung.

Red Hat Learning Subscription

Umfassende Trainings und Lernpfade zu Produkten von Red Hat, branchenweit anerkannte Zertifizierungen und ein flexibles, dynamisches IT-Lernerlebnis.