AI500

MLOps Practices with Red Hat OpenShift AI

Überblick

Kursbeschreibung

Erleben Sie durch die bewährte offene Kultur und Praktiken, die Red Hat zur Unterstützung von Kundeninnovationen einsetzt, die Möglichkeiten von MLOps.

  • Der Kurs MLOps Practices with Red Hat OpenShift AI (AI500) ist ein fünftägiger Intensivkurs, der den Teilnehmenden die Möglichkeit bietet, eine erfolgreiche MLOps-Einführung zu erleben und zu implementieren. Während sich viele KI- oder Data-Science-Trainingsprogramme auf ein bestimmtes Framework oder eine bestimmte Technologie konzentrieren, wird in diesem Kurs erläutert, wie die besten Open Source-Tools in einem vollständigen MLOps-Workflow zusammenarbeiten. Die Plattform vereint Continuous Discovery, Continuous Training und Continuous Delivery in einem hochinteressanten Erlebnis, das reale ML-Szenarien simuliert.
  • Um die Lernziele zu erreichen, sollten die Teilnehmenden mehrere Rollen aus dem gesamten Unternehmen umfassen. Data Scientists, Machine Learning Engineers, Platform Engineers, Architekten und Produkteigentümer sammeln Erfahrungen, wenn sie über ihre traditionellen Silos hinaus arbeiten. Die tägliche Routine simuliert ein reales Bereitstellungsteam, in dem funktionsübergreifende Teams lernen, wie Zusammenarbeit Innovationen fördert. Dank gemeinsamer Erfahrungen und Best Practices kann das Team das Gelernte anwenden, um die Unternehmenskultur und -mission bei der Verfolgung neuer Projekte und verbesserter Prozesse zum Erfolg zu führen.
  • Dieser Kurs basiert auf Red Hat OpenShift AI, Red Hat OpenShift GitOps und Predictive AI

Übersicht über den Kursinhalt

  • Dieser Kurs durchläuft einen Use Case für eine prädiktive intelligente Anwendung von der Idee über das Experimentieren mit der internen Schleife bis hin zur Produktion. Dabei werden verschiedene Personas zusammengebracht, damit sie nahtlos auf einer Plattform zusammenarbeiten können.
  • In diesem Kurs werden kulturelle und technische Praktiken zu einem besonderen, motivierenden Erlebnis verbunden, das vollgepackt ist mit realen Anwendungen. Sie lernen MLOps-Praktiken kennen und erfahren, wie diese aufeinander aufbauen können, um die Teamausrichtung und Bereitstellungseffizienz zu verbessern.
  • Da sich die meisten KI-Trainings auf ein bestimmtes Framework oder eine bestimmte Technologie konzentrieren, werden in diesem Kurs die besten Open Source-Tools kombiniert und Sie erfahren, wie sie KI-Modelle in der Produktion zuverlässig und effizient erstellen, bereitstellen und warten.

Zielgruppe

Diese Erfahrung zeigt, wie Einzelpersonen in verschiedenen Rollen lernen müssen, sich auszutauschen, zusammenzuarbeiten und auf ein gemeinsames Ziel hinzuarbeiten, um positive Ergebnisse zu erzielen und Innovationen zu fördern.

Dies ist besonders nützlich für:

  • Nutzende der MLOps-Plattform: Data Scientists, Data Engineers und Anwendungsentwicklungsteams.
  • MLOps-Plattformanbieter: Machine Learning Engineers, MLOps Engineers und Platform Engineers.
  • Stakeholder der MLOps-Plattform: Architects und IT-Manager.

Das Szenario umfasst technische Aspekte bei der Arbeit mit ML-Systemen und bietet praktische Einblicke, wie diese Rollen ihre Arbeit abstimmen können.

In diesem Kurs erlernen Sie, wie Sie Ihren Kunden kontinuierlich einen Mehrwert bieten, indem Sie neue Modelle schneller auf den Markt bringen. Unsere Trainer berichten von ihren Erfahrungen und Best Practices, die sie im Rahmen der direkten Zusammenarbeit mit Kunden im Rahmen von Red Hat Services erlangt haben.

Voraussetzungen für diesen Kurs

Inhalt

Kursinhalte

Was ist MLOps?

Herausfinden, welche Prinzipien, Praktiken und kulturellen Elemente ein MLOps-Modell für die Entwicklung und Bereitstellung von ML-Modellen ausmachen.

Innere Schleife

Mit den notwendigen Tools vertraut machen, um unser Modell zu testen und zu entwickeln. Wir erstellen eine Workbench, untersuchen den Datensatz, verfolgen unsere Experimente und stellen unsere Modelle bereit.

Trainings-Pipelines

Zur Automatisierung der vorherigen Schritte zur produktiven Durchführung unseres Modelltrainings übergehen.

Äußere Schleife

Einführung in MLOps: eine Reihe von Praktiken, mit denen Workflows und Deployments für maschinelles Lernen automatisiert und vereinfacht werden.
Hier erstellen wir unsere MLOps-Umgebung, in der die Continuous Training Pipeline, das automatisierte Deployment und die unterstützenden Tools ausgeführt werden.

Überwachung

ML-Modelle können durch verschiedene Faktoren beeinflusst werden, darunter Änderungen von Datenmustern, Veränderungen im Nutzerverhalten und sich ändernde externe Bedingungen. Durch die Implementierung einer kontinuierlichen Überwachung identifizieren wir diese Änderungen proaktiv, bewerten ihre Auswirkungen auf die Modellgenauigkeit und nehmen notwendige Anpassungen vor, um eine optimale Performance zu gewährleisten.

Datenversionierung

Nachverfolgbarkeit durch Einführung der Versionierung für unsere Datensätze verbessern, da diese sich im Laufe der Zeit ändern.

Advanced Deployments

Vor- und Nachbereitung von Daten und Vorhersagen korrekt durchführen, die automatische Skalierung zur Bewältigung von Lasten und Einführung fortschrittlicher Bereitstellungsmuster wie Canary- und Blue-Green-Bereitstellungen prüfen, um sichere und nahtlose Rollouts von Modellen zu gewährleisten.

Feature Stores

Robuste Methoden für den Umgang mit Daten-Features und deren Änderungen sowie Sicherstellung, dass die Features zwischen Training und Serving homogen bleiben.

Sicherheit

Automatisierte Sicherheitsrichtlinien implementieren, um die Compliance mit den Sicherheitspraktiken des Unternehmens zu gewährleisten, und erweitern Sie diese auf die Modelle.

Ergebnisse

Auswirkungen auf die Organisation

  • Viele Unternehmen stellen fest, dass ihre aktuelle Organisationsstruktur und ihre Ansätze für Machine Learning nicht in der Lage sind, KI-gesteuerte Transformationsergebnisse zu erzielen: ein schnelleres Deployment von Modellen, kontinuierliche Verbesserungen durch Feedbackschleifen und Lösungen, die auf die Anforderungen der Nutzenden abgestimmt sind. Um diese Ziele zu erreichen, müssen Unternehmen MLOps-Prinzipien und -Methoden einführen und praktizieren sowie Zusammenarbeit, Automatisierung und Lifecycle-Management in ihre KI-Workflows integrieren.
  • In diesem Kurs werden reale MLOps-Kulturprinzipien und moderne Praktiken vorgestellt. Sie entwickeln mithilfe von Red Hat OpenShift und Red Hat OpenShift AI ein prädiktives Machine Learning-Modell sowie weitere MLOps-Software, -Tools und -Techniken, die den Branchenstandards entsprechen. Am Ende des Kurses sind Sie in der Lage, MLOps-Prinzipien anzuwenden und Open Source-Lösungen zu nutzen, um KI-Transformationsinitiativen in Ihrem Unternehmen voranzutreiben und zu leiten.

Auswirkungen auf Einzelne

Nach Abschluss dieses Kurses lernen Sie die MLOps-Kultur und MLOps-Praktiken besser kennen und wenden das Erlernte an, um ein ML-Modell in die Produktion zu übertragen. Nach Abschluss dieses Kurses haben Sie folgende Lernziele erreicht:

  • MLOps-Prinzipien anwenden, um die Entwicklung und Bereitstellung von ML-Modellen zu optimieren
  • Praktische Erfahrungen mit modernen Tools und Prozessen sammeln, die den gesamten Lifecycle von der Entwicklung der inneren Schleife bis zum Betrieb der äußeren Schleife abdecken
  • Ihre Kompetenzen bei kollaborativen Programmierstilen mit Pair- und Mob-Programmierung verbessern

Wählen Sie Ihren Standort aus

Onsite-Training verfügbar

Wenn Ihr gesamtes Team geschult werden soll, können wir das Training bei Ihnen vor Ort durchführen – als Remote- oder Präsenzschulung.

Red Hat Learning Subscription

Umfassende Trainings und Lernpfade zu Produkten von Red Hat, branchenweit anerkannte Zertifizierungen und ein flexibles, dynamisches IT-Lernerlebnis.

Erfahren Sie, was andere Teilnehmende in unserer Red Hat Learning Community über diesen Kurs denken.