AI501

GenAIOps Enablement with Red Hat AI Enterprise

Überblick

Kursbeschreibung

Lernen Sie die Methoden, Kultur und Tools kennen, mit denen Teams gen KI-Anwendungen zuverlässig und effizient entwickeln, bereitstellen und in der Produktion verwalten können.

GenAIOps Enablement with Red Hat AI Enterprise (AI501) ist ein fünftägiger Intensivkurs von Red Hat, in dem Teams die erforderlichen Kompetenzen erwerben, um ihre KI-Vision zu kommunizieren und zu verwirklichen. Zahlreiche KI-Trainingsprogramme konzentrieren sich auf ein bestimmtes Framework oder eine bestimmte Technologie. Dieser Kurs behandelt jedoch, wie die Tools in einem vollständigen Workflow für generative KI-Operationen zusammenwirken, wobei nicht nur das Modell, sondern die KI-gestützte Anwendung als Leistungseinheit betrachtet wird.

Um die Lernziele zu erreichen, sollten die Teilnehmenden mehrere Rollen aus dem gesamten Unternehmen umfassen. KI Engineers, Anwendungsentwicklungsteams, Platform Engineers, Architects und IT-Managementteams können Erfahrungen außerhalb ihrer traditionellen Silo-Strukturen sammeln. Die tägliche Routine simuliert ein reales Bereitstellungsteam, das eine KI-gestützte Anwendung entwickelt. Dabei lernen funktionsübergreifende Teams, wie Zusammenarbeit Innovationen fördert. Dank gemeinsamer Erlebnisse und Best Practices kann das Team das Gelernte anwenden, um die Unternehmenskultur und -mission beim Umsetzen generativer KI-Initiativen zum Erfolg zu führen.

Dieser Kurs basiert auf Red Hat AI Enterprise, einschließlich Red Hat OpenShift AI, sowie auf Red Hat OpenShift GitOps, Red Hat OpenShift Pipelines, generativen KI-Modellen und Open Source Libraries.

Übersicht über den Kursinhalt

Dieser Kurs bietet Ihnen einen umfassenden Überblick von der ersten Experimentierphase bis zur Produktionsbereitstellung einer KI-gestützten Anwendung und ermöglicht dabei die nahtlose Zusammenarbeit verschiedener Rollen auf einer einzelnen Plattform.

  • Verstehen der Grundlagen von gen KI, einschließlich Token, Kontextfenstern und Modellverhalten
  • Experimentieren mit Prompts und Evaluieren Ihrer ersten KI-fähigen Anwendung
  • Einführen einer Orchestrierungsschicht für eine standardisierte gen KI-Entwicklung
  • Implementieren von Retrieval Augmented Generation (RAG) für wissensbasierte Anwendungen
  • Entwickeln autonomer KI-Agenten mit Funktionen zum Aufrufen von Tools
  • Bereitstellen von KI-Sicherheitsrichtlinien und Implementieren von gen KI-Sicherheitspraktiken
  • Aktivieren von Beobachtbarkeit mit Metriken, Protokollierung und Distributed Tracing für gen KI-Systeme
  • Erkunden von Small Language Models und multimodalen Funktionen
  • Optimieren von Modellen durch Quantisierungs- und Komprimierungstechniken
  • Implementieren von MaaS (Models as a Service) für eine skalierbare KI-Infrastruktur

Zielgruppen für diesen Kurs

Dieses Erlebnis verdeutlicht, dass Menschen in unterschiedlichen Rollen lernen müssen, sich auszutauschen, zusammenzuarbeiten und auf ein gemeinsames Ziel hinzuarbeiten, um positive Ergebnisse zu erzielen und generative KI-Innovationen zu fördern.

Dies ist besonders nützlich für:

  • Nutzende von KI-Plattformen: KI Engineers, Anwendungsentwicklungsteams, Data Scientists und Data Engineers, die generative KI-Anwendungen entwickeln
  • Anbieter von KI-Plattformen: ML/GenAIOps Engineers und Platform Engineers, die KI-Infrastruktur bereitstellen und verwalten
  • Sämtliche Stakeholder einer Plattform: Architects und IT-Managementteams, die die Einführungsstrategien für generative KI bewerten und überwachen

Das Szenario umfasst technische Aspekte bei der Arbeit mit LLMs (Large Language Models) und generativen KI-Systemen und bietet praktische Einblicke, wie diese Rollen ihre Arbeit abstimmen können.

Voraussetzungen für diesen Kurs

Inhalt

Kursinhalte

Zentrale Grundlagen

  • gen KI-Grundlagen

    Erfahren, was GenAIOps ist und wie Large Language Models funktionieren, einschließlich Tokenisierung, Kontextfenstern und der Faktoren, die das Verhalten und die Performance von Modellen beeinflussen

  • Experimentieren mit Prompts

    Erfahren, wie mit System-Prompts und Nutzer-Prompts effektive Prompts erstelllt, Temperatur- und Ausgabeparameter konfiguriert und Prompts für bestimmte Use Cases optimiert werden können

  • Evaluierung Ihrer ersten KI-fähigen Anwendung

    Implementieren einer Prompt-Versionierung, Aufbau von Evaluierungspipelines, Automatisieren von Tests sowie systematisches Bewerten der Anwendungsqualität

  • Einführung in die Orchestrierungsebene

    Einführen einer Orchestrierungsebene zur Erstellung von gen KI-Anwendungen, Bereitstellen von Backend Services und Implementieren von GitOps-Praktiken für Continuous Deployment

Fortgeschrittene Themen

  • Integration und Orchestrierung

    Bereitstellen von Vektordatenbanken, Erstellen von RAG-Pipelines für kenntnisbasierte Anwendungen, Implementieren von Tool Calling und Erstellen autonomer KI-Agenten

  • Sicherheit und Beobachtbarkeit

    Bereitstellen von KI-Sicherheitsrichtlinien, Implementieren von gen KI-Sicherheitspraktiken und der 3 Säulen der Beobachtbarkeit: Metriken, Protokolle und Traces

  • Modellierungstechniken

    Kennenlernen von Small Language Models für effizientes Deployment und multimodale Modellfunktionen für die Verarbeitung unterschiedlicher Eingabetypen

  • Optimierung und Deployment

    Anwenden von Quantisierungs- und Komprimierungstechniken für verbesserte Performance, Untersuchen von Fine Tuning-Ansätzen, Implementieren von Models as a Service (MaaS) und Zusammenführen dieser Faktoren in einem Produktiv-Deployment

Ergebnisse

Auswirkungen auf die Organisation

  • Viele Unternehmen sehen sich mit operativer Komplexität und einer Vielzahl unterschiedlicher Tools in verschiedenen Teams konfrontiert. Prompt- und Konfigurationsabweichungen führen zu inkonsistenten Ergebnissen, Qualitätsrückgängen, die mit Änderungen einhergehen, unkontrollierten Groundings, die zu Halluzinationen führen, Sicherheitsrisiken durch Prompt Injection und schädliche Inhalte sowie unvorhersehbaren Latenzen und Kosten, die ein Skalieren verhindern. Mit GenAIOps lassen sich diese Herausforderungen durch Standardisierung, die Behandlung von Prompts und Konfigurationen als Code, kontinuierliche automatisierte Bewertungen, geregelte RAG, plattformgestützte Sicherheitsvorkehrungen und End-to-End-Beobachtbarkeit bewältigen.
  • In diesem Kurs werden reale GenAIOps-Kulturprinzipien und moderne Praktiken vorgestellt. Sie erleben einen KI-gestützten, durchgehenden Anwendungs-Lifecycle, von der Prompt- und Konfigurationsversionierung über das Deployment und die kontinuierliche Bewertung bis hin zu Day 2-Operationen. Am Ende des Kurses verfügen Sie über die erforderlichen Kenntnisse, um GenAIOps-Prinzipien anzuwenden und Red Hat AI Enterprise zu nutzen, um generative KI-Transformationsinitiativen in Ihrem Unternehmen umzusetzen und zu leiten.

Auswirkungen auf Einzelne 

  • Nach Abschluss dieses Kurses verfügen Sie über fundierte Kenntnisse hinsichtlich gen KI-Plattform, verstehen die Positionierung von Red Hat AI Enterprise innerhalb des GenAIOps-Ökosystems und haben einen umfassenden Einblick in den gesamten Lifecycle einer KI-gestützten Anwendung erhalten. Sie erlernen praktische Vorgehensweisen zum Entwickeln, Bereitstellen und Ausführen KI-gestützter Anwendungen in großem Umfang und erfahren, wie Sie diese vom Prototyp bis zur Produktion umsetzen und deren Zuverlässigkeit gewährleisten können.

Empfohlene Anschlusskurse oder Prüfungen

Wählen Sie Ihren Standort aus

Mehr Möglichkeiten zur Weiterentwicklung Ihrer Kompetenzen

Das Beste aus beiden Welten: von Expertinnnen und Experten geleitetes virtuelles Training und selbstbestimmtes Lernen, dazu fachkundige Unterstützung und eine Zertifizierungsprüfung. All das ist in der Red Hat Learning Subscription enthalten.

Onsite-Training verfügbar

Wenn Ihr gesamtes Team geschult werden soll, können wir das Training bei Ihnen vor Ort durchführen – als Remote- oder Präsenzschulung.

Red Hat Learning Subscription

Umfassende Trainings und Lernpfade zu Produkten von Red Hat, branchenweit anerkannte Zertifizierungen und ein flexibles, dynamisches IT-Lernerlebnis.