KI/ML-Einsatz in Red Hat OpenShift
KI/ML in Red Hat OpenShift beschleunigt KI/ML-Workflows und die Bereitstellung von KI-basierten intelligenten Anwendungen mit selbst gemanagtem Red Hat OpenShift oder unserem KI/ML-Cloud-Service.
KI/ML-Workloads mit OpenShift schneller bereitstellen Dauer des Videos: 3:00
MLOps mit Red Hat OpenShift
Red Hat OpenShift enthält wichtige Funktionen, mit denen Sie MLOps (Machine Learning Operations) konsistent in Rechenzentren, Public-Cloud-Computing- und Edge-Computing-Umgebungen einsetzen können.
Durch die Anwendung von DevOps- und GitOps-Prinzipien automatisieren und vereinfachen Unternehmen den iterativen Prozess der Integration von ML-Modellen in Softwareentwicklungsprozesse, Produktions-Rollout, Überwachung, erneutes Training und erneute Bereitstellung für kontinuierliche Vorhersagegenauigkeit.
Was ist ein ML-Lifecycle?
Ein mehrphasiger Prozess, bei dem die Leistung von großen Datenvolumen verschiedenster Art, ausgiebigem Computing und Open Source-ML-Tools genutzt werden, um intelligente Anwendungen zu entwickeln.
Größte Herausforderungen für Data Scientists
Data Scientists sind in erster Linie für ML-Modellierung verantwortlich und stellen dabei sicher, dass das ausgewählte Modell stets die höchste Genauigkeit bei Vorhersagen bietet.
Die größten Herausforderungen für Data Scientists:
- Auswahl und Bereitstellung der richtigen ML-Tools (darunter Apache Spark, Jupyter Notebook TensorFlow, PyTorch usw.)
- Komplexität und erforderliche Zeit für Training, Tests, Auswahl und erneutes Training des ML-Modells mit der höchsten Vorhersagegenauigkeit
- Langsame Ausführung von Modell- und Inferenzaufgaben ohne Hardware-Beschleunigung
- Wiederholtes Warten auf Provisionierung und Verwaltung der Infrastruktur durch IT-Operations
- Zusammenarbeit mit Data Engineers und Softwareentwicklungsteams für die Sicherstellung der Datenhygiene und erfolgreiche Bereitstellung des ML-Modells im Anwendungsentwicklungsprozess
Intelligente Anwendungen entwickeln und verwalten
Red Hat® OpenShift® ist eine integrierte Anwendungsplattform für die Verwaltung des KI/ML-Lifecycles in Hybrid Cloud-Umgebungen und am Edge. OpenShift vereinfacht die Bereitstellung von KI-Lösungen auf konsistente Weise und in großem Umfang durch die Bereitstellung von Self-Service-Zugriffen zu kollaborativen Workflows, intensiver Rechenleistung (GPUs) und optimierten Abläufen.
Red Hat OpenShift AI
Red Hat OpenShift AI umfasst Tools für den gesamten Lebenszyklus von KI/ML-Experimenten und -Modellen für Data Scientists und Entwickler von intelligenten Anwendungen. Dieser bietet eine vollständig unterstützte Sandbox, in der ML-Modelle (Machine Learning) im Handumdrehen in der Public Cloud entwickelt, trainiert und getestet werden können, bevor sie in der Produktivumgebung bereitgestellt werden.
Vorteile von Red Hat OpenShift für ML-Initiativen
Unterstützung von Data Scientists
- Konsistentes Self-Service-Cloud-Erlebnis für Data Scientist in der gesamten Hybrid Cloud
- Flexibilität und Portierbarkeit für die Nutzung der containerisierten ML-Tools ihrer Wahl zum schnellen Entwickeln, Skalieren, Reproduzieren und Teilen von ML-Modellen
- Verwendung der relevanten ML-Tools über Red Hat zertifizierte Kubernetes Operators sowohl für die selbst gemanagte Option als auch über unseren KI-Cloud Service
- Kein Warten auf die Provisionierung der Infrastruktur durch IT-Teams für iterative, rechenintensive ML-Modellierungsaufgaben
- Keine Bedenken hinsichtlich Bindung an bestimmte Cloud-Anbieter mit dem jeweiligen Set an ML-Tools
- Enge Integration in CI/CD-Tools zur schnellen, iterativen Bereitstellung von ML-Modellen ganz nach Bedarf
Beschleunigung rechenintensiver ML-Modellierungsjobs
Durch nahtlose Integrationen in beliebte Hardware-Beschleuniger wie NVIDIA GPUs über Red Hat zertifizierte GPU-Operatoren kann OpenShift die hohen Rechenressourcen-Anforderungen problemlos erfüllen. Diese sind für die Auswahl des besten ML-Modells mit der höchsten Vorhersagegenauigkeit sowie für die Ausführung von ML-Inferenzaufgaben erforderlich, wenn das Modell in der Produktion neue Daten verarbeitet.
Entwicklung intelligenter Apps
Dank der integrierten DevOps-Funktionen von OpenShift können Sie mit MLOps die Bereitstellung von KI-basierten Anwendungen beschleunigen. Außerdem wird der iterative Prozess vereinfacht, bei dem die ML-Modelle integriert und für eine bessere Vorhersagegenauigkeit kontinuierlich neu bereitgestellt werden.
Die Ausweitung der DevOps-Automatisierungsmöglichkeiten von OpenShift auf den ML-Lifecycle unterstützt die Zusammenarbeit zwischen Data Scientists, Softwareentwicklungs- und IT-Operations-Teams. So können ML-Modelle schneller in die Entwicklung intelligenter Anwendungen integriert werden. Außerdem wird dadurch die Produktivität gefördert und das Lifecycle-Management von ML-basierten intelligenten Anwendungen vereinfacht.
- Entwicklung aus der Registry der Container-Modell-Images mit OpenShift Build
- Kontinuierliche iterative Entwicklung von auf intelligenten Anwendungen basierenden ML-Modellen mit OpenShift Pipelines
- Kontinuierliche Bereitstellungsautomatisierung der auf intelligenten Anwendungen basierenden ML-Modelle mit OpenShift GitOps
- Image-Repository zur Versionsverwaltung von Container-Modell-Images und Microservices mit Red Hat Quay
Wichtige Uses Cases für Machine Learning auf Red Hat OpenShift
OpenShift unterstützt Unternehmen verschiedenster Branchen dabei, die geschäftliche Weiterentwicklung und geschäftskritische Initiativen zu beschleunigen – durch die Entwicklung intelligenter Anwendungen in der Hybrid Cloud. Die Use Cases umfassen etwa Betrugserkennung, datengestützte Gesundheitsdiagnostik, vernetzte Autos, Erdöl- und Erdgaserschließung, automatisierte Versicherungsangebote und Schadensabwicklung.
Das KI/ML-Partnernetzwerk von Red Hat
Use Cases für transformative KI/ML finden sich in vielen Branchen, darunter im Gesundheitswesen, bei Finanzdienstleistern sowie in der Telekommunikations- und Automobilbranche. Red Hat hat ein robustes Partnernetzwerk aufgebaut und bietet so Komplettlösungen zum Entwickeln, Bereitstellen und Verwalten von ML- und Deep Learning-Modellen für KI-gestützte, intelligente Anwendungen.
Success Stories
Mit dem Ziel, regionale Unternehmen und Organisationen mit Edge Computing-Datenanalysen zu versorgen, hat NTT East kürzlich seinen Video-KI-Service auf Basis von Red Hat OpenShift gestartet.
Durch den Edge Computing-Ansatz von NTT konnten Organisationen und Unternehmen, die die neuesten KI-Funktionen integrieren, ihren Umsatz um 144 % steigern, Ladendiebstähle um 30–40 % reduzieren und gleichzeitig den Kundenservice verbessern.
In Zusammenarbeit mit Red Hat Consulting entwickelte Banco Galicia eine KI-basierte, intelligente Lösung für NLP (Natural Language Processing) auf Basis von Red Hat OpenShift und konnte die Verifikationszeiten mit einer Genauigkeit von 90 % von Tagen auf Minuten reduzieren und die Ausfallzeiten der Anwendung um 40 % senken.
Unternehmensgerechte KI
Die Kombination aus Red Hat OpenShift und der Software-Suite NVIDIA AI Enterprise, die auf NVIDIA-zertifizierten Systemen ausgeführt wird, bietet eine leistungsfähige, skalierbare Plattform, mit der sich vielfältige Use Cases für KI beschleunigen lassen. Die Plattform umfasst wichtige Technologien von NVIDIA und Red Hat, für die sichere und konsistente Bereitstellung, Verwaltung und Skalierung von KI-Workloads in Hybrid Cloud-, Bare Metal- oder virtualisierten Umgebungen.