Überblick
Kubernetes kann Sie bei Ihren KI/ML-Workloads unterstützen, indem es Code zur Verfügung stellt, der konsistent reproduzierbar, portierbar und in verschiedenen Umgebungen skalierbar ist.
Die Rolle von Containern in der KI/ML-Entwicklung
Bei der Erstellung von Anwendungen, die Machine Learning-fähig sind, gibt es keinen linearen Workflow. Die Phasen der Forschung, Entwicklung und Produktion sind in ständiger Bewegung, da Teams nach dem CI/CD-Prinzip arbeiten (Continuous Integration and Continuous Delivery). Dieser Prozess beinhaltet das Erstellen, Testen, Zusammenfügen und Bereitstellen neuer Daten, Algorithmen und Versionen einer Anwendung. Dies sorgt für viele verschiedene Puzzleteile, die sich oft nur schwer verwalten lassen. Hier kommen Container ins Spiel.
Container sind eine Linux-Technologie, die es Ihnen ermöglicht, Anwendungen zusammen mit den zur Ausführung benötigten Libraries und Abhängigkeiten zu paketieren und zu isolieren. Container benötigen kein komplettes Betriebssystem, sondern nur die genauen Komponenten, die zur Ausführung erforderlich sind. Dadurch sind sie schlank und portierbar. Das ermöglicht eine vereinfachte Bereitstellung für Abläufe und gibt Entwicklungsteams die Sicherheit, dass ihre Anwendungen auf verschiedenen Plattformen oder Betriebssystemen auf dieselbe Art und Weise ausgeführt werden.
Ein weiterer Vorteil von Containern ist, dass sie dazu beitragen, Konflikte zwischen Ihren Entwicklungs- und Operations-Teams zu reduzieren, da die Zuständigkeiten getrennt sind. Wenn Entwicklungsteams sich auf ihre Apps und Operations-Teams sich auf die Infrastruktur konzentrieren können, sorgt dies für eine nahtlose und einfache Integration von neuem Code in eine Anwendung, die im Laufe Ihres Lifecycles wächst und sich verändert.
Red Hat Ressourcen
Welche Vorteile Kubernetes für KI/ML-Workloads hat
Kubernetes ist eine Open Source-Plattform, die Linux-Container-Abläufe automatisiert, indem sie viele manuelle Prozesse eliminiert, die mit dem Deployment und der Skalierung von containerisierten Anwendungen einhergehen. Kubernetes ist entscheidend, wenn es um die Optimierung des Machine Learning-Lifecycles geht. Es bietet Data Scientists die beim Trainieren, Testen und Bereitstellen von ML-Modellen erforderliche Agilität, Flexibilität, Portierbarkeit und Skalierbarkeit.
Skalierbarkeit: Mit Kubernetes können Nutzende ML-Workloads je nach Bedarf vertikal oder horizontal skalieren. So können sie dafür sorgen, dass ML-Pipelines umfangreiche Verarbeitungs- und Trainingsaufgaben übernehmen können, ohne andere Elemente des Projekts zu beeinträchtigen.
Effizienz: Kubernetes optimiert die Ressourcenzuweisung, indem Workloads auf der Basis ihrer Verfügbarkeit und Kapazität auf Nodes verteilt werden. Durch eine gezielte Nutzung der Computerressourcen können Nutzende niedrigere Kosten und eine höhere Performance erwarten.
Portierbarkeit: Kubernetes bietet eine standardisierte, plattformunabhängige Umgebung, mit der Data Scientists ein ML-Modell entwickeln und in verschiedenen Umgebungen und Cloud-Plattformen bereitstellen können. Sie müssen sich also keine Gedanken über Kompatibilitätsprobleme und Vendor Lock-in machen.
Fehlertoleranz: Dank der integrierten Fehlertoleranz und Selbstreparaturfunktionen können sich Nutzende darauf verlassen, dass Kubernetes auch im Falle eines Hardware- oder Softwarefehlers ML-Pipelines weiter ausführt.
Bereitstellung von ML-Modellen auf Kubernetes
Der Machine Learning-Lifecycle besteht aus vielen verschiedenen Elementen, die sich bei einer separaten Verwaltung nur zeitaufwendig und ressourcenintensiv ausführen und managen lassen. Mit einer Kubernetes-Architektur können Organisation Teile des ML-Lifecycles automatisieren. Dadurch ist kein manuelles Eingreifen mehr nötig, und die Effizienz kann gesteigert werden.
Toolkits, wie etwa Kubeflow, können implementiert werden, um Entwicklungsteams bei der Optimierung und Bereitstellung der trainierten ML-Workloads auf Kubernetes zu unterstützen. Kubeflow löst viele der Herausforderungen, die mit der Orchestrierung von ML-Pipelines verbunden sind, und bietet Tools und APIs, die den Trainings- und Deployment-Prozess von ML-Modellen in großem Umfang vereinfachen. Kubeflow hilft weiterhin bei der Standardisierung und Organisation von MLops (Machine Learning Operations).
Wie Red Hat helfen kann
Red Hat® OpenShift® ist eine der führenden Hybrid Cloud-Anwendungsplattformen auf Basis von Kubernetes und bietet getestete und bewährte Services sowie ein konsistentes Erlebnis in Public Clouds, On-Premise-Hybrid Clouds und Edge-Architekturen.
Red Hat OpenShift Data Science ist Teil des OpenShift-KI-Portfolios und ein Service für Red Hat OpenShift, der Data Scientists und Entwicklungsteams eine konsistente, leistungsstarke KI/ML-Plattform zur Entwicklung intelligenter Anwendungen bietet. Neben der Erstellung von Kernmodellen und der Durchführung von Experimenten bietet OpenShift Data Science auch Funktionen für MLOps, einschließlich Modellbereitstellung und -überwachung, um Modelle schneller in die Produktion zu bringen.
Der offizielle Red Hat Blog
Lernen Sie mehr über unser Ökosystem von Kunden, Partnern und Communities und erfahren Sie das Neueste zu Themen wie Automatisierung, Hybrid Cloud, KI und mehr.