Überblick
Edge Machine Learning bezieht sich auf den Prozess der Ausführung von Machine Learning-Modellen (ML) auf einem Edge-Gerät, um Muster in Datensätzen zu sammeln, zu verarbeiten und zu erkennen.
Was ist Machine Learning am Edge?
Um Machine Learning am Edge am besten zu erklären, lassen Sie uns zunächst die beiden Komponenten aufschlüsseln, aus denen es besteht: Machine Learning und Edge Computing.
- Machine Learning ist eine Teilmenge der künstlichen Intelligenz (KI), bei der die KI in der Lage ist, Wahrnehmungsaufgaben in einem Bruchteil der Zeit auszuführen, die ein Mensch benötigen würde.
- Edge Computing bezieht sich auf den Vorgang, bei dem Computing-Services physisch näher an die Nutzenden oder die Quelle der Daten gebracht werden. Diese Computing-Services befinden sich auf sogenannten Edge-Geräten, einem Computer, der die Erfassung und Verarbeitung von Rohdaten in Echtzeit ermöglicht, was zu einer schnelleren und zuverlässigeren Analyse führt.
Machine Learning am Edge bietet die Möglichkeit, Machine Learning-Modelle lokal auf Edge-Geräten wie dem Internet of Things (IoT) auszuführen.
Was macht Edge besser?
Mit steigenden Kundenerwartungen steigt auch die Nachfrage nach schneller, sicherer Rechenleistung.
Interaktionen zwischen Unternehmen und Kunden bestehen heute oft aus einer Mischung aus Hybridtechnologien und Touchpoints, die einen einfachen Zugriff auf Geräte, Daten und Anwendungen erfordern. Dies ermöglicht neue Prozesse und ein positives End-to-End-Benutzererlebnis.
Bisher erfolgte diese Verarbeitung durch den Transport von Datensätzen zu entfernten Clouds über Netzwerke. Aufgrund des langen Weges, den die Daten zwischen den Zielen zurücklegen müssen, kann dies zu Problemen führen, mit voller Kapazität zu arbeiten. Die Folgen können von Latenzen bis zu Sicherheitsverletzungen reichen.
Mit Edge Computing können Sie KI/ML-basierte Anwendungen physisch näher an Datenquellen wie Sensoren, Kameras und Mobilgeräte bringen, um schneller Erkenntnisse zu gewinnen, Muster zu erkennen und dann Aktionen einzuleiten, ohne sich auf herkömmliche Cloud-Netzwerke verlassen zu müssen.
Erstellen einer Edge-Strategie
Edge Computing ist ein wichtiger Bestandteil der Vision einer Open Hybrid Cloud, die Ihnen ein einheitliches Anwendungs- und Betriebserlebnis bietet – und zwar durch eine gemeinsame, horizontale Plattform in der gesamten Architektur.
Eine Hybrid Cloud-Strategie ermöglicht es Unternehmen, Workloads sowohl in ihren eigenen Rechenzentren als auch in einer Public Cloud-Infrastruktur auszuführen (wie Amazon Web Services, Microsoft Azure oder Google Cloud). Die Edge-Strategie geht noch weiter und ermöglicht es Cloud-Umgebungen, Standorte zu erreichen, die zu weit entfernt sind, um eine kontinuierliche Konnektivität mit dem Rechenzentrum aufrechtzuerhalten.
Edge Computing-Standorte verfügen häufig nur über begrenztes oder gar kein IT-Personal. Eine zuverlässige Edge Computing-Lösung ist daher eine Lösung, die mit denselben Tools und Prozessen wie die zentralisierte Infrastruktur verwaltet und dennoch unabhängig in einem getrennten Modus betrieben werden kann.
Im Allgemeinen müssen umfassende Edge Computing-Lösungen Folgendes leisten können:
- Konsistentes Deployment-Modell vom Core bis zum Edge
- Flexible Architekturoptionen, um die Anforderungen hinsichtlich Konnektivität und Datenmanagement bestmöglich zu erfüllen
- Automatisieren und Verwalten der Infrastruktur-Depolyments und -Updates vom Hauptrechenzentrum bis zu weit entfernten Edge-Standorten.
- Provisionieren, Aktualisieren und Verwalten von Softwareanwendungen in der gesamten Infrastruktur in großem Umfang
- Kontinuierlichen Betrieb an entfernten Edge-Standorten, auch wenn die Internetverbindung nicht zuverlässig ist
- Robuste Softwareplattform, die sich beliebig skalieren lässt
- Sichere Daten und Infrastruktur in Edge-Umgebungen mit sicherheitstechnischen Herausforderungen
Erstellen einer Machine Learning-Strategie
Es gibt keine einheitliche Methode zum Erstellen und Operationalisieren von ML-Modellen. Dennoch müssen Datensätze gesammelt und vorbereitet, Modelle zu intelligenten Anwendungen entwickelt und Einnahmen aus diesen Anwendungen erzielt werden. Das Operationalisieren dieser Anwendungen mit integrierten ML-Funktionen – bekannt als MLOps – und deren ständige Aktualisierung erfordern die Zusammenarbeit zwischen Data Scientists, Entwicklung, ML-Engineering, IT-Operations und verschiedenen DevOps-Technologien.
Durch die Anwendung von DevOps- und GitOps-Prinzipien automatisieren und vereinfachen Unternehmen den iterativen Prozess der Integration von ML-Modellen in Softwareentwicklungsprozesse, Produktions-Rollout, Überwachung, erneutes Training und erneute Bereitstellung für kontinuierliche Vorhersagegenauigkeit.
Mit Red Hat® OpenShift® kann dieser Prozess im Wesentlichen in 4 Schritte unterteilt werden:
- Trainieren: ML-Modelle werden auf Jupyter-Notebooks auf Red Hat OpenShift trainiert.
- Automatisieren: Red Hat OpenShift Pipelines ist eine ereignisgesteuerte Continuous Integration-Funktion, mit der ML-Modelle als Container Images folgendermaßen werden können:
Speichern der Modelle für die Bereitstellung in einem Modell-Store.
Konvertieren der gespeicherten Modelle in Container-Images mit Red Hat OpenShift Build.
Testen der containerisierten Modell-Images, um sicherzustellen, dass sie funktionsfähig bleiben.
Speichern der containerisierten Modell-Images in einer privaten, globalen Container Image Registry wie Red Hat Quay, in der die Images analysiert werden, um potenzielle Probleme zu identifizieren, Sicherheitsrisiken zu minimieren und Geo-Replikation zu ermöglichen.
- Bereitstellen: Die von Red Hat OpenShift GitOps verwaltete deklarative Konfiguration automatisiert das Deployment von ML-Modellen in großem Umfang und standortunabhängig.
- Überwachen: Modelle werden mit den Tools aus unserem Partnernetzwerk auf Zuverlässigkeit, Geschwindigkeit, Skalierbarkeit usw. überwacht und bei Bedarf durch erneutes Training und erneute Bereitstellung aktualisiert.
Warum Red Hat für KI/ML am Edge?
Künstliche Intelligenz und maschinelles Lernen (KI/ML) sind für Unternehmen immer wichtiger geworden, wenn sie versuchen, ihre Daten in geschäftlichen Wert umzuwandeln. Die Open Source Edge Computing-Lösungen von Red Hat ermöglichen die Beschleunigung dieser Geschäftsinitiativen durch das Bereitstellen von Services, die den Entwicklungsprozess intelligenter Anwendungen in der Hybrid Cloud automatisieren und vereinfachen.
Red Hat ist sich bewusst, dass Data Scientists bei der Entwicklung ihrer KI/ML-Modelle häufig durch die fehlende Abstimmung zwischen sich schnell entwickelnden Tools erschwert werden. Dies kann sich wiederum auf die Produktivität und Zusammenarbeit zwischen den verschiedenen Teams, Softwareentwicklungsteams und dem IT-Betrieb auswirken.
Zur Umgehung dieser potenziellen Hürden bieten Red Hat OpenShift-Services den Nutzenden Unterstützung beim Entwerfen, Bereitstellen und konsistenten Verwalten ihrer intelligenten Anwendungen in verschiedenen Cloud-Umgebungen und Rechenzentren.
Die meisten Unternehmen könnten ihre Daten besser nutzen, sind jedoch durch ihre Tools und Workflows eingeschränkt. Red Hat® OpenShift® Data Science bietet eine unterstützte Self Service-Umgebung, in der Data Scientists Algorithmen verfeinern und mit der Entwicklung, dem Training und dem Testen von ML-Modellen experimentieren können.