Was ist Edge-KI?

URL kopieren

Künstliche Intelligenz (KI) am Edge, auch Edge-KI genannt, ist die Nutzung von KI in Kombination mit Edge Computing, um die Erfassung von Daten an einem physischen Standort oder in dessen Nähe zu ermöglichen. So arbeitet beispielsweise ein Algorithmus zur Bilderkennung effizienter, wenn er näher an der Datenquelle ausgeführt wird.

Mit Edge-KI können Antworten fast augenblicklich geliefert werden.Edge-KI verarbeitet Daten innerhalb von Millisekunden und liefert Echtzeit-Feedback mit oder ohne Internetverbindung, da KI-Algorithmen Daten näher am Standort des Geräts verarbeiten können. Dieser Prozess bietet mehr Datensicherheit, da die sensiblen Daten den Edge nicht verlassen.

Mehr über Edge Computing-Lösungen von Red Hat erfahren

Edge-KI unterscheidet sich von traditioneller KI dadurch, dass die KI-Modelle nicht im Backend eines Cloud-Systems, sondern auf angeschlossenen Geräten am Edge ausgeführt werden. Dadurch entsteht eine zusätzliche Informationsschicht am Edge. Das Edge-Gerät erfasst nicht nur Metriken und Analysen, sondern kann sie auch verarbeiten, da es über ein integriertes Modell für maschinelles Lernen (ML) verfügt.

Das Ziel der künstlichen Intelligenz ist dabei dasselbe: Computer sollen Daten sammeln, diese Daten verarbeiten und dann Ergebnisse generieren, die denen menschlicher Intelligenz ähneln. Die Edge-KI übernimmt jedoch die Arbeit und die Entscheidungsfindung vor Ort, und zwar im oder in der Nähe des verwendeten Geräts. 

Mehr über Red Hat OpenShift AI erfahren

Red Hat Ressourcen

Die Kombination von Edge Computing und künstlicher Intelligenz bietet große Vorteile. Mit Edge-KI werden hochleistungsfähige Computing-Funktionen an den Netzwerkrand gebracht, wo sich Sensoren und IoT-Geräte befinden. Nutzende können Daten auf Geräten in Echtzeit verarbeiten, da keine Konnektivität und Integration zwischen Systemen erforderlich ist. Außerdem können sie Zeit sparen, indem sie Daten sammeln, ohne mit anderen physischen Standorten zu kommunizieren.

Vorteile von Edge-KI: 

  • Weniger Energieverbrauch: Sparen Sie Energiekosten mit lokalen Datenprozessen und einem geringeren Energiebedarf für die Ausführung von KI am Edge gegenüber dem Betrieb in Cloud-Rechenzentren.
  • Reduzierte Bandbreite: Reduzieren Sie die zu übertragenden Datenmengen und senken Sie die Kosten, indem Sie mehr Daten lokal verarbeiten, analysieren und speichern, anstatt sie in die Cloud zu übertragen.
  • Datenschutz: Verringern Sie das Risiko einer Weitergabe sensibler Daten, die mit anderen Daten auf Edge-Geräten von Edge-KI verarbeitet werden.
  • Sicherheit: Priorisieren Sie wichtige Datenübertragungen, indem Sie Daten in einem Edge-Netzwerk verarbeiten und speichern oder redundante und nicht benötigte Daten herausfiltern.
  • Skalierbarkeit: Skalieren Sie Ihre Systeme mit cloudbasierten Plattformen und nativen Edge-Funktionen auf OEM-Geräten (Original Equipment Manufacturer). 
  • Geringere Latenzzeiten: Verringern Sie die für die Verarbeitung von Daten auf einer Cloud-Plattform benötigte Zeit und analysieren Sie die Daten lokal, um Freiraum für andere Aufgaben zu schaffen.

Mehr über die Phasen von KI am Edge erfahren

Red Hat arbeitet intensiv und gemeinsam mit der Open Source Community an Container- und Kubernetes-Technologien. Red Hat® OpenShift® kombiniert getestete und bewährte Services, mit denen Sie Ihre Anwendungen reibungsloser entwickeln, modernisieren, bereitstellen, ausführen und verwalten können. 

Red Hat OpenShift enthält wichtige Funktionen, mit denen Sie MLOps (Machine Learning Operations) konsistent in Rechenzentren, Hybrid Cloud- und Edge-Umgebungen einsetzen können. Mit KI/ML auf Red Hat OpenShift können Sie KI/ML-Workflows und die Bereitstellung von KI-basierten intelligenten Anwendungen beschleunigen.

Red Hat OpenShift AI ist ein auf KI fokussiertes Portfolio, das Tools für den gesamten Lifecycle von KI/ML-Experimenten und -Modellen bietet. Es ist eine konsistente, skalierbare Basis, die auf Open Source-Technologie für IT-Verantwortliche basiert und gleichzeitig ein spezialisiertes Partnernetzwerk für Data Scientists und Entwicklungsteams bietet, um Innovationen im Bereich KI zu erfassen.

Mehr über Red Hat OpenShift AI erfahren

Hub

Der offizielle Red Hat Blog

Lernen Sie mehr über unser Ökosystem von Kunden, Partnern und Communities und erfahren Sie das Neueste zu Themen wie Automatisierung, Hybrid Cloud, KI und mehr.

Red Hat Testversionen

Unsere kostenlosen Testversionen unterstützen Sie dabei, praktische Erfahrungen zu sammeln, sich auf eine Zertifizierung vorzubereiten oder zu bewerten, ob ein Produkt die richtige Wahl für Ihr Unternehmen ist.

Weiterlesen

Was ist vLLM?

Bei vLLM handelt es sich um Open Source Codes, mit denen Sprachmodelle Berechnungen effizienter durchführen können.

Was ist KI-Inferenz?

KI-Inferenz bezieht sich auf den Vorgang, bei dem ein KI-Modell eine auf Daten basierende Antwort gibt. Es handelt sich damit um den letzten Schritt in einem komplexen Prozess der ML-Technologie (Maschinelles Lernen).

Prädiktive KI im Vergleich zu generativer KI

Sowohl gen KI als auch prädiktive KI weisen erhebliche Unterschiede und Use Cases auf. Im Zuge der Weiterentwicklung von KI hilft die Unterscheidung zwischen diesen beiden Typen dabei, ihre unterschiedlichen Fähigkeiten zu verdeutlichen.

Ressourcen zu KI/ML

Verwandte Artikel