Anmelden / Registrieren Konto

Edge Computing

Was ist Edge Computing?

Jump to section

Edge Computing ist Computing, das nahe am physischen Standort des Nutzers oder der Datenquelle stattfindet. Indem Rechendienstleistungen näher zu diesen Standorten gebracht werden, profitieren die Nutzer von schnelleren, zuverlässigeren Services und die Unternehmen von der Flexibilität des Hybrid Cloud Computing. Edge Computing ist eine der Methoden, mit der ein Unternehmen einen gemeinsamen Pool an Ressourcen über eine Vielzahl an Standorten verteilen kann.


Wie nutzen Unternehmen Edge Computing in Rechenzentren und Public Clouds?

Edge ist eine Strategie zur Erweiterung einer einheitlichen Umgebung vom Hauptrechenzentrum bis hin zu physischen Standorten in der Nähe von Nutzern und Daten. Ebenso wie eine Hybrid Cloud-Strategie es Unternehmen ermöglicht, Workloads sowohl in ihren eigenen Rechenzentren als auch in einer Public Cloud-Infrastruktur (wie Amazon Web Services, Microsoft Azure oder Google Cloud) auszuführen, erweitert die Edge-Strategie eine Cloud-Umgebung auf viele weitere Standorte.

Edge Computing wird heute in vielen Branchen eingesetzt, darunter Telekommunikation, Fertigung, Transportwesen, Versorgungsunternehmen und viele andere. Die Gründe für den Einsatz von Edge Computing sind so vielfältig wie die Organisationen, in denen es genutzt wird.

Use Cases für Edge Computing

Viele Use Cases für Edge Computing resultieren aus der Notwendigkeit, Daten lokal in Echtzeit zu verarbeiten, weil die Übertragung der Daten an ein Rechenzentrum zur Verarbeitung zu inakzeptablen Latenzzeiten führen würde.

Ein Beispiel für Edge Computing, das auf der Notwendigkeit der Echtzeit-Datenverarbeitung basiert, ist eine moderne Produktionsanlage. In der Fabrikhalle erzeugen IoT-Sensoren (Internet of Things) einen stetigen Datenstrom, der verwendet werden kann, um Ausfälle zu verhindern und Abläufe zu verbessern. Einer Schätzung zufolge kann eine moderne Anlage mit 2.000 Geräten pro Monat 2.200 Terabyte an Daten erzeugen. Es ist schneller und kostengünstiger, diese Datenmenge in der Nähe der Geräte zu verarbeiten, anstatt sie zuerst an ein entferntes Rechenzentrum zu übertragen. Dennoch ist es wünschenswert, dass die Geräte über eine zentrale Datenplattform verbunden sind. Auf diese Weise können Geräte beispielsweise standardisierte Software-Updates erhalten und gefilterte Daten teilen, um Abläufe an anderen Fabrikstandorten zu verbessern.

Vernetzte Fahrzeuge sind ein weiteres gängiges Beispiel für Edge Computing. Busse und Züge führen Computer mit sich, um Fahrgastaufkommen und die Servicebereitstellung zu verfolgen. Kraftfahrer können mit der Technologie an Bord ihrer Lkws die effizientesten Routen finden. Bei einem Deployment mit einer Edge-Computing-Strategie wird in jedem Fahrzeug dieselbe standardisierte Plattform wie beim Rest der Flotte ausgeführt. Dadurch werden die Services zuverlässiger, und die Daten werden einheitlich geschützt.

Autonome Fahrzeuge gehen noch einen Schritt weiter. Sie sind ein Beispiel für Edge Computing, bei dem eine große Menge an Echtzeitdaten in einer Situation verarbeitet wird, in der die Konnektivität möglicherweise inkonsistent ist. Aufgrund der schieren Datenmenge verarbeiten autonome Fahrzeuge (z. B. selbstfahrende Autos) Sensordaten an Bord des Fahrzeugs, um die Latenz zu reduzieren. Sie können für Wireless-Updates der Software jedoch weiterhin auf einen zentralen Speicherort zugreifen.

Edge Computing trägt auch dazu bei, dass beliebte Internetdienste schnell laufen. Content Delivery Networks (CDNs) stellen Datenserver in der Nähe der Nutzer bereit, damit stark frequentierte Websites schnell geladen werden können und schnelle Videostreaming-Dienste unterstützt werden.

Ein weiteres Beispiel für Edge Computing sind 5G-Mobilfunkmasten. Telekommunikationsanbieter betreiben ihre Netzwerke zunehmend mit Network Functions Virtualization (NFV). Dabei verwenden sie virtuelle Maschinen, die auf Standardhardware am Netzwerkrand ausgeführt werden. Diese virtuellen Maschinen können teure proprietäre Geräte ersetzen. Mit einer Edge-Computing-Strategie können Anbieter die Software an Zehntausenden entfernten Standorten konsistent und mit einheitlichen Sicherheitsstandards ausführen. Anwendungen, die in der Nähe des Endbenutzers in einem Mobilfunknetz ausgeführt werden, reduzieren auch die Latenz und ermöglichen es Anbietern, neue Dienste anzubieten.


Welche Vorteile bietet Edge Computing?

Edge Computing ermöglicht schnellere, stabilere Services zu geringeren Kosten. Für den Nutzer bedeutet das ein schnelleres und konsistenteres IT-Erlebnis. Unternehmen und Service-Anbieter profitieren von hochverfügbaren Apps mit niedrigen Latenzzeiten und einer Überwachung in Echtzeit.

Mit Edge Computing lassen sich Netzwerkkosten senken, Bandbreitenbeschränkungen vermeiden, Übertragungsverzögerungen und Serviceausfälle einschränken und Bewegungen vertraulicher Daten besser kontrollieren. Lastzeiten werden reduziert, und die Bereitstellung von Online-Services näher am Nutzerstandort ermöglicht den Einsatz sowohl von dynamischen als auch statischen Caching-Funktionen.

Anwendungen, die von einer kürzeren Antwortzeit profitieren, wie Augmented Reality- und Virtual Reality-Anwendungen, profitieren vom Edge Computing.

Zu den weiteren Vorteilen des Edge Computing zählt die Fähigkeit, vor Ort Big Data-Analysen und -Aggregationen vorzunehmen, was die Grundvoraussetzung für Entscheidungen in Fast-Echtzeit ist. Dazu lässt sich damit das Risiko der Offenlegung vertraulicher Daten reduzieren, indem die gesamte Rechenleistung lokal verwendet wird. Dadurch erhalten Unternehmen die Möglichkeit, Sicherheitspraktiken durchzusetzen und Richtlinien zu erfüllen.

Unternehmenskunden profitieren von der hohen Resilienz des Edge Computing bzw. den damit verbundenen niedrigen Kosten. Indem Rechenleistung lokal verarbeitet wird, können regionale Standorte fortlaufend unabhängig von Ihrem Hauptstandort arbeiten, und zwar auch, wenn dieser ausfallen sollte. Die Kosten für die Übertragungsbandbreite der Daten zwischen Haupt- und Regionalstandorten reduzieren sich außerdem beträchtlich, wenn die Rechenleistung näher an der Quelle genutzt wird.

Eine Edge-Plattform kann dazu beitragen, die Konsistenz der Operationen und der Anwendungsentwicklung sicherzustellen. Im Gegensatz zu einem Rechenzentrum sollte sie Interoperabilität unterstützen, um einer größeren Anzahl an verschiedenen Hardware- und Software-Umgebungen gerecht werden zu können. Eine effektive Edge-Strategie ermöglicht auch die gemeinsame Verwendung von Produkten mehrerer Anbieter in einem offenen IT-Ökosystem.


Elemente eines Edge-Netzwerks

Man kann sich Edge Computing als eine Reihe von Kreisen vorstellen, mit dem Code-Rechenzentrum in der Mitte. Jeder Kreis stellt eine weitere Stufe zum äußeren Netzwerkrand dar.

  • Anbieter-/Unternehmenskern: Dies sind traditionelle Stufen im Besitz von Public Cloud-Anbietern, Telekommunikationsdienstanbietern oder großen Unternehmen, die von diesen betrieben werden. Sie gehören nicht zum Edge.
  • Service-Anbieter-Edge: Diese Stufen befinden sich zwischen dem Kern bzw. den regionalen Rechenzentren und dem Zugang zur letzten Meile, üblicherweise im Besitz eines Telekommunikations- oder Internetdienstanbieters und von diesem betrieben. Von dieser Stufe aus bedient der Anbieter mehrere Kunden.
  • Endbenutzer-Standort-Edge: Edge-Stufen auf der Endbenutzerseite des Zugangs zur letzten Meile können den Enterprise Edge (z. B. ein Einzelhandelsgeschäft, eine Fabrik, einen Zug) oder den Consumer Edge (z. B. Privathaushalt, Auto) beinhalten.
  • Geräte-Edge: (Nicht geclusterte) Standalone-Systeme, die Sensoren/Stellantriebe direkt über Nicht-Internet-Protokolle verbinden. Dieser stellt den äußersten Netzwerkrand dar.

Edge Computing, Datenanalysen und KI/ML

Beim Edge Computing liegt der Schwerpunkt auf Datenerfassung und Echtzeitberechnung. Daher kann es zum Erfolg datenintensiver intelligenter Anwendungen beitragen. Beispielsweise können KI/ML-Aufgaben (Künstliche Intelligenz/Maschinelles Lernen), wie Bilderkennungsalgorithmen, effizienter und näher an der Datenquelle ausgeführt werden, sodass große Datenmengen nicht an ein zentrales Rechenzentrum übertragen werden müssen.

Diese Anwendungen verwenden Kombinationen aus zahlreichen Datenpunkten, um höherwertige Informationen abzuleiten, die Unternehmen bei der Entscheidungsfindung unterstützen. Diese Funktionalität kann eine Vielzahl von Geschäftsinteraktionen verbessern, z. B. Kunden-Erlebnisse, präventive Wartung, Betrugsprävention, klinische Entscheidungsfindung und vieles mehr.

Indem jeder eingehende Datenpunkt als ein Event behandelt wird, können Unternehmen Entscheidungsmanagement- und KI/ML-Inferenztechniken anwenden, um Events zu filtern, zu verarbeiten, zu qualifizieren und zu kombinieren und Informationen höherer Ordnung abzuleiten.

Datenintensive Anwendungen können in eine Reihe von Phasen unterteilt werden, die in jeweils verschiedenen Teilen der IT-Landschaft ausgeführt werden. Edge Computing kommt in der Phase der Datenaufnahme ins Spiel. In dieser Phase werden die Daten gesammelt, vorverarbeitet und übertragen. Anschließend durchlaufen die Daten die Engineering- und Analysephasen (normalerweise in einer Public Cloud- oder Private Cloud-Umgebung), in denen sie gespeichert und transformiert werden. Danach werden die Daten zum Trainieren von ML-Modellen verwendet. Schließlich gelangen sie zurück zum Edge für die Phase der Runtime-Inferenz, in der diese ML-Modelle bereitgestellt und überwacht werden.

Um diese unterschiedlichen Anforderungen zu erfüllen und diese verschiedenen Phasen miteinander zu verbinden, ist eine flexible, adaptive und elastische Infrastruktur- und Anwendungsentwicklungsplattform erforderlich.

Ein Hybrid Cloud-Ansatz, der ein konsistentes Erlebnis in Public und Private Clouds bietet, verfügt über die Flexibilität, die Workloads für Datenerfassung und intelligente Inferenz am Edge einer Umgebung zu provisionieren. So werden die ressourcenintensiven Datenverarbeitungs- und Trainings-Workloads in Cloud-Umgebungen optimal bereitgestellt und Business Events sowie Insight-Management-Systeme in der Nähe geschäftlicher Nutzer ausgeführt.

Edge Computing ist ein wichtiger Bestandteil der Vision einer Hybrid Cloud, die eine konsistente Anwendungs- und Betriebserfahrung bietet.


Edge Computing und Telekommunikation

Für viele Telekommunikationsanbieter spielt das Edge Computing eine wichtige Rolle, da sie immer mehr Workloads und Services an den Netzwerkrand verlagern.

Bei der Bereitstellung häufig genutzter Netzwerkanwendungen, wie Sprach- und Videoanrufen, zählt jede Millisekunde. Da sich mit Edge Computing die Auswirkungen der Latenz auf Anwendungen erheblich reduzieren lassen, können Service-Anbieter neue Apps und Dienste anbieten, die das IT-Erlebnis bestehender Apps verbessern können, insbesondere nach Fortschritten bei 5G.

Doch es geht nicht nur um das Angebot neuer Dienste. Anbieter wenden sich Edge-Strategien zu, um Netzwerkoperationen zu vereinfachen und Flexibilität, Verfügbarkeit, Effizienz, Zuverlässigkeit sowie Skalierbarkeit zu verbessern.

Was ist NFV?

Network Functions Virtualization (NFV) ist eine Strategie, bei der IT-Virtualisierung auf die Use Cases von Netzwerkfunktionen übertragen wird. NFV ermöglicht die Verwendung von Standardservern für Funktionen, für die vorher teure proprietäre Hardware erforderlich war. 

Was ist vRAN?

RANs (Radio Access Networks) sind Verbindungspunkte zwischen Endbenutzergeräten und dem Rest eines Betreibernetzwerks. Ebenso wie Netzwerkfunktionen können auch RANs virtualisiert werden, wodurch ein Virtual Radio Access Network oder vRAN entsteht.

Bei der fortlaufenden Einführung von 5G-Netzwerken werden häufig vRANs genutzt, um den Betrieb zu vereinfachen, mehr Geräte zu bedienen und die Anforderungen anspruchsvoller Anwendungen zu erfüllen.

Accelerate your 5G strategy with vRAN

Was ist MEC?

MEC steht für Multi-Access Edge Computing, einer Methode, mit der Service-Anbieter ihren Kunden eine Anwendungsserviceumgebung am Rand des Mobilfunknetzes in unmittelbarer Nähe zu den mobilen Geräten der Nutzer bereitstellen können.

Zu den Vorteilen von MEC gehören erhöhter Datendurchsatz und niedrigere Latenz. MEC stellt App-Entwicklern und Content Providern Verbindungspunkte zur Verfügung, die ihnen auch Zugriff auf untergeordnete Netzwerkfunktionen und die Informationsverarbeitung ermöglichen.


Welche Beziehung besteht zwischen Edge und Cloud Computing?

Unter Cloud Computing versteht man die Ausführung von Workloads in der Cloud, das heißt, in einer IT-Umgebung, in der skalierbare Ressourcen in einem Netzwerk extrahiert, in Pools zusammengefasst und verteilt werden. 

Traditionell diente das Cloud Computing in der Hauptsache dazu, Services über einige große Rechenzentren bereitzustellen. Dadurch konnten Ressourcen optimal skaliert und effizienter gemeinsam verwendet werden, während Kontrolle und Unternehmenssicherheit gewährleistet wurden.

Mit dem Edge Computing wird der Fokus nun auf diejenigen Fälle gerichtet, die vom zentralisierten Ansatz des Cloud Computing nicht durchgehend profitieren, und zwar nicht selten aufgrund von Netzwerkanforderungen und anderen Beschränkungen.

Darüber hinaus ergänzt eine Cloud-Strategie, bei der Software in Containern ausgeführt wird, das Edge-Computing-Modell. Durch die Container werden Apps portierbar, sodass Unternehmen sie dort ausführen können, wo es am sinnvollsten ist. Mithilfe einer Containerisierungsstrategie können Unternehmen ihre Apps mit minimalen operativen Auswirkungen vom Rechenzentrum zum Edge oder umgekehrt zu verlagern.


Was ist das IoT, und was sind Edge-Geräte?

Das Internet of Things (IoT) umfasst den Prozess der Vernetzung alltäglicher physischer Objekte mit dem Internet. Dazu gehören allgemeine Haushaltsgegenstände wie Glühbirnen, Produkte aus dem Gesundheitswesen wie medizinische Geräte, aber auch Wearables, Smart Devices und sogar Smart Cities.

IoT-Geräte sind nicht immer Edge-Geräte. Doch diese vernetzten Geräte sind Teil der Edge-Strategie vieler Unternehmen. Beim Edge Computing kann mehr Rechenleistung an den Rand eines IoT-fähigen Netzwerks verlagert werden. Dadurch wird die Latenz der Kommunikation zwischen IoT-fähigen Geräten und den zentralen IT-Netzwerken reduziert, mit denen diese Geräte verbunden sind.

Am Anfang des IoT-Zeitalters stand das einfache Senden oder Empfangen von Daten. Das Senden, Empfangen und Analysieren von Daten in Verbindung mit IoT-Anwendungen ist jedoch ein modernerer Ansatz, der durch Edge Computing ermöglicht wird.

Was ist das IIoT?

Ein verwandtes Konzept, das Industrial Internet of Things (IIoT), beschreibt Industrieanlagen, die mit dem Internet verbunden sind, z. B. Maschinen, die Teil einer Produktionsanlage, einer landwirtschaftlichen Einrichtung oder einer Lieferkette sind.


Was ist Fog Computing und was hat es mit Edge Computing zu tun?

Fog Computing ist ein Begriff für Computing, das an verteilten physischen Standorten stattfindet, näher an den Nutzern und Datenquellen. 

Fog Computing ist ein Synonym für Edge Computing. Außer der Bezeichnung gibt es keinen Unterschied zwischen den beiden Konzepten.


Was sind die Herausforderungen des Edge Computing?

Edge Computing kann eine verteilte IT-Umgebung vereinfachen, aber die Edge-Infrastruktur ist nicht immer einfach zu implementieren und zu verwalten.

  • Die horizontale Skalierung von Edge-Servern an vielen kleinen Standorten kann komplizierter sein, als wenn einem einzelnen Hauptrechenzentrum die entsprechende Kapazität hinzugefügt wird. Der Mehraufwand für die physischen Standorte wird dann speziell für kleinere Unternehmen zum Problem.
  • Edge-Computing-Standorte sind üblicherweise weit entfernt, und in der Regel sind nur wenige oder gar keine technischen Experten vor Ort. Wenn also ein Problem auftritt, muss eine Infrastruktur vorhanden sein, die auch von technisch wenig versierten Kräften vor Ort behoben und fortlaufend von einer kleinen Gruppe Experten zentral an einem anderen Standort verwaltet werden kann.
  • Standortmanagement-Operationen müssen an allen Edge-Computing-Standorten auf einfachste Weise reproduziert werden können. Nur so können die Verwaltung vereinfacht und Probleme effizient behoben werden. Probleme entstehen, wenn Software an den einzelnen Standorten jeweils unterschiedlich implementiert wird.
  • Die physische Sicherheit von Edge-Standorten ist häufig viel niedriger als die von Hauptstandorten. Bei einer Edge-Strategie muss das erhöhte Risiko von böswilligen Angriffen oder Unfällen berücksichtigt werden.

Da Datenquellen und Data Storage auf viele Standorte verteilt werden, benötigen Unternehmen eine gemeinsame horizontale Infrastruktur, die sich über ihre gesamte IT-Infrastruktur erstreckt, einschließlich der Edge-Standorte. Selbst für Unternehmen, die es gewohnt sind, an mehreren geografischen Standorten zu arbeiten, stellt Edge Computing besondere Herausforderungen an die Infrastruktur. Unternehmen brauchen Edge-Computing-Lösungen, die

  • mit denselben Tools und Prozessen wie ihre zentralisierte Infrastruktur gemanagt werden können. Dies umfasst die automatisierte Provisionierung, Verwaltung und Orchestrierung von Hunderten und manchmal Zehntausenden von Standorten mit minimalem (oder gar keinem) IT-Personal. 
  • die Anforderungen unterschiedlicher Edge-Stufen erfüllen, u. a. in Bezug auf die Größe der Hardware, die schwierigen Umgebungen und die Kosten.
  • die Flexibilität bieten, um hybride Workloads zu verwenden, die aus virtuellen Maschinen, Containern und Bare Metal-Knoten bestehen, auf denen Netzwerkfunktionen, Video-Streaming, Gaming, KI/ML sowie geschäftskritische Anwendungen ausgeführt werden.
  • sicherstellen, dass Edge-Standorte bei Netzwerkausfällen weiterhin funktionieren. 
  • mit Komponenten kompatibel sind, die von unterschiedlichen Anbietern bezogen wurden. Kein einzelner Anbieter kann eine End-to-End-Lösung anbieten.

Wie kann Red Hat beim Edge Computing helfen?

Das breite Portfolio von Red Hat umfasst die Konnektivitäts-, Integrations- und Infrastrukturfunktionen, die als Grundlage für Plattform-, Anwendungs- und Entwickler-Services dienen. Mit diesen leistungsstarken Bausteinen können Kunden ihre schwierigsten Use Cases lösen.

Eine funktionierende Basis

Alles beginnt mit der Basis, in diesem Fall Red Hat Enterprise Linux®. Linux bietet ein umfassendes IT-Ökosystem an Tools, Frameworks und Libraries zur Entwicklung und Ausführung von Anwendungen und Containern.

Containerisierte Workloads

Zur Entwicklung, Bereitstellung und Verwaltung containerbasierter Anwendungen in jeder Infrastruktur oder Cloud, einschließlich private und öffentliche Rechenzentren oder Edge-Standorte, wählen Sie Red Hat® OpenShift®. Diese Plattform ist eine containerbasierte, hochleistungsfähige und unternehmensfähige Kubernetes-Umgebung.

VM- und HPC-Workloads

Red Hat OpenStack® Platform mit verteilten Compute-Knoten unterstützt selbst die anspruchsvollsten VM-Workloads, wie Network Functions Virtualization (NFV), und HPC-Workloads (High Performance Computing). Es handelt sich hier um eine zuverlässige und skalierbare IaaS-Lösung, die branchenübliche APIs mit Mandantenfähigkeit umfasst. Machen Sie sich das Leben leichter, indem Sie die Rechenleistung mit dieser einheitlichen, zentralen Managementlösung, die von Ihren Hauptrechenzentren bis zum Edge reicht, näher an der Datenquelle platzieren.

Storage

Storage und Datenservices spielen eine wichtige Rolle beim Edge Computing, bei dem es von größter Bedeutung ist, Daten nahe an der Quelle zu halten. Red Hat OpenShift Data Foundation bietet persistenten Storage für Red Hat OpenShift, sowohl in einem konvergenten Modus für Deployments mit geringerem Platzbedarf als auch für die Verbindung zu externen, zentralisierten Clustern. Red Hat Ceph Storage bietet massiv skalierbaren Block, File und Object Storage mit Selbstreparaturfunktionen für moderne Workloads wie Storage-as-a-Service, Datenanalyse, KI/ML sowie Backup- und Wiederherstellungssysteme. Red Hat Ceph Storage bietet in Kombination mit der Red Hat OpenStack Platform über Red Hat Hyperconverged Infrastructure eine hyperkonvergente Konfiguration mit drei Knoten für verteiltes Computing und verteilten Storage am Edge für Telekommunikations-NFV, Finanzdienstleistungsbranchen sowie große Einzelhandels-Deployments.

Messaging und Kommunikation

Red Hat Application Services und Entwicklertools bieten cloudnative Funktionen zur Entwicklung schneller, schlanker und skalierbarer Edge-Anwendungen mit Datenaggregation, -transformation und -konnektivität zur Unterstützung von Edge-Architekturen. In stark verteilten Umgebungen erfordert die Kommunikation zwischen Services an Edge-Standorten und in der Cloud besondere Berücksichtigung. Die Messaging- und Daten-Streaming-Funktionen von Red Hat AMQ unterstützen verschiedene Kommunikationsmuster, die beim Edge Computing benötigt werden. Messaging bietet in Kombination mit einer Vielzahl cloudnativer Anwendungs-Runtimes (Red Hat Runtimes) und Anwendungskonnektivität (Red Hat Integration) eine leistungsstarke Grundlage für den Aufbau von edgenativen Datenübertragungs-, Datenaggregations- und integrierten Edge-Anwendungs-Services.

Management

Red Hat bietet ein leistungsstarkes Technologieportfolio, mit dem seine offenen Hybrid Cloud-Plattformen erweitert und ergänzt werden, damit auch Hybrid Cloud-Umgebungen verwaltet und skaliert werden können.

Die Tools, die Sie für eine Edge-Computing-Plattform brauchen

Unternehmenssoftware ist für das schlanke Deployment auf allen Arten von Hardware optimiert, sodass Sie die angemessene Rechenleistung am richtigen Ort einsetzen können.

Red Hat Enterprise Linux

Die einheitliche Basis für alle Hybrid Cloud-Deployments, die alle wichtigen Hardware-Plattformen sowie Tausende von Apps unterstützt.

Red Hat OpenShift

Eine Container- und Kubernetes-Plattform für ein schnelleres Deployment cloudnativer Anwendungen.

Red Hat Ansible Automation Platform

Eine Basis für die Entwicklung und Ausführung automatisierter Prozesse im gesamten Unternehmen.

Wir können helfen

Wir arbeiten mit Ihnen zusammen, um die richtige Edge-Computing-Lösung zu finden.