Zu Abschnitt

Was ist ein Kafka Service?

URL kopieren

Ein Kafka-Service bezieht sich auf ein Cloud-Dienstangebot von Apache Kafka, einer Daten-Streaming-Plattform. 

Die Bereitstellung von Apache Kafka ist komplex, insbesondere in einer Hybrid-Cloud-Umgebung. Deshalb entscheiden sich viele Streaming-Datennutzer oft für einen Kafka-Service, bei dem die Infrastruktur- und Systemverwaltung an einen Service-Anbieter ausgelagert wird.

Apache Kafka ist eine verteilte Open-Source-Data-Streaming-Plattform, mit der Sie Daten in Echtzeit veröffentlichen, abonnieren, speichern und verarbeiten können. Mit ihr können Sie Daten-Streams aus mehreren Quellen handhaben und an verschiedene Kunden weiterleiten.

Apache Kafka wurde für den Umgang mit riesigen Datenmengen entwickelt und ist eine geeignete Lösung für Unternehmensanwendungen. Apache Kafka wurde entwickelt, um Streaming-Daten zu verwalten und gleichzeitig schnell, horizontal skalierbar und fehlertolerant zu sein.

Apache Kafka eignet sich gut für die Herausforderungen von Big Data. In vielen Use Cases rund um die Datenverarbeitung, wie etwa beim IoT (Internet of Things) und bei sozialen Medien, steigt das Datenvolumen exponentiell an und kann schnell die Kapazitäten der auf Ihr aktuelles Datenvolumen zugeschnittenen Anwendungen sprengen.

Für Entwickler, die mit Microservices arbeiten, ist Apache Kafka eine großartige Option bei der Verwendung der asynchronen ereignisgesteuerten Integration, die die Verwendung von synchroner Integration und APIs (Application Programming Interface) erweitern kann.

Data Streaming ist der kontinuierliche Fluss von Echtzeitinformationen, der oft als ein laufendes Protokoll von Änderungen oder Ereignissen in einem Datensatz dargestellt wird.

Use Cases für Datenstreaming können jede Situation umfassen, die eine Echtzeitreaktion auf Ereignisse erfordert – von Finanztransaktionen über IoT-Daten bis hin zur Patientenüberwachung im Krankenhaus. 

Software, die mit Streaming-Daten interagiert, ermöglicht es, Daten sofort zu verarbeiten, wenn sie ankommen, oft unter Verwendung des event-gesteuerten Architekturmodells.

Bei einem Event-Streaming-Modell können Event-Consumers aus jedem Teil des Streams lesen und jederzeit dem Stream beitreten. Ein grundlegendes Data-Streaming-Event enthält einen Schlüssel, einen Wert und einen Zeitstempel. Eine Data-Streaming-Plattform nimmt Ereignisse und Prozesse auf oder transformiert den Event-Stream. Event-Stream-Processing kann dazu verwendet werden, Patterns in Data Streams zu erkennen.

Trotz aller Vorteile kann es schwierig sein, Apache Kafka in einer Hybrid-Cloud-Umgebung in großem Maßstab bereitzustellen. Streaming-Datenservices können strengere Anforderungen haben als andere Datenanwendungen. 

Datenströme müssen sequenzierte Informationen in Echtzeit liefern, konsistent und hochverfügbar sein. Die Menge an Rohdaten in einem Stream kann schnell ansteigen. Die Menge an Rohdaten in einem Stream kann schnell ansteigen. Streams müssen auch für den Fall eines teilweisen Systemausfalls auf Haltbarkeit ausgelegt sein.

In einer verteilten Hybrid-Cloud-Umgebung erfordert ein Streaming-Daten-Cluster besondere Überlegungen. Apache Kafka-Datenbroker sind zustandsbehaftet und müssen bei einem Neustart beibehalten werden. Die Skalierung erfordert eine sorgfältige Orchestrierung, um sicherzustellen, dass sich Messaging-Dienste wie erwartet verhalten und keine Datensätze verloren gehen.

Diese Herausforderungen sind der Grund, warum sich viele Apache Kafka-Anwender für einen Managed Cloud Service entscheiden, bei dem die Infrastruktur- und Systemverwaltung an einen Service-Anbieter ausgelagert wird.

Einige der Vorteile, die sich aus der Nutzung eines Kafka-Dienstes ergeben, sind:

  • Das Infrastrukturmanagement wird übernommen, sodass sich die Teams stattdessen auf die App-Entwicklung und andere Kernkompetenzen konzentrieren können.
  • Schnellere Anwendungsgeschwindigkeit, da Teams sofort mit der Entwicklung beginnen und neue Technologien schnell implementieren können.
  • Ein großes Partnernetzwerk zusätzlicher Cloud-Services, das auch die Bereitstellung von streambasierten Anwendungen vereinfachen kann.
  • Konnektoren, die Kafka-Broker mit verteilten Services verbinden, wodurch es einfach wird, Streaming-Daten zwischen Anwendungen und Systemen zu nutzen und zu teilen.
  • Verbrauchsbasierte Preise, die es den Kunden ermöglichen, für das zu bezahlen, was sie brauchen, wenn sie es brauchen.

Beim Betrieb auf einer gemanagten Kubernetes-Plattform können Apache Kafka-Cluster auf lokale, Public, Private oder Hybrid Clouds verteilt werden und unterschiedliche Betriebssysteme nutzen.
 

Kafka kostenlos testen

Nutzen Sie Red Hat OpenShift Streams for Apache Kafka, einen vollständig gehosteten und gemanagten Kafka-Service für streambasierte Anwendungen.

Weiterlesen

Artikel

Was ist Integration?

Sie möchten wissen, was Integration ist? Erfahren Sie alles über Integration, wie man sie einsetzt und warum sie in Verbindung mit Open Source noch viel wertvoller ist.

Artikel

Was ist Apache Kafka?

Apache Kafka ist eine verteilte Data-Streaming-Plattform, mit der Sie Daten in Echtzeit veröffentlichen, abonnieren, speichern und verarbeiten können.

Artikel

Was ist eine API?

APIs (Application Programming Interfaces) bestehen aus mehreren Definitionen und Protokollen zur Entwicklung und Integration von Anwendungssoftware.

Mehr über Integration erfahren

Produkte

Red Hat® Integration umfasst diverse Integrations- und Messaging-Technologien für die Daten- und Anwendungsintegration in Hybrid Cloud-Umgebungen. Es enthält Red Hat 3scale API Management, Red Hat AMQ, Red Hat Runtimes, Erfassung von Änderungsdaten und Service-Registry. 

Red Hat Runtimes umfasst eine Reihe von Produkten, Tools und Komponenten, mit denen cloudnative Anwendungen entwickelt und gewartet werden können. Es enthält Red Hat AMQ, Red Hat Data Grid, Red Hat JBoss® Enterprise Application Platform, Red Hat JBoss Web Server, Red Hat build of OpenJDK, Red Hat build of Quarkus, Cloudnative Runtimes, Red Hat Migration Toolkit für Anwendungen, Single Sign-On (SSO) und Launcher-Service.

Red Hat Application Foundations umfasst zahlreiche Integrations- und Runtimes Technologien, um die Entwicklung, Bereitstellung und Nutzung von Anwendungen sicher und in großem Umfang in der Hybrid Cloud zu unterstützen.

Gehostete und gemanagte Plattform-, Anwendungs- und Datenservices, die das Hybrid Cloud-Erlebnis optimieren und die Betriebskosten sowie die Komplexität der Bereitstellung cloudnativer Anwendungen verringern.

Ressourcen

E-Book

Agile Integration: Ein Blueprint für die Unternehmensarchitektur

Training

Kostenloser Trainingskurs

Red Hat Agile Integration Technical Overview