EX482

Red Hat Certified Specialist in Event-Driven Application Development Exam

Überblick

Im Red Hat Certified Specialist in Event-Driven Application Development Exam werden Ihre Kenntnisse und Kompetenzen in der Codierung event-gesteuerter Anwendungen mit Apache Kafka und der Entwicklung von Apache Kafka-Streams geprüft. Der Schwerpunkt der Prüfung liegt dabei auf den grundlegenden Kompetenzen zu Erstellung von Anwendungen mit einer event-gesteuerten Architektur.

Nach erfolgreichem Abschluss erhalten Sie die Zertifizierung als Red Hat Certified Specialist in Event-Driven Development with Kafka, die auch auf die Zertifizierung als Red Hat Certified Architect (RHCA®) angerechnet wird.

Die für diese Prüfung aufgelisteten Ziele basieren auf der letzten verfügbaren Red Hat Produktversion. Klicken Sie auf „Mehr erfahren“, um alle Versionen dieser Prüfung anzuzeigen, die Sie derzeit kaufen können.

Zielgruppe für diese Prüfung

Die Zertifizierung als Red Hat Certified Specialist in Event-Driven Development with Kafka kommt für folgende Zielgruppen in Frage:

  • Java-Entwickler und -Architekten, die event-gesteuerte Anwendungen mit Apache Kafka und Kubernetes implementieren
  • Red Hat Certified Professionals, die die Zertifizierung als Red Hat Certified Architect (RHCA) erhalten möchten

Voraussetzungen für diese Prüfung

  • Kenntnisse in der Verwendung von VSCode/VSCodium in einer Red Hat Enterprise Linux Umgebung
  • Umfangreiche Erfahrung mit Java SE, einschließlich Kenntnissen in den wichtigsten Java-Konzepten und APIs. Erforderlich sind beispielsweise Exceptions, Annotations, Lambdas sowie Kenntnisse der Collections API und in funktionaler Programmierung
  • Grundkenntnisse in OpenShift/Kubernetes sind von Vorteil
  • Nehmen Sie an unserem kostenlosen Einstufungstest teil, um den Kurs zu finden, der am besten für Sie zur Vorbereitung auf diese Prüfung geeignet ist

Ziele

Zur Vorbereitung

Red Hat empfiehlt Prüfungsteilnehmern, zunächst das Zertifikat Red Hat Certified Cloud-Native Developer (EX378) zu erwerben. Dies ist jedoch nicht zwingend erforderlich.

Lerninhalte für die Prüfung

Im Rahmen dieser Prüfung sollten Sie in der Lage sein, folgende Aufgaben auszuführen:

  • Kenntnis und Verwendung von event-gesteuerten Anwendungen mit der AMQ Streams-API
    • Daten aus Kafka senden und lesen
    • Datenaustausch mit hohem Durchsatz und niedriger Latenz zwischen Microservices und anderen Arten von Anwendungen herstellen
  • Kenntnis des Kafka-Systems und der Kafka-Architektur
    • Themen erstellen, konfigurieren und verwalten
    • Das System für die gemeinsame Nutzung von Daten mit hohem Durchsatz und niedriger Latenz konfigurieren
    • Skalieren und Nachrichtenreihenfolge sicherstellen
    • Nachrichten zum Entfernen alter Datensätze komprimieren und diese einrichten
    • Datenreplikation zur Steuerung der Fehlertoleranz konfigurieren und verwenden
    • Große Datenmengen für den sofortigen Zugriff aufbewahren
  • Kenntnis und Verwendung von mit Kafka verbundenen Quarkus-Anwendungen
    • Über Reactive Messaging eine Verbindung zu Kafka herstellen
    • Über die native API eine Verbindung zu Apache Kafka herstellen
    • Nachrichten erstellen und verwenden sowie event-gesteuerte und Daten-Streaming-Anwendungen implementieren
    • Die von Quarkus verwendeten reaktiven Libraries kennen, darunter Asynchronous Java oder Publisher API, RxJava oder Reactor APIs, Mutiny und mehr
  • Bereitstellung und Konfiguration des Zugriffs auf einen Kafka-Cluster
    • Auf die externen Listener von Kafka in der Cloud zugreifen. Bei Kubernetes oder Red Hat OpenShift: Verbindungen über Knoten-Ports, Load Balancer und extern mithilfe einer Ingress- oder OpenShift-Route herstellen
    • Die Sicherheit der Kommunikation zwischen dem Kafka-Client und dem Cluster konfigurieren
    • Nachrichten erstellen und verwenden sowie event-gesteuerte und Daten-Streaming-Anwendungen implementieren
    • Die für die Authentifizierungs- und Autorisierungssicherheit erforderliche Kafka-Client-Konfiguration kennen und bereitstellen
  • Bereitstellung und Verwendung des Schemas Red Hat Service Registry zum Entkoppeln der Daten von Client-Anwendungen, Freigeben und Verwalten der Datentypen zur Runtime
    • Die verschiedenen Kafka Streams-APIs wie Streams DSL und Processor API kennen und verwenden
    • Die zur korrekten Materialisierung der Daten benötigten Kafka-SerDes (Serializer/Deserializer) für die Datensätze konfigurieren und bereitstellen
    • Daten von einem oder mehreren Eingabestreams empfangen, komplexe Operationen wie Mapping, Filterung oder Verknüpfung, Neupartitionierung und/oder Gruppierung ausführen und die Ergebnisse in einen oder mehrere Ausgabestreams schreiben
    • Die Dualität von Stream-Tabellen verstehen und zustandsbehaftete Operationen wie Joins, Aggregationen und fensterbasierte Joins ausführen
    • Benutzerdefinierte Prozessoren und Transformatoren mit der Processor API für die Interaktion mit Statusspeichern definieren und verbinden
    • Events durch das Ableiten von neuen Sammlungen aus vorhandenen erstellen und die entsprechenden Änderungen beschreiben
  • Datenintegration mit Kafka Connect
    • Die zuverlässige und skalierbare Übertragung von Daten durch Kafka Connect zwischen Kafka und anderen heterogenen Datensystemen verstehen
    • Die Konvertierung und Transformation von Daten sowie das Offset-Management durch Kafka Connect verstehen
    • Die Erkennung und Erfassung von Datenänderungen (CDC) mit Debezium anwenden
    • Die verschiedenen eigenständigen und verteilten Betriebsmodi und ihre Use Cases verstehen
    • Die vorgefertigten Konnektoren von AMQ Streams verwenden
  • Kenntnis und Verwendung von erweiterten event-gesteuerten Patterns in auf Apache Kafka basierenden Anwendungen
    • Anwendungen mit Event-Sourcing- und CQRS-Patterns erkennen und verwenden
    • Fortgeschrittene Techniken kennen und verwenden, z. B. lang andauernde Geschäftsprozesse mit der Saga-Orchestrierung und Outbox-Patterns zum Datenaustausch zwischen verschiedenen Services
  • Behebung der gängigsten Probleme in event-gesteuerten Anwendungen, z. B. Erhalt der Nachrichtenreihenfolge, Neuversuche und Idempotenz, Handhabung duplizierter Events, Implementierung von Streams-Testfällen
  • Während der Prüfung müssen Sie gegebenenfalls mit einer oder mehreren vorgefertigten Java-Anwendungen arbeiten. Dabei werden Sie Teile des Anwendungscodes ändern müssen.

    Wie bei allen leistungsbasierten Red Hat Prüfungen müssen die Konfigurationen nach einem Neustart ohne weiteres Eingreifen bestehen bleiben.

Erforderliche Vorkenntnisse

Vorbereitung

Zur Vorbereitung empfiehlt Red Hat den Kurs Developing Event-Driven Applications with Apache Kafka and Red Hat AMQ Streams (AD482).

Prüfungsformat

In dieser praxisorientierten Prüfung müssen Sie reale Entwicklungsaufgaben lösen. Während der Prüfung besteht kein Zugang zum Internet, und es dürfen keine gedruckten oder elektronischen Dokumente zur Prüfung mitgebracht werden. Dieses Verbot schließt auch Notizen, Bücher oder sonstige Materialien ein. Dokumentation zu AMQ und AMQ Streams, Kafka und Kafka Streams ist während der Prüfung verfügbar.

Empfohlene Anschlusskurse oder Prüfungen

Building Resilient Microservices with Red Hat OpenShift Service Mesh (DO328)