EX482

Red Hat Certified Specialist in Event-Driven Application Development exam

Panoramica

L'esame Red Hat Certified Specialist in Event-Driven Application Development verifica le tue competenze e conoscenze in materia di programmazione di applicazioni a eventi con Apache Kafka e sviluppo di flussi Apache Kafka. L'esame riguarda le competenze di base richieste per la creazione di applicazioni utilizzando un'architettura incentrata sugli eventi.

Il superamento dell'esame consente di ottenere la qualifica di Red Hat Certified Specialist in Event-Driven Development with Kafka, utile anche per il conseguimento della certificazione Red Hat Certified Architect (RHCA®).

Gli obiettivi indicati per l'esame si basano sulla versione del prodotto Red Hat più recente disponibile. Fai clic su "Inizia subito" per visualizzare tutte le versioni di questo esame disponibili per l'acquisto.

Destinatari dell'esame

Le seguenti categorie di utenti potrebbero essere interessate a ottenere una certificazione Red Hat Certified Specialist in Event-Driven Development with Kafka:

  • Sviluppatori e architetti Java che si occupano del deployment di applicazioni incentrate sugli eventi utilizzando Apache Kafka e Kubernetes.
  • Professionisti Red Hat Certified che desiderano conseguire la certificazione Red Hat Certified Architect (RHCA).

Requisiti per accedere all'esame

  • Familiarità con l'utilizzo di VSCode/VSCodium in un ambiente Red Hat Enterprise Linux.
  • Buona esperienza con Java SE, incluse la conoscenza e la comprensione dei concetti e delle API Java principali, tra cui eccezioni, annotazioni, espressioni lambda e familiarità con la programmazione funzionale e l'API Collections.
  • La conoscenza di base di OpenShift/Kubernetes è utile ma non obbligatoria.
  • Questa valutazione gratuita ti aiuta a trovare la giusta offerta formativa per prepararti a questo esame.

Obiettivi

In preparazione all'esame

Red Hat consiglia ai candidati di ottenere la certificazione Red Hat Certified cloud native Developer (EX378) prima di sostenere questo esame, benché non sia richiesto.

Consigli di studio per l'esame

Per superare l'esame, i candidati devono essere in grado di svolgere le seguenti attività:

  • Comprendere e utilizzare le applicazioni incentrate sugli eventi con l'API AMQ Streams.
    • Sapere come inviare e leggere dati da Kafka.
    • Saper sviluppare microservizi e altri tipi di applicazioni per condividere dati caratterizzati da produttività estremamente elevata e latenza ridotta.
  • Comprendere l'ecosistema e l'architettura di Kafka:
    • Come creare, configurare e gestire gli argomenti.
    • Come configurare l'ecosistema per condividere dati con una produttività estremamente elevata e latenza ridotta.
    • Come scalare e garantire l'ordinamento dei messaggi.
    • Compattazione dei messaggi per rimuovere i vecchi record e come impostarli.
    • Configurazione e utilizzo della replica dei dati per controllare la tolleranza agli errori.
    • Conservazione di volumi elevati di dati per un accesso immediato.
  • Comprendere e utilizzare un'applicazione Quarkus connessa a Kafka
    • Connettersi a Kafka con Reactive Messaging
    • Connettersi ad Apache Kafka con la sua API nativa
    • Produrre e utilizzare messaggi e distribuire applicazioni incentrate sugli eventi e di streaming dei dati
    • Acquisire familiarità con le librerie reattive utilizzate da Quarkus: API Publisher o Asynchronous Java, API RxJava o Reactor, Mutiny, ecc.
  • Fornire e configurare l'accesso a un cluster Kafka.
    • Poter accedere ai listener esterni di Kafka sul cloud. Nel caso di Kubernetes o Red Hat OpenShift, connettersi tramite porte del nodo, servizi di bilanciamento del carico e, esternamente, utilizzando una route in ingresso o OpenShift.
    • Comprendere come configurare la sicurezza delle comunicazioni tra il client Kafka e il cluster.
    • Produrre e utilizzare messaggi e distribuire applicazioni incentrate sugli eventi e di streaming dei dati
    • Comprendere ed effettuare la configurazione del client Kafka per la sicurezza dell'autenticazione e dell'autorizzazione richiesta.
  • Fornire e utilizzare lo schema Red Hat Service Registry per separare i dati dalle applicazioni client, condividere e gestire i tipi di dati in fase di runtime:
    • Comprendere e utilizzare le varie API Kafka Streams come Streams DSL e Processor.
    • Configurare e fornire il Kafka SerDes (serializzatore/deserializzatore) appropriato affinché i record materializzino correttamente i dati
    • Poter ricevere dati da uno o più flussi in ingresso, eseguire operazioni complesse come la mappatura, il filtraggio o l'unione, la ripartizione e/o il raggruppamento e scrivere i risultati in uno o più flussi in uscita.
    • Comprendere la dualità dello stream-table ed eseguire operazioni stateful come unioni, aggregazioni e unioni in modalità finestra.
    • Scoprire come definire e connettere processori e trasformatori personalizzati per interagire con gli archivi di stato utilizzando l'API Processor.
    • Comprendere la manipolazione degli eventi ricavando nuove raccolte da quelle esistenti e descrivendo le modifiche tra di esse.
  • Eseguire l'integrazione dei dati con Kafka Connect:
    • Scoprire come Kafka Connect offre affidabilità e scalabilità nel trasferimento dei dati tra Kafka e altri sistemi di dati eterogenei.
    • Scoprire come Kafka Connect facilita la conversione, la trasformazione e la gestione dell'offset dei dati.
    • Applicare il rilevamento e l'acquisizione delle modifiche dei dati (CDC) con Debezium.
    • Comprendere le diverse modalità di esecuzione autonome/distribuite e i relativi scenari di utilizzo.
    • Utilizzare i connettori AMQ Streams predefiniti.
  • Comprendere e utilizzare modelli avanzati incentrati sugli eventi nelle applicazioni basate su Apache Kafka:
    • Riconoscere e utilizzare un'applicazione con modelli Event Sourcing e CQRS
    • Conoscere e utilizzare tecniche avanzate come le transazioni aziendali a esecuzione prolungata con l'orchestrazione Saga e i modelli di outbox per lo scambio di dati tra servizi diversi.
  • Risolvere i problemi più comuni nelle applicazioni incentrate sugli eventi, come il mantenimento dell'ordine dei messaggi, i nuovi tentativi e l'idempotenza, la gestione di eventi duplicati, l'adozione degli scenari di test di Streams
  • Nel corso dell'esame al candidato può essere richiesto di lavorare con una o più applicazioni Java già scritte. Verrà richiesto di modificare alcune parti del codice dell'applicazione.

    Come per tutti gli esami pratici di Red Hat, le configurazioni devono rimanere invariate senza intervento dopo il riavvio del sistema.

Informazioni essenziali

Preparazione

Red Hat consiglia di seguire il corso Developing Event-Driven Applications with Apache Kafka and Red Hat AMQ Streams (AD482), propedeutico all'esame.

Struttura dell'esame

Si tratta di un esame pratico che richiede l'esecuzione di attività di sviluppo reali. Durante l'esame non è possibile accedere a Internet ed è vietato portare con sé documenti cartacei o elettronici. Il divieto si estende ad appunti, libri di testo e altro materiale. Durante l'esame è disponibile la documentazione relativa a AMQ e AMQ Streams, Kafka e Kafka Streams.

Esame o corso successivo consigliato

Building Resilient Microservices with Red Hat OpenShift Service Mesh (DO328)