Contáctenos
EX482

Red Hat Certified Specialist in Event-Driven Development with Kafka

Ubicación

Formato Información de los cursos

Lea las opiniones de otros estudiantes en nuestro Red Hat Learning Community

Resumen

Información útil

 

En el examen Red Hat Certified Specialist in Event-Driven Development with Kafka, se evalúan sus habilidades y conocimiento sobre la codificación de aplicaciones basadas en eventos utilizando Apache Kafka y el desarrollo de Apache Kafka Streams. El examen se centra en las habilidades básicas necesarias para crear aplicaciones con la arquitectura basada en eventos.

Si aprueba el examen, obtendrá la certificación Red Hat Certified Specialist in Event-Driven Development with Kafka, que también cuenta para obtener la acreditación Red Hat Certified Architect (RHCA®).

Este examen se basa en Red Hat® AMQ® Streams 1.8 con Apache Kafka 2.8.

Público al que va dirigido el examen

A continuación se mencionan algunos de los especialistas a quienes podría interesarles la credencial Red Hat Certified Specialist in Event-Driven Development with Kafka:

  • Desarrolladores y arquitectos de Java que implementen aplicaciones basadas en eventos con Apache Kafka y Kubernetes
  • Especialistas certificados por Red Hat que deseen obtener la acreditación Red Hat Certified Architect (RHCA)

Requisitos previos para el examen

  • Deben estar familiarizados con el uso de VSCode o VSCodium en un entorno de Red Hat Enterprise Linux.
  • También deben tener bastante experiencia con Java SE, lo que incluye conocer y entender los conceptos básicos de Java y las API. Por ejemplo, se deben conocer las excepciones, las anotaciones, las funciones anónimas, la programación funcional y la API Collections.
  • Les resultarás muy útil tener cierto conocimiento sobre OpenShift o Kubernetes.
  • Deberán realizar una evaluación de habilidades sin costo para hallar el curso que los ayude a prepararse mejor para presentar el examen.

Objetivos

Durante la preparación

Red Hat recomienda que los candidatos obtengan la certificación Red Hat Certified Cloud-Native Developer (EX378) antes de presentar el examen, aunque no es obligatorio.

Elementos de estudio para el examen

Como parte del examen, deberá poder realizar una serie de tareas:

  • Comprender y utilizar las aplicaciones basadas en eventos con la API de AMQ Streams:
    • Saber enviar y leer datos de Kafka
    • Desarrollar microservicios y otras aplicaciones para que compartan datos con alto rendimiento y baja latencia
  • Comprender la arquitectura y el ecosistema de Kafka:
    • Saber crear, configurar y gestionar temas
    • Saber configurar el ecosistema para compartir datos con un alto rendimiento y baja latencia
    • Saber adaptar y garantizar el orden de los mensajes
    • Usar y configurar la función de reducción de mensajes para eliminar registros antiguos
    • Configurar y usar la replicación de datos para controlar la tolerancia a los errores
    • Retener grandes volúmenes de datos para brindar acceso inmediato
  • Comprender y utilizar una aplicación de Quarkus conectada a Kafka:
    • Conectarse a Kafka con la mensajería reactiva
    • Conectarse a Apache Kafka con su API original
    • Generar y recibir mensajes e implementar aplicaciones basadas en eventos y de transmisión de datos
    • Conocer las bibliotecas basadas en eventos que utiliza Quarkus: API de Publisher o Asynchronous Java, las API de Reactor o RxJava, Mutiny, etc.
  • Brindar y configurar el acceso a un clúster de Kafka:
    • Poder acceder a las interfaces "listener" externas de Kafka en la nube. En los casos de Kubernetes o Red Hat OpenShift, conectarse a través de los puertos de los nodos, los balanceadores de carga, y de manera externa, mediante un objeto Ingress de Kubernetes o Route de OpenShift.
    • Saber configurar la seguridad de las comunicaciones entre el cliente de Kafka y el clúster
    • Generar y recibir mensajes e implementar aplicaciones basadas en eventos y de transmisión de datos
    • Comprender y proporcionar la configuración del cliente de Kafka para la seguridad requerida de autenticación y autorización
  • Proporcionar y usar el esquema de Red Hat Service Registry para separar los datos de las aplicaciones cliente, y compartir y gestionar los tipos de datos durante la ejecución:
    • Comprender y utilizar las diferentes API de Kafka Streams, como Streams DSL y Processor API
    • Configurar y proporcionar la serialización adecuada de Kafka para que los registros muestren los datos correctamente
    • Ser capaz de recibir datos de uno o más flujos de entrada; ejecutar operaciones complejas, como la generación de un registro nuevo a partir de otro, el filtrado o la combinación de flujos y tablas, la repartición o la agrupación; y escribir los resultados en uno o más flujos de salida
    • Comprender la dualidad de los flujos y las tablas y realizar operaciones con estado, como la combinación, las agregaciones y la combinación de datos por período
    • Comprender la manera de definir y conectar los procesadores y los transformadores personalizados para que interactúen con almacenes de estado mediante la Processor API
    • Comprender la manipulación de los eventos mediante la derivación de colecciones nuevas a partir de las existentes y la descripción de los cambios entre ellas
  • Integrar datos con Kafka Connect:
    • Comprender la manera en que Kafka Connect proporciona confiabilidad y escalabilidad en la transferencia de datos entre Kafka y otros sistemas de datos heterogéneos
    • Comprender la manera en que Kafka Connect facilita la conversión, la transformación y la gestión de los números secuenciales de identificación de las particiones
    • Aplicar la detección y la captura de datos modificados (CDC) con Debezium
    • Comprender los diferentes modos de ejecución independientes o distribuidos y sus casos prácticos
    • Usar los conectores diseñados previamente de AMQ Streams
  • Comprender y utilizar patrones avanzados y basados en eventos en aplicaciones de Apache Kafka:
    • Reconocer una aplicación con patrones de secuencia de eventos y de separación de comandos y consultas (CQRS), y trabajar en ella
    • Conocer y utilizar las técnicas avanzadas, como las transacciones comerciales de larga duración con los patrones de coordinación y bandeja de salida de Saga, para intercambiar datos entre diferentes servicios
  • Solucionar los problemas más comunes en las aplicaciones basadas en eventos, como la conservación del orden de los mensajes, los reintentos y la idempotencia, el manejo de eventos duplicados y la implementación de casos de prueba de Streams
  • Es posible que durante el examen se le pida que trabaje con una o varias aplicaciones de Java ya escritas. Deberá modificar algunas partes del código de la aplicación.

    Como en todos los exámenes de Red Hat basados en el desempeño, la configuración debe permanecer después de reiniciar el equipo, sin necesidad de ninguna intervención.

Qué necesita saber

Preparación

Red Hat recomienda que los candidatos realicen el curso Developing Event-Driven Applications with Apache Kafka and Red Hat AMQ Streams (AD482) a modo de preparación.

Formato del examen

Se trata de una evaluación práctica en la que deberá realizar tareas de desarrollo reales. Durante el examen, no tendrá acceso a Internet y no podrá traer copias impresas ni documentación electrónica, lo cual incluye notas, libros o cualquier otro material. Habrá documentación de AMQ y AMQ Streams, Kafka y Kafka Streams disponible durante el examen.

Próximo examen o curso recomendado

Building Resilient Microservices with Red Hat OpenShift Service Mesh (DO328)