EX482
Examen Spécialiste certifié Red Hat en développement d'applications orientées événements
Présentation
L'examen Spécialiste certifié Red Hat en développement d'applications orientées événements teste vos compétences et connaissances en matière de codage d'applications orientées événements à l'aide d'Apache Kafka et de développement avec Apache Kafka Streams. L'examen porte sur les compétences de base requises pour créer des applications à l'aide d'une architecture orientée événements.
Si vous réussissez cet examen, vous obtiendrez la certification Spécialiste certifié Red Hat en développement orienté événements avec Kafka, qui compte également pour l'obtention de la certification RHCA® (Architecte certifié Red Hat).
Les objectifs associés à cet examen sont basés sur la version la plus récente du produit Red Hat concerné. Cliquez sur « Commencer » pour afficher toutes les versions de cet examen disponibles à l'achat.
Public ciblé
Les personnes suivantes peuvent être intéressées par l'obtention de la certification Spécialiste certifié Red Hat en développement orienté événements avec Kafka :
- Développeurs et architectes Java qui mettent en œuvre des applications orientées événements à l'aide d'Apache Kafka et de Kubernetes
- Professionnels certifiés Red Hat qui cherchent à obtenir la certification RHCA (Architecte certifié Red Hat)
Prérequis pour cet examen
- Savoir utiliser VSCode/VSCodium dans un environnement Red Hat Enterprise Linux
- Avoir une bonne expérience de Java SE, y compris des connaissances et une bonne compréhension des principaux concepts et API Java ; par exemple, connaître les exceptions, les annotations et les lambdas, et maîtriser la programmation fonctionnelle et l'API Collections (obligatoire)
- Avoir des connaissances de base d'OpenShift et de Kubernetes (utile, mais non obligatoire)
- Avoir passé l'évaluation gratuite pour trouver le cours qui sera le plus utile à la préparation de cet examen
Objectifs
Préparation
Red Hat recommande aux candidats d'obtenir la certification Développeur cloud-native certifié Red Hat (EX378) avant de passer cet examen, sans aucune obligation.
Points à étudier pour l'examen
Pour cet examen, vous devez être capable d'effectuer les tâches suivantes :
- Comprendre et utiliser des applications orientées événements avec l'API AMQ Streams :
- Envoyer et lire des données avec Kafka
- Développer des microservices et d'autres applications pour partager des données avec un débit très élevé et un faible niveau de latence
- Comprendre l'architecture et l'écosystème Kafka :
- Créer, configurer et gérer des rubriques
- Configurer l'écosystème pour partager des données avec un débit très élevé et un faible niveau de latence
- Mettre à l’échelle et garantir l’ordre des messages
- Compacter les messages pour supprimer les anciens enregistrements et les définir
- Configurer et utiliser la réplication des données pour contrôler la tolérance aux pannes
- Conserver de gros volumes de données pour un accès immédiat
- Comprendre et utiliser une application Quarkus connectée à Kafka :
- Se connecter à Kafka avec Reactive Messaging
- Se connecter à Apache Kafka avec son API native
- Produire et utiliser des messages et mettre en œuvre des applications orientées événements et de diffusion de données
- Connaître les bibliothèques réactives utilisées par Quarkus : API asynchrone Java ou Publisher, API RxJava ou Reactor, Mutiny, etc.
- Fournir et configurer l'accès à un cluster Kafka :
- Être en mesure d’accéder aux écouteurs externes de Kafka dans le cloud ; avec Kubernetes ou Red Hat OpenShift, se connecter via des ports de nœud, des équilibreurs de charge et en externe, à l’aide d'une entrée ou d'une route OpenShift
- Comprendre comment configurer la sécurité des communications entre le client Kafka et le cluster
- Produire et utiliser des messages et mettre en œuvre des applications orientées événements et de diffusion de données
- Comprendre et fournir la configuration du client Kafka pour assurer la sécurité de l'authentification et des autorisations
- Fournir et utiliser le schéma du registre de services Red Hat pour dissocier les données des applications clientes, ainsi que pour partager et gérer les types de données au moment de l'exécution :
- Comprendre et utiliser les différentes API Kafka Streams, telles que Streams DSL et Processor
- Configurer et fournir les blocs Kafka SerDes (Serializer/Deserializer) appropriés pour les enregistrements afin de matérialiser correctement les données
- Être capable de recevoir des données d'un ou de plusieurs flux d'entrée, d'exécuter des opérations complexes telles que la mise en correspondance, le filtrage ou la jointure, la répartition et/ou le regroupement, et d'écrire les résultats dans un ou plusieurs flux de sortie
- Comprendre la dualité flux-table et effectuer des opérations stateful telles que des jointures, des agrégations et des jointures de type « windowed »
- Comprendre comment définir et connecter des processeurs et des transformateurs personnalisés pour interagir avec les magasins d'états à l'aide de l'API Processor
- Comprendre la manipulation des événements en dérivant de nouvelles collections à partir des collections existantes et en décrivant les modifications entre elles
- Intégrer des données avec Kafka Connect :
- Comprendre comment Kafka Connect assure la fiabilité et l'évolutivité des transferts de données entre Kafka et d'autres systèmes de données hétérogènes
- Comprendre comment Kafka Connect facilite la conversion des données, la transformation et la gestion des décalages
- Détecter et capturer des modifications de données avec Debezium
- Comprendre les différents modes d'exécution autonomes/distribués et leurs cas d'utilisation
- Utiliser les connecteurs AMQ Streams prédéfinis
- Comprendre et utiliser des modèles orientés événements avancés dans des applications basées sur Apache Kafka :
- Reconnaître et utiliser une application avec les modèles Event Sourcing et CQRS
- Connaître et utiliser des techniques avancées telles que les transactions métier de longue durée avec l'orchestration Saga et les modèles de boîte d'envoi pour échanger des données entre différents services
- Résolution des problèmes les plus courants dans les applications orientées événements, tels que la gestion de l'ordre des messages, les nouvelles tentatives et l'idempotence, la gestion des événements en double, la mise en œuvre des scénarios de test Streams
Au cours de l'examen, vous devrez peut-être travailler avec une ou plusieurs applications Java prérédigées. Vous devrez modifier certaines parties du code de l'application.
Comme pour tous les examens Red Hat basés sur les performances, les configurations doivent persister sans intervention après un redémarrage.
Informations utiles
Préparation
Nous vous recommandons de suivre le cours Développement d'applications orientées événements avec Apache Kafka et Red Hat AMQ Streams (AD482) pour vous préparer.
Format de l'examen
Cet examen pratique requiert l'exécution de tâches de développement concrètes. Vous n'avez pas le droit d'accéder à Internet pendant l'examen, ni d'amener de la documentation papier ou électronique. Les notes, livres et autres documents sont interdits. La documentation relative à AMQ et AMQ Streams, ainsi qu'à Kafka et Kafka Streams est disponible pendant l’examen.
Examens ou cours recommandés pour la suite
Création de microservices résilients avec Red Hat OpenShift Service Mesh (DO328)