EX482
Red Hat Certified Specialist in Event-Driven Application Development exam
Visão geral
O Red Hat Certified Specialist in Event-Driven Application Development exam verifica suas habilidades e conhecimentos para codificar aplicações orientadas a eventos usando o Apache Kafka e o Apache Kafka Streams. O exame é voltado para as habilidades básicas necessárias na criação de aplicações usando a arquitetura orientada a eventos.
Ao ser aprovado neste exame, você receberá uma credencial Red Hat Certified Specialist in Event-Driven Development with Kafka, que poderá ser aproveitada para obter a certificação Red Hat Certified Architect (RHCA®).
Os objetivos listados para este exame são baseados na versão mais recente disponível da solução Red Hat. Clique em “Comece agora mesmo” para ver todas as versões disponíveis deste exame para compra.
Público-alvo do exame
A credencial Red Hat Certified Specialist in Event-Driven Development with Kafka é voltada para:
- Desenvolvedores e arquitetos de Java que estão implementando aplicações orientadas a eventos usando o Apache Kafka e o Kubernetes
- Profissionais certificados pela Red Hat que desejam obter a certificação Red Hat Certified Architect (RHCA)
Pré-requisitos do exame
- Ter familiaridade com o uso do VSCode/VSCodium em um ambiente do Red Hat Enterprise Linux.
- Ter ampla experiência com Java SE, incluindo conhecimento e compreensão dos principais conceitos de Java e APIs. É essencial ter familiaridade com exceções, lambdas, programação funcional e Collections API.
- Ter conhecimento básico do OpenShift/Kubernetes é útil.
- Fazer a nossa avaliação gratuita para identificar o melhor curso para lhe preparar para o exame.
Objetivos
Preparação
A Red Hat recomenda aos candidatos a aprovação no Red Hat Certified Cloud-Native Developer (EX378) antes de realizar este exame, mas isso não é obrigatório.
Tópicos de estudo para o exame
Como parte deste exame, você deve saber realizar as seguintes tarefas:
- Compreender e trabalhar com aplicações orientadas a eventos com a AMQ Streams API
- Enviar e ler dados do Kafka
- Desenvolver microsserviços e outras aplicações para compartilhar dados com altíssimo rendimento e baixa latência
- Compreender a arquitetura e o ecossistema Kafka:
- Criar, configurar e gerenciar tópicos
- Configurar o ecossistema para compartilhar dados com taxa de transferência extremamente alta e baixa latência
- Escalar e manter a ordem das mensagens
- Configurar e compactar mensagens para remover registros antigos
- Configurar e usar a replicação de dados para controlar a tolerância a falhas
- Reter de grandes volumes de dados para acesso imediato
- Compreender e trabalhar com aplicações Quarkus conectadas ao Kafka
- Conectar-se ao Kafka com sistema de mensageria reativo
- Conectar-se ao Apache Kafka com a API nativa
- Produzir e consumir mensagens e implementar aplicações de transmissão de dados e orientadas a eventos
- Conhecer as bibliotecas reativas usadas pelo Quarkus: Asynchronous Java ou Publisher API, RxJava ou Reactor APIs, Mutiny, etc.
- Configurar e oferecer acesso a um cluster Kafka
- Acessar os ouvintes externos do Kafka na nuvem Nos casos do Kubernetes ou do Red Hat OpenShift, conectar-se por meio de portas de nó e balanceadores de carga ou externamente, usando uma rota de entrada ou OpenShift
- Configurar a segurança das comunicações entre o cliente Kafka e o cluster
- Produzir e consumir mensagens e implementar aplicações de transmissão de dados e orientadas a eventos
- Compreender e fornecer a configuração do cliente Kafka para a autenticação necessária e a segurança de autorização
- Fornecer e usar o esquema Red Hat Service Registry para desacoplar os dados das aplicações clientes, além de compartilhar e gerenciar os tipos de dados no ambiente de execução
- Entender e trabalhar com as diferentes APIs do Kafka Streams, como Streams DSL e Processor API
- Configurar e fornecer o Kafka SerDes (serializador/desserializador) adequado para que os registros materializem os dados corretamente
- Receber dados de um ou mais fluxos de entrada, executar operações complexas como mapeamento, filtragem ou junção, repartição e/ou agrupamento e gravar os resultados em um ou mais fluxos de saída
- Compreender a dualidade da tabela de fluxo e execute operações stateful, como junções, agregações e junções em janela
- Definir e conectar processadores e transformadores personalizados para interagir com armazenamentos de estado usando a Processor API
- Compreender a manipulação de eventos derivando novas coleções a partir das existentes e descrevendo as alterações entre elas
- Integração de dados com o Kafka Connect:
- Compreender como o Kafka Connect oferece confiabilidade e escalabilidade na transferência de dados entre o Kafka e outros sistemas de dados heterogêneos
- Compreender como o Kafka Connect facilita a transformação, a conversão de dados e o gerenciamento de offset
- Aplicar as alterações de detecção e captura de dados (CDC) com o Debezium
- Compreender os diferentes modos de execução autônoma/distribuída e seus casos de uso
- Usar os conectores AMQ Streams pré-compilados
- Compreender e usar padrões avançados orientados a eventos em aplicações baseadas no Apache Kafka:
- Reconhecer e trabalhar em uma aplicação com padrões de Event Sourcing e CQRS
- Conhecer e trabalhar com técnicas avançadas, como transações de negócios de longa duração com orquestração Saga e padrões de caixa de saída para trocar dados entre diferentes serviços
- Solucionar problemas comuns de aplicações orientadas a eventos, como manutenção da ordem de mensagens, novas tentativas e idempotência, manipulação de eventos duplicados, implementação de casos de teste do Streams
Durante o exame, talvez você precise trabalhar com uma ou mais aplicações Java pré-gravadas. Será necessário modificar algumas partes do código da aplicação.
Como em todos os exames da Red Hat que são baseados em desempenho, as configurações devem ser mantidas após a reinicialização sem intervenção.
O que você precisa saber
Preparação
A Red Hat recomenda fazer o curso Developing Event-Driven Applications with Apache Kafka and Red Hat AMQ Streams (AD482) para ajudar na preparação.
Formato do exame
Este é um exame hands-on e prático, em que é necessário realizar tarefas reais de desenvolvimento. Não será disponibilizado acesso à Internet durante o exame nem será permitido levar qualquer documentação em cópia impressa ou eletrônica, incluindo anotações, livros ou quaisquer outros materiais. A documentação relacionada ao AMQ, AMQ Streams, Kafka e Kafka Streams estará disponível durante o exame.
Próximo exame ou curso recomendado
Building Resilient Microservices with Red Hat OpenShift Service Mesh (DO328)