Contato
EX482

Exame Red Hat Certified Specialist in Event-Driven Development with Kafka (EX482)

Local

Formato Veja as opções

Leia o depoimento de outros alunos no Red Hat Learning Community

Visão geral

O que você precisa saber

  • Com o nosso formato de exame remoto, você pode fazer o teste de qualquer lugar. Saiba mais

 

O Red Hat Certified Specialist in Event-Driven Development with Kafka exam verifica suas habilidades e conhecimentos para codificar aplicações orientadas a eventos usando o Apache Kafka e o Apache Kafka Streams. O exame é voltado para as habilidades básicas necessárias na criação de aplicações usando a arquitetura orientada a eventos.

Ao ser aprovado neste exame, você receberá uma credencial Red Hat Certified Specialist in Event-Driven Development with Kafka, que poderá ser aproveitada para obter a certificação Red Hat Certified Architect (RHCA®).

Este exame é baseado no Red Hat® AMQ® Streams 1.8 com Apache Kafka 2.8.

Público para este exame

A credencial Red Hat Certified Specialist in Event-Driven Development with Kafka é voltada para:

  • Desenvolvedores e arquitetos de Java que estão implementando aplicações orientadas a eventos usando o Apache Kafka e o Kubernetes
  • Profissionais certificados pela Red Hat que desejam obter a certificação Red Hat Certified Architect (RHCA)

Pré-requisitos do exame

  • Ter familiaridade com o uso do VSCode/VSCodiium em um ambiente do Red Hat Enterprise Linux.
  • Ter ampla experiência com Java SE, incluindo conhecimento e compreensão dos principais conceitos de Java e APIs. É essencial ter familiaridade com exceções, lambdas, programação funcional e Collections API.
  • Ter conhecimento básico do OpenShift/Kubernetes é útil.
  • Fazer a nossa avaliação gratuita para identificar o melhor curso para lhe preparar para o exame.

Objetivos

Preparação

A Red Hat recomenda aos candidatos a aprovação no Red Hat Certified Cloud-Native Developer (EX378) antes de realizar este exame, mas isso não é obrigatório.

Tópicos de estudo para o exame

Como parte deste exame, você deve saber realizar as seguintes tarefas:

  • Compreender e trabalhar com aplicações orientadas a eventos com a AMQ Streams API
    • Enviar e ler dados do Kafka
    • Desenvolver microsserviços e outras aplicações para compartilhar dados com altíssimo rendimento e baixa latência
  • Compreender a arquitetura e o ecossistema Kafka:
    • Criar, configurar e gerenciar tópicos
    • Configurar o ecossistema para compartilhar dados com taxa de transferência extremamente alta e baixa latência
    • Escalar e manter a ordem das mensagens
    • Configurar e compactar mensagens para remover registros antigos
    • Configurar e usar a replicação de dados para controlar a tolerância a falhas
    • Reter de grandes volumes de dados para acesso imediato
  • Compreender e trabalhar com aplicações Quarkus conectadas ao Kafka
    • Conectar-se ao Kafka com sistema de mensageria reativo
    • Conectar-se ao Apache Kafka com a API nativa
    • Produzir e consumir mensagens e implementar aplicações de transmissão de dados e orientadas a eventos
    • Conhecer as bibliotecas reativas usadas pelo Quarkus: Asynchronous Java ou Publisher API, RxJava ou Reactor API, Mutiny, etc.
  • Configurar e oferecer acesso a um cluster Kafka
    • Acessar os ouvintes externos do Kafka na nuvem Nos casos do Kubernetes ou do Red Hat OpenShift, conectar-se por meio de portas de nó e balanceadores de carga ou externamente, usando uma rota de entrada ou OpenShift
    • Configurar a segurança das comunicações entre o cliente Kafka e o cluster
    • Produzir e consumir mensagens e implementar aplicações de transmissão de dados e orientadas a eventos
    • Compreender e fornecer a configuração do cliente Kafka para a autenticação necessária e a segurança de autorização
  • Fornecer e usar o esquema Red Hat Service Registry para desacoplar os dados das aplicações clientes, além de compartilhar e gerenciar os tipos de dados no ambiente de execução
    • Entender e trabalhar com as diferentes APIs do Kafka Streams, como Streams DSL e Processor API
    • Configurar e fornecer o Kafka SerDes (serializador/desserializador) adequado para que os registros materializem os dados corretamente
    • Receber dados de um ou mais fluxos de entrada, executar operações complexas como mapeamento, filtragem ou junção, repartição e/ou agrupamento e gravar os resultados em um ou mais fluxos de saída
    • Compreender a dualidade da tabela de fluxo e execute operações stateful, como junções, agregações e junções em janela
    • Definir e conectar processadores e transformadores personalizados para interagir com armazenamentos de estado usando a Processor API
    • Compreender a manipulação de eventos derivando novas coleções a partir das existentes e descrevendo as alterações entre elas
  • Integração de dados com o Kafka Connect:
    • Compreender como o Kafka Connect oferece confiabilidade e escalabilidade na transferência de dados entre o Kafka e outros sistemas de dados heterogêneos
    • Compreender como o Kafka Connect facilita a transformação, a conversão de dados e o gerenciamento de offset
    • Aplicar as alterações de detecção e captura de dados (CDC) com o Debezium
    • Compreender os diferentes modos de execução autônoma/distribuída e seus casos de uso
    • Usar os conectores AMQ Streams pré-compilados
  • Compreender e usar padrões avançados orientados a eventos em aplicações baseadas no Apache Kafka:
    • Reconhecer e trabalhar em uma aplicação com padrões de Event Sourcing e CQRS
    • Conhecer e trabalhar com técnicas avançadas, como transações de negócios de longa duração com orquestração Saga e padrões de caixa de saída para trocar dados entre diferentes serviços
  • Solucionar problemas comuns de aplicações orientadas a eventos, como manutenção da ordem de mensagens, novas tentativas e idempotência, manipulação de eventos duplicados, implementação de casos de teste do Streams
  • Durante o exame, talvez você precise trabalhar com uma ou mais aplicações Java pré-gravadas. Será necessário modificar algumas partes do código da aplicação.

    Como todos os exames da Red Hat que são baseados em desempenho, as configurações devem ser mantidas após a reinicialização sem intervenção.

O que você precisa saber

Preparação

A Red Hat recomenda fazer o curso Developing Event-Driven Applications with Apache Kafka and Red Hat AMQ Streams (AD482) para ajudar na preparação.

Formato do exame

Este é um exame hands-on e prático, em que é necessário realizar tarefas reais de desenvolvimento. Não será disponibilizado acesso à Internet durante o exame nem será permitido levar qualquer documentação em cópia impressa ou eletrônica, incluindo anotações, livros ou quaisquer outros materiais. A documentação relacionada ao AMQ, AMQ Streams, Kafka e Kafka Streams estará disponível durante o exame.

Próximo exame ou curso recomendado

Building Resilient Microservices with Red Hat OpenShift Service Mesh (DO328)