Visão Geral
Este curso apresenta de forma prática como trabalhar com o Apache Kafka em conjunto com o Confluent Schema Registry para criar pipelines de dados confiáveis, escaláveis e interoperáveis. O aluno aprenderá desde os fundamentos de mensageria com Kafka até a definição, versionamento e validação de esquemas de dados usando Avro, JSON Schema e Protobuf.
Conteúdo Programatico
Introdução ao Apache Kafka
- O que é Kafka e principais casos de uso
- Arquitetura: Brokers, Topics, Producers, Consumers
- Instalação e configuração básica do Kafka
- Criando e consumindo mensagens
Conceitos Fundamentais do Kafka
- Partições e réplicas
- Grupos de consumidores e paralelismo
- Retenção e offsets
- Produção e consumo de mensagens em diferentes linguagens
Introdução ao Schema Registry
- O problema da evolução de esquemas de dados
- O que é o Confluent Schema Registry
- Arquitetura e funcionamento do Schema Registry
- Integração com o Apache Kafka
Trabalhando com Avro, JSON Schema e Protobuf
- Criando e registrando esquemas no Registry
- Serialização e desserialização com Avro
- Suporte a JSON Schema e Protobuf
- Diferenças e casos de uso de cada formato
Compatibilidade de Esquemas
- Tipos de compatibilidade: Backward, Forward, Full
- Evolução de esquemas sem quebrar consumidores
-
Exemplo prático de atualização de esquemas em produção
Integração de Aplicações com Schema Registry
- Produtores e consumidores com Avro
- Uso de clientes em Java, Python e Node.js
- Configuração de serializers e deserializers
- Debug e validação de mensagens
Monitoramento e Boas Práticas
- Monitorando tópicos e esquemas
- Lidando com erros de compatibilidade
- Estratégias para versionamento de dados
- Melhores práticas em ambientes distribuídos
Projeto Final
- Criação de uma pipeline completa com Kafka + Schema Registry:
- Definição e registro de esquemas
- Produção e consumo de mensagens com Avro
- Evolução de esquema com compatibilidade garantida
- Deploy em Docker Compose ou Kubernetes