Visão Geral
O Curso Ansible for Kubernetes foi desenvolvido para profissionais que desejam automatizar a implantação, configuração e gerenciamento de clusters Kubernetes utilizando o Ansible, uma das ferramentas mais poderosas de automação de TI.
Durante o treinamento, os participantes aprenderão a integrar o Ansible com o Kubernetes para criar playbooks inteligentes, roles reutilizáveis e pipelines de automação que simplificam tarefas complexas de administração e orquestração de containers.
Com uma abordagem prática e guiada por exemplos reais, o curso oferece uma imersão completa na automação moderna de infraestrutura Infrastructure as Code (IaC) em ambientes baseados em contêineres.
Conteúdo Programatico
Módulo 1 – Fundamentos e Arquitetura do Kafka
- A história do Kafka e o conceito de event streaming
- Arquitetura detalhada (brokers, tópicos, partições, offsets, replicação, consumer groups)
- Publicação e consumo de eventos: Producers e Consumers
- Diferença entre Kafka e outras filas (RabbitMQ, ActiveMQ, Amazon SQS)
- Casos reais de uso em empresas
Laboratório 1: Instalação do Apache Kafka e primeiro teste de envio e consumo de mensagens.
Módulo 2 – Configuração e Administração
- Configuração do Kafka e Zookeeper
- Criação de tópicos via CLI e API
- Estrutura de logs, retenção e replicação
- Configuração com Docker e Docker Compose
- Ferramentas de monitoramento (Kafka UI e Kafdrop)
Laboratório 2: Criar e gerenciar tópicos e partições, simular falha e recuperação de um broker.
Módulo 3 – Desenvolvimento de Aplicações Kafka
- Trabalhando com Producers e Consumers em Java, Python e Node.js
- Serialização e desserialização (String, JSON, Avro)
- Controle de offset manual e automático
- Entregas garantidas: at most once, at least once e exactly once
- Boas práticas de design de aplicações Kafka
Laboratório 3: Criar uma aplicação simples de processamento de pedidos em tempo real.
Módulo 4 – Processamento de Dados em Tempo Real com Kafka Streams
- Introdução ao Kafka Streams API
- Transformações de fluxo (map, filter, join, aggregate)
- Gerenciamento de estado e windowing
- Comparativo entre Kafka Streams e Spark Streaming
- Casos práticos de uso corporativo
Laboratório 4: Construir um fluxo que analisa eventos e gera métricas em tempo real.
Módulo 5 – Integração com Outros Sistemas
- O que é o Kafka Connect
- Conectores de origem (source) e destino (sink)
- Integração com PostgreSQL, Elasticsearch e Amazon S3
- Uso do Schema Registry e controle de compatibilidade
- Boas práticas de versionamento e schema evolution
Laboratório 5: Criar uma integração entre Kafka e banco de dados relacional.
Módulo 6 – Segurança e Alta Disponibilidade
- Configuração de SSL/TLS, SASL e ACLs
- Proteção de tópicos e autenticação de usuários
- Estratégias de alta disponibilidade e failover
- Backup e recuperação de dados
Laboratório 6: Configurar autenticação SASL e simular uma falha de nó.
Módulo 7 – Monitoramento e Performance
- Monitoramento com Prometheus e Grafana
- Métricas principais: latência, throughput, lag e uso de partições
- Análise de logs e tuning de performance
- Boas práticas de manutenção de clusters Kafka
Laboratório 7: Criar um dashboard de métricas Kafka no Grafana.
Módulo 8 – Projeto Prático Final
Desafio Real:
Desenvolver uma aplicação completa baseada em eventos com Apache Kafka.
- Microserviço produtor → Kafka → Microserviço consumidor
- Processamento em tempo real de dados de transações ou pedidos
- Persistência dos resultados em banco de dados
- Monitoramento, logs e testes de carga
Entrega: Relatório técnico, código-fonte e apresentação final.