Objetivo
Durante este treinamento você irá:
- Obtenha uma compreensão do Apache Kafka® e da
plataforma Confluent
- Explorar casos de uso
- Receba uma visão geral dos principais conceitos do Kafka que permitem alimentar uma plataforma de streaming de eventos em tempo real
altamente escalável, altamente disponível e resiliente
- Conheça a plataforma Confluent, que oferece uma
plataforma de transmissão de eventos em tempo real pronta para empresas, com
tecnologia Apache Kafka®
Pre-Requisitos
Não se espera que os participantes tenham qualquer experiência anterior com o Kafka. Alguns conhecimentos básicos do sistema operacional Linux e experiência no uso de um shell como o Bash são benéficos.
Este curso é um pré-requisito recomendado para alunos que frequentam os cursos de treinamento Apache Kafka® Administration by Confluent e/ou Confluent Developer Skills for Building Apache Kafka®. Os participantes são obrigados a fornecer um computador portátil com acesso desobstruído à Internet para participar plenamente da aula.
Informações Gerais
Os exercícios incluem:
- Iniciando e explorando um cluster Kafka mínimo
- Usando ferramentas de linha de comando do Kafka para explorar metadados de cluster
no ZooKeeper, criar tópicos no cluster e
publicar e consumir mensagens
- Executando um consumidor baseado em Java e observe o
atraso do consumidor ao dimensionar o consumidor
- Configurando o Kafka Connect com uma origem do conector MQTT
para criar um pipeline de dados
Usando o Confluent Control Center para monitorar seu cluster e executar consultas ksqlDB.
Materiais
Português + Exercícios + Lab Pratico
Conteúdo Programatico
- Motivação para uma mudança de paradigma para “orientado a eventos”
- Como Kafka é a espinha dorsal do streaming de eventos em tempo real
- Como outros grandes players do mercado usam o Kafka
- Casos de uso do cliente
- Microsserviços, IoT e Edge Computing
Motivação e Casos de Uso do Cliente
- Core Banking, mecanismo de pagamentos e detecção de fraudes
- Coleta e Divulgação de Dados Cibernéticos
- Substituição ESB
- Pipeline de dados
- e-commerce e cliente 360
- Descarregamento de mainframe
Fundamentos do Apache Kafka®
- Arquitetura
- O papel do ZooKeeper
- Tópicos, Partições e Segmentos
- O log de confirmação e os fluxos
- Corretores e replicação de corretores
- Noções básicas de produtores
- Consumidores, grupos de consumidores e compensações
Como Funciona o Kafka
- Visão geral de código de alto nível para um produtor básico e um consumidor básico
- Alta disponibilidade por meio de replicação
- Políticas de retenção de dados
- Design do Produtor e Garantias do Produtor
- Garantias de entrega, incluindo Exatamente uma vez semântica
- Estratégias de partição
- Reequilíbrios do grupo de consumidores
- Tópicos compactados
- Estratégias de solução de problemas
- Visão geral de segurança
Integrando o Kafka em seu ambiente
- Obtenha fluxos de dados dentro e fora do Kafka com o Kafka Connect e o REST Proxy
- Mantenha os formatos de dados e garanta a compatibilidade com Schema Registry e Avro
- Crie aplicativos de streaming em tempo
O Confluente Plataforma
- Plataforma de streaming como sistema nervoso central
- Modelos de implantação — no local versus SaaS
- O Centro de Controle Confluente
- Controle de acesso baseado em função (RBAC)
- A CLI Confluente
- Operador de Confluência
- Confluent Hub para Conectores Certificados
TENHO INTERESSE