Visão Geral
O curso Apache NiFi e Hadoop DataFlow Engineering apresenta os conceitos fundamentais, arquitetura, instalação, configuração e administração do Apache NiFi dentro do ecossistema de Big Data e Hadoop. Durante o treinamento, os participantes aprenderão como construir, gerenciar e monitorar fluxos de dados (DataFlows), integrar diferentes fontes de dados e aplicar boas práticas de governança e performance.
O curso aborda desde a introdução ao Hadoop e ao Apache NiFi até tópicos avançados como Data Provenance, Expression Language, RecordPath, integração com bancos de dados, Web Services, Data Lakes, clusterização, automação via API, monitoramento e otimização de performance.
Também são exploradas integrações com ferramentas do ecossistema como Apache Hadoop, Apache ZooKeeper, NiFi Registry, MiniFi, Docker e Kubernetes, além de práticas de desenvolvimento de processadores personalizados.
Ao final do curso, o participante estará apto a projetar, implementar e administrar pipelines de dados robustos utilizando Apache NiFi em ambientes corporativos e arquiteturas modernas de dados.
Objetivo
Após realizar este curso Apache NiFi e Hadoop DataFlow Engineering, você será capaz de:
- Compreender a arquitetura do Apache Hadoop e do Apache NiFi
- Projetar e implementar DataFlows para ingestão e transformação de dados
- Instalar e configurar ambientes Apache NiFi
- Construir pipelines de dados utilizando Processors e Controller Services
- Utilizar Expression Language e RecordPath para transformação de dados
- Integrar diferentes fontes de dados como FTP, bancos de dados e APIs
- Implementar versionamento de pipelines com NiFi Registry
- Administrar clusters NiFi em ambientes de produção
- Monitorar e otimizar performance de pipelines de dados
- Desenvolver processadores personalizados para Apache NiFi
Publico Alvo
- Engenheiros de Dados
- Engenheiros de Big Data
- Profissionais de DataOps
- Administradores de sistemas Linux
- Engenheiros DevOps
- Profissionais de integração de dados
- Arquitetos de dados
- Desenvolvedores de aplicações de dados
- Especialistas em plataformas Hadoop
Pre-Requisitos
- Conhecimentos básicos de Linux
- Noções de redes e protocolos de comunicação
- Conhecimentos básicos de bancos de dados SQL
- Noções de Big Data e Data Lake
- Familiaridade com conceitos de integração de dados é desejável
Materiais
Inglês/Português + Exercícios + Lab Pratico
TENHO INTERESSE