Visão Geral
O curso Apache Flink AWS Kinesis Analytics oferece uma abordagem prática e detalhada sobre como desenvolver, implantar e gerenciar aplicações de streaming em tempo real utilizando o Apache Flink integrado ao Amazon Kinesis Data Analytics. O participante aprenderá a processar dados em tempo real, criar pipelines escaláveis e implementar soluções analíticas com alta disponibilidade e baixa latência dentro do ecossistema AWS.
Durante o curso, os alunos serão orientados desde os conceitos fundamentais de streaming e processamento de dados até a configuração de ambientes e a criação de aplicações complexas usando Flink e Kinesis em conjunto.
A metodologia combina teoria e prática, com exercícios laboratoriais guiados em ambiente real de nuvem.
Objetivo
Após realizar este curso Apache Flink AWS Kinesis Analytics, você será capaz de:
- Compreender os fundamentos do processamento de dados em tempo real.
- Integrar Apache Flink com o AWS Kinesis Data Analytics.
- Criar pipelines escaláveis e resilientes de streaming de dados.
- Implantar, monitorar e otimizar aplicações Flink no ambiente AWS.
- Aplicar boas práticas de segurança, performance e custos em aplicações de streaming.
Publico Alvo
Este curso é destinado a:
- Engenheiros de dados e arquitetos de soluções que trabalham com Big Data e aplicações em tempo real.
- Desenvolvedores que desejam aprender a integrar Apache Flink com serviços AWS.
- Profissionais de DevOps e SRE interessados em automação e orquestração de pipelines de dados.
- Analistas e cientistas de dados que precisam processar e analisar streams contínuos em tempo real.
Pre-Requisitos
- Conhecimento básico de AWS (IAM, EC2, Kinesis, S3).
- Noções de Apache Flink e conceitos de streaming de dados.
- Experiência básica com programação Java, Scala ou Python.
- Conta AWS ativa para práticas laboratoriais.
Materiais
Português + Exercícios + Lab Pratico
Conteúdo Programatico
Module 1: Introduction to Real-Time Data Processing
- Understanding streaming vs batch processing
- Overview of Apache Flink and AWS Kinesis services
- Flink architecture and data flow concepts
- Use cases and business scenarios for real-time analytics
Module 2: Apache Flink Fundamentals
- Flink runtime and job architecture
- Streams, transformations, and windows
- State management and checkpointing
- Fault tolerance and event-time semantics
Module 3: AWS Kinesis Data Streams and Firehose
- Overview of Kinesis Data Streams and Firehose
- Stream creation and configuration
- Data producers and consumers
- Integrating Kinesis with S3, Lambda, and Redshift
Module 4: Kinesis Data Analytics for Apache Flink
- Introduction to Kinesis Data Analytics (KDA)
- Setting up KDA for Apache Flink applications
- Deploying and scaling Flink jobs on KDA
- Managing resources and monitoring applications
Module 5: Building Streaming Pipelines
- End-to-end Flink + Kinesis pipeline design
- Data ingestion, transformation, and enrichment
- Writing results to Amazon S3 and DynamoDB
- Real-time dashboards with Amazon CloudWatch and QuickSight
Module 6: Advanced Flink Features
- Working with custom sources and sinks
- Using Flink SQL for stream analytics
- Integrating with Kafka, Glue, and EMR
- Stateful stream processing and CEP (Complex Event Processing)
Module 7: Security, Cost Optimization and Best Practices
- IAM roles and permissions for Kinesis and Flink
- Data encryption and compliance on AWS
- Cost monitoring and optimization strategies
- Best practices for high availability and scaling
Module 8: Hands-On Labs and Case Studies
- Building a real-time fraud detection pipeline
- Deploying a real-time IoT data analytics solution
- Monitoring and troubleshooting Flink jobs on KDA
- Capstone project: end-to-end streaming analytics application
TENHO INTERESSE