Visão Geral
Este curso aborda de forma rigorosa e progressiva os fundamentos matemáticos que sustentam o algoritmo de Backpropagation, essencial para o treinamento de redes neurais artificiais. O foco está na compreensão profunda dos conceitos de cálculo diferencial, álgebra linear, otimização e teoria do erro, conectando a matemática formal à implementação prática em modelos de aprendizado profundo. O curso prepara o aluno para compreender, analisar e depurar algoritmos de treinamento de redes neurais em nível acadêmico e industrial.
Objetivo
Após realizar este curso Fundamentos Matemáticos do Backpropagation, você será capaz de:
- Compreender o papel do Backpropagation no treinamento de redes neurais
- Aplicar cálculo diferencial e regra da cadeia em grafos computacionais
- Derivar gradientes para funções de custo comuns
- Analisar a propagação do erro em redes profundas
- Entender problemas matemáticos como vanishing e exploding gradients
- Relacionar teoria matemática com implementações práticas
Publico Alvo
-
- Estudantes de ciência da computação, engenharia e áreas correlatas
- Profissionais de dados e machine learning
- Engenheiros de software interessados em deep learning
- Pesquisadores iniciantes em inteligência artificial
-
Pre-Requisitos
-
- Álgebra linear básica
- Cálculo diferencial e integral em uma variável
- Programação básica (Python ou equivalente)
- Noções introdutórias de machine learning
-
Materiais
Ingles/Portugues
Conteúdo Programatico
Module 1: Mathematical Foundations for Neural Networks
- Scalars, vectors, matrices and tensors
- Linear transformations and matrix multiplication
- Norms and inner products
- Review of probability and statistics for learning
Module 2: Calculus for Optimization
- Limits, derivatives and partial derivatives
- Gradients and Jacobians
- Hessian matrix and second-order derivatives
- Taylor series and local approximations
Module 3: Cost Functions and Error Surfaces
- Mean Squared Error
- Cross-entropy loss
- Convex vs non-convex functions
- Geometry of error surfaces
Module 4: Chain Rule and Computational Graphs
- Chain rule in multivariable calculus
- Computational graphs representation
- Forward pass and backward pass
- Automatic differentiation concepts
Module 5: Backpropagation Algorithm
- Mathematical derivation of backpropagation
- Gradient flow through layers
- Weight and bias updates
- Vectorized backpropagation
Module 6: Optimization and Learning Dynamics
- Gradient descent and variants
- Learning rate and convergence
- Vanishing and exploding gradients
- Initialization strategies
Module 7: From Theory to Practice
- Manual gradient computation examples
- Numerical gradient checking
- Implementing backpropagation from scratch
- Comparing analytical vs automatic gradients
TENHO INTERESSE