Visão Geral
Este Curso Comprehensive Generative AI Engineering for LLMOps, aborda de forma profunda e prática a engenharia de Generative AI aplicada a operações (LLMOps), cobrindo desde os fundamentos de Large Language Models até sua integração, deployment, escalabilidade, monitoramento, segurança e otimização de custos em ambientes de produção. O treinamento capacita o profissional a projetar, implantar, operar e escalar aplicações baseadas em LLMs, com foco em workflows reais de IT Ops, SRE, DevOps e Platform Engineering.
Este curso abrangente de Inteligência Artificial Generativa (GenAI) destina-se a profissionais de DevOps e ITOps que desejam dominar a implantação, o gerenciamento e a escalabilidade de aplicações de IA Generativa e Modelos de Linguagem de Grande Porte (LLM). O curso abrange diversos tópicos, desde os fundamentos dos LLMs até estratégias avançadas de implantação e melhores práticas. Os participantes obterão experiência prática com ferramentas e frameworks populares, incluindo Docker, Kubernetes e plataformas em nuvem em um ambiente LLM.
Objetivo
Após realizar este Curso Comprehensive Generative AI Engineering for LLMOps, você será capaz de:
Projetar arquiteturas de LLMs para ambientes operacionais
Entender implicações de arquitetura de LLM em deployment e escala
Desenvolver prompts otimizados para workflows de operações
Integrar LLMs a sistemas de monitoramento, alertas e automação
Implantar e operar LLMs open-source em produção
Containerizar e orquestrar aplicações baseadas em LLMs
Escalar aplicações LLM com eficiência e confiabilidade
Implementar monitoramento, testes e observabilidade em LLMOps
Endereçar desafios de segurança, compliance e custo
Publico Alvo
- Engenheiros de DevOps
- Engenheiros de Plataforma
- SREs
- Engenheiros de Machine Learning
- Arquitetos de Cloud e AI
- Profissionais de Operações de TI
- Engenheiros de Software interessados em LLMOps
Materiais
Inglês/Português + Exercícios + Lab Pratico
Conteúdo Programatico
Introduction
LLM Fundamentals for Ops
- Introduction to Generative AI and LLMs for Operations Workflows
- LLM Architecture and Deployment Considerations
- Implications of LLM architecture on deployment, scaling, and resource management
Prompt Engineering for Ops
- Introduction to Prompt Engineering
- Techniques for creating effective prompts
- Best practices for prompt design and optimization
- Developing prompts for IT and traditional Ops tasks
- Log analysis
- Alert generation
- Incident response
- Improving response to production outages and IT challenges with PE
LLM Integration for Ops
- Overview of key LLM APIs and libraries
- OpenAI API
- HuggingFace Transformers
- Strategies for integrating LLMs into monitoring, alerting, and automation tools
- Use Case Development
- Real-World Case Studies
- Building an LLM-powered monitoring and alerting system
Deployment and Management of Open-Source LLMs
- Introduction to Open-Source LLMs
- Advantages and limitations in production environments
- Best practices for deploying and managing open-source LLMs
- Techniques for managing LLM infrastructure, scaling, and performance
- Setting up Lllama 3 from HuggingFace
Containerization and Orchestration
- Containerizing LLM applications using Docker
- Orchestrating LLM containers using Kubernetes
- Deploying an LLM application using Docker and Kubernetes
Scaling LLM Applications
- Strategies for horizontal and vertical scaling
- Load balancing and auto-scaling techniques
- Implementing auto-scaling for an LLM application
Monitoring and Troubleshooting
- Key performance metrics for LLM applications
- Automated Testing for LLMOps
- Differences of LLMOps testing and traditional software testing
- Evaluation using CI/CD Tools
- Evaluating LLM problems like hallucinations, data drift, unethical/harmful outputs
- Monitoring tools and techniques (e.g., Weights and Biases, CircleCI)
- Setting up monitoring for an LLM application
- Creating dashboards and alerts for key metrics
Security, Compliance, and Cost Optimization
- Securing LLM application infrastructure and data
- Ensuring compliance with relevant regulations and standards
- Strategies for optimizing resource usage and costs in cloud-based LLM deployments
TENHO INTERESSE