Curso Comprehensive Generative AI Engineering for LLMOps

  • RPA | IA | AGI | ASI | ANI | IoT | PYTHON | DEEP LEARNING

Curso Comprehensive Generative AI Engineering for LLMOps

24 horas
Visão Geral

Este Curso Comprehensive Generative AI Engineering for LLMOps, aborda de forma profunda e prática a engenharia de Generative AI aplicada a operações (LLMOps), cobrindo desde os fundamentos de Large Language Models até sua integração, deployment, escalabilidade, monitoramento, segurança e otimização de custos em ambientes de produção. O treinamento capacita o profissional a projetar, implantar, operar e escalar aplicações baseadas em LLMs, com foco em workflows reais de IT Ops, SRE, DevOps e Platform Engineering.

Este curso abrangente de Inteligência Artificial Generativa (GenAI) destina-se a profissionais de DevOps e ITOps que desejam dominar a implantação, o gerenciamento e a escalabilidade de aplicações de IA Generativa e Modelos de Linguagem de Grande Porte (LLM). O curso abrange diversos tópicos, desde os fundamentos dos LLMs até estratégias avançadas de implantação e melhores práticas. Os participantes obterão experiência prática com ferramentas e frameworks populares, incluindo Docker, Kubernetes e plataformas em nuvem em um ambiente LLM.

Objetivo

Após realizar este Curso Comprehensive Generative AI Engineering for LLMOps, você será capaz de:
Projetar arquiteturas de LLMs para ambientes operacionais
Entender implicações de arquitetura de LLM em deployment e escala
Desenvolver prompts otimizados para workflows de operações
Integrar LLMs a sistemas de monitoramento, alertas e automação
Implantar e operar LLMs open-source em produção
Containerizar e orquestrar aplicações baseadas em LLMs
Escalar aplicações LLM com eficiência e confiabilidade
Implementar monitoramento, testes e observabilidade em LLMOps
Endereçar desafios de segurança, compliance e custo

Publico Alvo
  • Engenheiros de DevOps
  • Engenheiros de Plataforma
  • SREs
  • Engenheiros de Machine Learning
  • Arquitetos de Cloud e AI
  • Profissionais de Operações de TI
  • Engenheiros de Software interessados em LLMOps
Materiais
Inglês/Português + Exercícios + Lab Pratico
Conteúdo Programatico

Introduction

LLM Fundamentals for Ops

  1. Introduction to Generative AI and LLMs for Operations Workflows
  2. LLM Architecture and Deployment Considerations
  3. Implications of LLM architecture on deployment, scaling, and resource management

Prompt Engineering for Ops

  1. Introduction to Prompt Engineering
  2. Techniques for creating effective prompts
  3. Best practices for prompt design and optimization
  4. Developing prompts for IT and traditional Ops tasks
  5. Log analysis
  6. Alert generation
  7. Incident response
  8. Improving response to production outages and IT challenges with PE

LLM Integration for Ops

  1. Overview of key LLM APIs and libraries
  2. OpenAI API
  3. HuggingFace Transformers
  4. Strategies for integrating LLMs into monitoring, alerting, and automation tools
  5. Use Case Development
  6. Real-World Case Studies
  7. Building an LLM-powered monitoring and alerting system

Deployment and Management of Open-Source LLMs

  1. Introduction to Open-Source LLMs
  2. Advantages and limitations in production environments
  3. Best practices for deploying and managing open-source LLMs
  4. Techniques for managing LLM infrastructure, scaling, and performance
  5. Setting up Lllama 3 from HuggingFace

Containerization and Orchestration

  1. Containerizing LLM applications using Docker
  2. Orchestrating LLM containers using Kubernetes
  3. Deploying an LLM application using Docker and Kubernetes

Scaling LLM Applications

  1. Strategies for horizontal and vertical scaling
  2. Load balancing and auto-scaling techniques
  3. Implementing auto-scaling for an LLM application

Monitoring and Troubleshooting

  1. Key performance metrics for LLM applications
  2. Automated Testing for LLMOps
  3. Differences of LLMOps testing and traditional software testing
  4. Evaluation using CI/CD Tools
  5. Evaluating LLM problems like hallucinations, data drift, unethical/harmful outputs
  6. Monitoring tools and techniques (e.g., Weights and Biases, CircleCI)
  7. Setting up monitoring for an LLM application
  8. Creating dashboards and alerts for key metrics

Security, Compliance, and Cost Optimization

  1. Securing LLM application infrastructure and data
  2. Ensuring compliance with relevant regulations and standards
  3. Strategies for optimizing resource usage and costs in cloud-based LLM deployments
TENHO INTERESSE

Cursos Relacionados

Curso AI ML Toolkits with Kubeflow Foundation

24 horas

Curso Container Management with Docker

24 Horas

Curso Machine Learning Python & R In Data Science

32 Horas

Curso Docker for Developers and System Administrators

16 horas

Curso artificial inteligence AI for Everyone Foundation

16 horas

Curso IA Inteligência Artificial e Código Aberto Foundation

16 horas

Curso Artificial Intelligence with Azure

24 Horas

Curso RPA Robotic Process Automation Industria 4.0

32 horas