Visão Geral
O curso DP-3028: Implement Generative AI Engineering with Azure Databricks foi estruturado para capacitar profissionais na construção, avaliação e operacionalização de soluções de Inteligência Artificial Generativa utilizando o ambiente do Azure Databricks, integrado aos serviços de IA da Microsoft.
Sob uma perspectiva comercial, este treinamento atende empresas que buscam acelerar a adoção de IA generativa de forma prática e segura, capacitando suas equipes para desenvolver aplicações modernas como assistentes inteligentes, motores de busca semântica e soluções baseadas em linguagem natural. A formação proporciona ganho de produtividade, inovação e redução de custos ao automatizar tarefas complexas com uso de LLMs.
Do ponto de vista técnico, o curso aborda desde os fundamentos de modelos de linguagem até a implementação de arquiteturas avançadas como RAG (Retrieval-Augmented Generation), raciocínio multiestágio e fine-tuning de modelos. Além disso, explora práticas modernas de avaliação de modelos, LLMOps, governança e Responsible AI, preparando o profissional para atuar em ambientes corporativos com soluções escaláveis e seguras.
Ao final, o participante estará apto a projetar, implementar, avaliar e operacionalizar aplicações de IA generativa completas dentro do ecossistema Azure.
Conteúdo Programatico
Module 1: Get started with language models in Azure Databricks
- Describe Generative AI
- Describe Large Language Models (LLMs)
- Identify key components of LLM applications
- Use LLMs for Natural Language Processing (NLP) tasks
- Lab: Explore language models
Module 2: Implement Retrieval Augmented Generation (RAG) with Azure Databricks
- Set up a RAG workflow
- Prepare your data for RAG
- Retrieve relevant documents with vector search
- Improve model accuracy by reranking your search results
- Lab: Set up RAG
Module 3: Implement multi-stage reasoning in Azure Databricks
- Identify the need for multi-stage reasoning systems
- Describe a multi-stage reasoning workflow
- Implement multi-stage reasoning with libraries like LangChain, LlamaIndex, Haystack, and the DSPy framework
- Lab: Implement multi-stage reasoning with LangChain
Module 4: Fine-tune language models with Azure Databricks
- Understand when to use fine-tuning
- Prepare your data for fine-tuning
- Fine-tune an Azure OpenAI model
- Lab: Fine-tune an Azure OpenAI model
Module 5: Evaluate language models with Azure Databricks
- Compare LLM and traditional ML evaluations
- Describe the relationship between LLM evaluation and evaluation of entire AI systems
- Describe generic LLM evaluation metrics like accuracy, perplexity, and toxicity
- Describe LLM-as-a-judge for evaluation
- Lab: Evaluate an Azure OpenAI model
Module 6: Review responsible AI principles for language models in Azure Databricks
- Describe the responsible AI principles for implementation of language models
- Identify the ethical considerations for language models
- Mitigate the risks associated with language models
- Implement key security tooling for language models
- Lab: Implement responsible AI
Module 7: Implement LLMOps in Azure Databricks
- Describe the LLM lifecycle overview
- Identify the model deployment option that best fits your needs
- Use MLflow and Unity Catalog to implement LLMOps
- Lab: Implement LLMOps