Visão Geral
Este Advanced AI Security: Understanding and Mitigating Risks in LLM and GenAI, foi desenvolvido para fornecer aos profissionais técnicos e arquitetos seniores uma compreensão abrangente dos riscos de segurança associados aos Large Language Models (LLMs) e à Inteligência Artificial Gerada (GenAI). Os participantes irão se aprofundar nas vulnerabilidades inerentes aos LLMs e aos sistemas GenAI, explorar técnicas de modelagem de ameaças e obter insights práticos sobre estratégias de mitigação. Ao desmistificar o funcionamento dos LLMs e do GenAI, os participantes estarão equipados com o conhecimento e as ferramentas necessárias para enfrentar eficazmente os desafios de segurança em ambientes orientados por IA.
Objetivo
Após realizar este Curso Advanced AI Security: Understanding and Mitigating Risks in LLM and GenAI, você será capaz de:
- Entenda os riscos de segurança exclusivos apresentados por LLMs e GenAI.
- Aprenda técnicas para modelagem de ameaças em sistemas LLM e GenAI.
- Desmistifique o funcionamento dos LLMs e identifique ameaças associadas.
- Desmistifique a operação dos sistemas GenAI e reconheça ameaças potenciais.
- Explore estratégias de mitigação para lidar com vulnerabilidades LLM e GenAI.
- Obtenha proficiência na implementação das 10 principais práticas de segurança da OWASP em ambientes LLM.
Publico Alvo
Profissionais técnicos, incluindo engenheiros de software, especialistas em segurança cibernética e arquitetos seniores, envolvidos no projeto, desenvolvimento ou proteção de sistemas de IA. Os participantes devem ter uma compreensão básica dos conceitos de inteligência artificial e dos princípios de segurança cibernética.
Materiais
Português/Inglês + Exercícios + Lab Pratico
Conteúdo Programatico
Understanding LLM Vulnerabilities and Threat Modeling
- Introduction to Large Language Models (LLMs)
- Risks and security challenges in LLMs
- Threat modeling methodologies for LLM systems
- Identifying common vulnerabilities in LLM architectures
- Case studies and real-world examples of LLM security incidents
- Hands-on threat modeling exercises for LLM systems
Exploring GenAI Threats and Mitigation Strategies
- Overview of Generated Artificial Intelligence (GenAI)
- Demystifying the operation of GenAI systems
- Threat landscape for GenAI applications
- Mitigation strategies for GenAI vulnerabilities
- Implementation of OWASP Top 10 security practices in LLM environments
- Best practices for securing AI-powered applications
- Case studies and real-world examples of GenAI security incidents
- Hands-on threat modeling exercises for GenAI systems
Delivery Format:
The course will be delivered through a combination of lectures, interactive discussions, hands-on exercises, and case studies. Participants will have the opportunity to engage with industry experts and collaborate with peers to deepen their understanding of AI security concepts and practices. Threat modeling exercises will be incorporated throughout the course to provide practical experience in assessing and mitigating security risks in LLM and GenAI systems.
- Threats and risks associated with LLMs,
- Prompt injection
- Insecure Output Handling
- Training Data Poisoning
- Supply Chain vulnerabilities
- Insecure Plugin Design
- Overreliance
- Model-Theft
- Excessive Agency
- Model Denial of Service
- Leverage GenAI Security Best Practices & Frameworks
Google Secure AI framework (SAIF)
- Overview of Best Practices
- Proactive threat detection and response for LLMs
- Leveraging threat intelligence, and automating defenses against LLM threats.
- Platform security controls to ensure consistency
- Enforcing least privilege permissions for LLM usage and development.
- Adaptation of application security controls to LLM-specific threats and risks
- Feedback loop when deploying and releasing LLM applications.
- Contextualize AI risks in surrounding business processes.
AI Risk Management Program
- Reduce AI Data Pipeline Attack Surface & LLM Data Validation
- Protecting the AI data pipeline
- Threat Management and Least Privilege
- LLM Application Security
- GenAI security controls
- Targeting GenAI-associated risks and threats
- Governance oversight
Analyzing Threats and risks associated with LLMs/GenAI
- Prompt injection
- Insecure Output Handling
- Training Data Poisoning
- Supply Chain vulnerabilities
- Insecure Plugin Design
- Overreliance
- Model-Theft
- Excessive Agency
- Model Denial of Service
LLM/GenAI Threat Modeling Maps
- Weakness and Vulnerability Analysis (WVA)
- Categorizing Threats with STRIDE
- STRIDE Threat Categorization
- Categorizing Threats with DREAD
- Process for Attack Simulation and Threat Analysis (PASTA)
- Common Attack Pattern Enumeration and Classification (CAPEC)
- Common Vulnerability Scoring System (CVSS)
TENHO INTERESSE