Programa del Curso

Introducción al Red Teaming de IA

  • Comprendiendo el panorama de amenazas en la IA
  • Papeles de los equipos rojos en la seguridad de la IA
  • Consideraciones éticas y legales

Adversario Machine Learning

  • Tipos de ataques: evasión, envenenamiento, extracción, inferencia
  • Generación de ejemplos adversarios (por ejemplo, FGSM, PGD)
  • Ataques dirigidos vs no dirigidos y métricas de éxito

Pruebas de Robustez del Modelo

  • Evaluando la robustez ante perturbaciones
  • Explorando puntos ciegos y modos de fallo del modelo
  • Puestas a prueba extremas de modelos de clasificación, visión y procesamiento de lenguaje natural (NLP)

Red Teaming en Pipelines de IA

  • Superficie de ataque de pipelines de IA: datos, modelo, implementación
  • Explotando APIs y puntos finales inseguros del modelo
  • Ingeniería inversa del comportamiento y salidas del modelo

Simulación y Herramientas

  • Utilización de la Caja de Herramientas de Robustez Adversarial (ART)
  • Red Teaming con herramientas como TextAttack e IBM ART
  • Herramientas de aislamiento, monitoreo y observabilidad

Estrategia y Defensa del Equipo Rojo en IA Collaboration

  • Desarrollando ejercicios y objetivos para equipos rojos
  • Comunicación de hallazgos a los equipos azules
  • Integración del red teaming en la gestión de riesgos de IA

Resumen y Pasos Siguientes

Requerimientos

  • Una comprensión de la inteligencia artificial y las arquitecturas de aprendizaje profundo
  • Experiencia con Python y marcos ML (por ejemplo, TensorFlow, PyTorch)
  • Familiaridad con conceptos de ciberseguridad o técnicas de seguridad ofensiva

Publico Objetivo

  • Investigadores en seguridad
  • Equipos de seguridad ofensiva
  • Profesionales de aseguramiento de IA y red teams
 14 Horas

Número de participantes


Precio por Participante​

Próximos cursos

Categorías Relacionadas