Curso de AI Risk Management and Security in the Public Sector
Artificial Intelligence (AI) introduce nuevas dimensiones de riesgo operativo, desafíos de gobernanza y exposición a ciberseguridad para las agencias y departamentos gubernamentales.
Esta formación en vivo dirigida por un instructor (en línea o presencial) está destinada a profesionales de TI y gestión de riesgos del sector público con experiencia limitada en IA que desean comprender cómo evaluar, monitorear y proteger sistemas de IA dentro de un contexto gubernamental o regulatorio.
Al finalizar esta formación, los participantes podrán:
- Interpretar conceptos clave de riesgo relacionados con los sistemas de IA, incluyendo sesgo, imprevisibilidad y deriva del modelo.
- Aplicar marcos de gobernanza y auditoría específicos de la IA como el Marco de Gestión de Riesgos de AI NIST (AI RMF) e ISO/IEC 42001.
- Reconocer amenazas de ciberseguridad dirigidas a modelos de IA y pipelines de datos.
- Establecer planes de gestión de riesgos interdepartamentales y alineación de políticas para la implementación de AI.
Formato del Curso
- Conferencia interactiva y discusión sobre casos de uso del sector público.
- Ejercicios de marcos de gobernanza de IA y mapeo de políticas.
- Modelado de amenazas basado en escenarios y evaluación de riesgos.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para coordinar.
Programa del Curso
Comprendiendo el Riesgo Específico de IA en Entornos Governmentales
- Cómo el riesgo de IA difiere del riesgo tradicional de TI y datos
- Categorías de riesgo de IA: técnico, operativo, reputacional y ético
- Responsabilidad pública y percepción del riesgo en el gobierno
Marco de Referencia de AI Risk Management
- NIST Marco de Referencia de AI (AI RMF)
- ISO/IEC 42001:2023 — Estándar del Sistema de IA Management
- Otras guías específicas por sector e internacionales (por ejemplo, OECD, UNESCO)
Amenazas a la Seguridad de los Sistemas de AI
- Entradas adversarias, envenenamiento de datos y inversión del modelo
- Exposición de datos de entrenamiento sensibles
- Riesgos de cadena de suministro y modelos de terceros
Governancia, Auditoría y Controles
- Mecanismos humanos en el ciclo y responsabilidad
- AI auditable: documentación, versionamiento e interpretabilidad
- Controles internos, roles de supervisión y puntos de control de cumplimiento
Evaluación del Riesgo y Planificación de Mitigación
- Construcción de registros de riesgos para casos de uso de AI
- Colaboración con equipos de adquisiciones, legales y diseño de servicios
- Realización de evaluaciones pre-despliegue y post-despliegue
Respuesta a Incidentes y Resiliencia del Sector Público
- Respondiendo a incidentes y violaciones relacionadas con AI
- Comunicación con partes interesadas y el público
- Incorporando prácticas de riesgo de AI en los guiones de ciberseguridad
Resumen y Próximos Pasos
Requerimientos
- Experiencia en operaciones de TI, gestión de riesgos, ciberseguridad o cumplimiento dentro de instituciones gubernamentales
- Familiaridad con las prácticas de seguridad organizacional y la entrega de servicios digitales
- No se requiere experiencia técnica previa en sistemas de IA
Publido Objetivo
- Equipos de IT gubernamentales involucrados en servicios digitales e integración de sistemas
- Profesionales de ciberseguridad y riesgos en instituciones públicas
- Persönal de auditoría, cumplimiento y gobernanza del sector público
Los cursos de formación abiertos requieren más de 5 participantes.
Curso de AI Risk Management and Security in the Public Sector - Booking
Curso de AI Risk Management and Security in the Public Sector - Enquiry
AI Risk Management and Security in the Public Sector - Consultas
Consultas
Próximos cursos
Cursos Relacionados
AI Governance, Compliance, and Security for Enterprise Leaders
14 HorasEsta formación en vivo dirigida por un instructor en Bolivia (en línea o presencial) está destinada a líderes empresariales de nivel intermedio que desean comprender cómo gobernar y asegurar sistemas de IA responsablemente y de conformidad con los marcos globales emergentes como el Reglamento UE sobre IA, GDPR, ISO/IEC 42001 y la Orden Ejecutiva de EE. UU. sobre IA.
Al finalizar esta formación, los participantes podrán:
- Comprender los riesgos legales, éticos y regulatorios del uso de IA en diferentes departamentos.
- Interpretar y aplicar marcos principales de gobernanza de IA (Reglamento UE sobre IA, Marco de Gestión de Riesgos de AI de NIST, ISO/IEC 42001).
- Establecer políticas de seguridad, auditoría y supervisión para la implementación de IA en la empresa.
- Desarrollar directrices de adquisición y uso para sistemas de IA de terceros y internos.
AI Policy and Regulation for Governments
7 HorasEsta formación en vivo dirigida por un instructor en Bolivia (en línea o presencial) está destinada a personas de nivel principiante / intermedio / avanzado ___ que desean usar ___ para ___.
Al finalizar esta formación, los participantes podrán:
- Instalar y configurar ___.
- ___.
- ___.
- ___.
AI-Enhanced Public Service Delivery
7 HorasEsta formación en vivo dirigida por un instructor en Bolivia (en línea o presencial) está destinada a profesionales de nivel principiante / intermedio / avanzado ___ que desean utilizar ___ para ___.
Al finalizar esta formación, los participantes podrán:
- Instalar y configurar ___.
- ___.
- ___.
- ___.
AI Tools for Administrative Efficiency (ChatGPT, Copilot, Gemini)
7 HorasEsta formación en vivo dirigida por un instructor en Bolivia (en línea o presencial) está destinada a profesionales administrativos principiantes / intermedios / avanzados que desean utilizar ___ para ___.
Al finalizar esta capacitación, los participantes podrán:
- Instalar y configurar ___.
- ___.
- ___.
- ___.
Building Secure and Responsible LLM Applications
14 HorasEsta formación en vivo dirigida por un instructor en Bolivia (en línea o presencial) está destinada a desarrolladores, arquitectos e instructores de productos intermedios y avanzados que desean identificar y mitigar los riesgos asociados con las aplicaciones impulsadas por LLM, incluyendo inyección de prompts, filtración de datos y salida no filtrada, mientras incorporan controles de seguridad como validación de entrada, supervisión humana en el ciclo (human-in-the-loop) y barreras de salida.
Al finalizar esta formación, los participantes podrán:
- Comprender las vulnerabilidades principales de sistemas basados en LLM.
- Aplicar principios de diseño seguro a la arquitectura de aplicaciones LLM.
- Usar herramientas como Guardrails AI y LangChain para validación, filtrado y seguridad.
- Integrar técnicas como sandboxing, red teaming y revisión humana en el ciclo (human-in-the-loop) en pipelines de producción.
Descripción general de la arquitectura LLM y superficie de ataque
- Cómo se construyen, implementan y acceden a los LLM mediante APIs
- Componentes clave en pilas de aplicaciones LLM (por ejemplo, prompts, agentes, memoria, APIs)
- Dónde y cómo surgen problemas de seguridad en el uso real
Inyección de Prompts y Ataques de Escape
- Qué es la inyección de prompts y por qué es peligrosa
- Casos directos e indirectos de inyección de prompts
- Técnicas de escape para eludir filtros de seguridad
- Estrategias de detección y mitigación
Filtración de Datos y Riesgos a la Privacidad
- Exposición accidental de datos a través de respuestas
- Vulnerabilidades de PII y uso indebido de memoria del modelo
- Diseño de prompts conscientes de la privacidad y generación aumentada por recuperación (RAG)
Filtrado y Protección de Salida LLM
- Uso de Guardrails AI para filtrado y validación de contenido
- Definición de esquemas y restricciones de salida
- Monitoreo y registro de salidas inseguras
Supervisión Humana en el Ciclo (Human-in-the-Loop) y Enfoques de Flujo de Trabajo
- Dónde y cuándo introducir supervisión humana
- Colas de aprobación, umbrales de puntuación, manejo de respaldos
- Calibración de confianza y papel de la explicabilidad
Aplicaciones LLM Seguras Design Patterns
- Mínimos privilegios y sandboxing para llamadas a API y agentes
- Límites de velocidad, trottling y detección de abuso
- Cadenas robustas con LangChain y aislamiento de prompts
Compliance, Registro e Governance
- Asegurar la auditoría de las salidas LLM
- Mantener trazabilidad y control de versiones del prompt
- Alinear con políticas internas de seguridad y necesidades regulatorias
Resumen y Próximos Pasos
La seguridad de aplicaciones LLM es la disciplina de diseñar, construir y mantener sistemas seguros, confiables y acordes a las políticas utilizando modelos de lenguaje grandes.
Esta formación en vivo dirigida por un instructor (en línea o presencial) está destinada a desarrolladores, arquitectos e instructores de productos intermedios y avanzados que desean identificar y mitigar los riesgos asociados con las aplicaciones impulsadas por LLM, incluyendo inyección de prompts, filtración de datos y salida no filtrada, mientras incorporan controles de seguridad como validación de entrada, supervisión humana en el ciclo (human-in-the-loop) y barreras de salida.
Al finalizar esta formación, los participantes podrán:
- Comprender las vulnerabilidades principales de sistemas basados en LLM.
- Aplicar principios de diseño seguro a la arquitectura de aplicaciones LLM.
- Usar herramientas como Guardrails AI y LangChain para validación, filtrado y seguridad.
- Integrar técnicas como sandboxing, red teaming y revisión humana en el ciclo (human-in-the-loop) en pipelines de producción.
Formato del Curso
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para organizarlo.
Requisitos Previos
- Entendimiento de modelos de lenguaje grandes y interfaces basadas en prompts
- Experiencia construyendo aplicaciones LLM usando Python
- Familiaridad con integraciones API y despliegues basados en la nube
Audiencia
- Desarrolladores de IA
- Arquitectos de aplicaciones y soluciones
- Gestores técnicos de productos que trabajan con herramientas LLM
DeepSeek for Government and Policy-Making
14 HorasEste entrenamiento en vivo dirigido por instructores en Bolivia (en línea o presencial) está dirigido a profesionales gubernamentales y expertos en políticas de nivel avanzado que desean aprovechar DeepSeek para la gobernanza basada en datos y la innovación en políticas.
Al final de esta capacitación, los participantes podrán:
- Utilizar IA DeepSeek para el análisis de políticas y la toma de decisiones estratégicas.
- Automatizar informes gubernamentales y mejorar la transparencia de los datos.
- Aplicar conocimientos impulsados por IA para la innovación del sector público.
- Mejorar la participación de los ciudadanos a través de soluciones potenciadas por IA.
Intermediate Gemini AI for Public Sector Professionals
16 HorasThis instructor-led, live training in Bolivia (online or onsite) is aimed at intermediate-level public sector professionals who wish to use Gemini to generate high-quality content, assist with research, and improve productivity through more advanced AI interactions.
By the end of this training, participants will be able to:
- Craft more effective and tailored prompts for specific use cases.
- Generate original and creative content using Gemini.
- Summarize and compare complex information with precision.
- Use Gemini for brainstorming, planning, and organizing ideas efficiently.
Introduction to AI for Public Sector Leaders
7 HorasEsta formación en vivo dirigida por un instructor en Bolivia (en línea o presencial) está destinada a principiantes / intermedios / avanzados ___ que desean utilizar ___ para ___.
Al final de esta capacitación, los participantes podrán:
- Instalar y configurar ___.
- ___.
- ___.
- ___.
Introduction to AI Security and Risk Management
14 HorasEsta formación en vivo dirigida por un instructor en Bolivia (en línea o presencial) está destinada a profesionales principiantes de seguridad IT, riesgo y cumplimiento que desean comprender conceptos fundamentales de seguridad AI, vectores de amenaza y marcos globales como NIST AI RMF e ISO/IEC 42001.
Al finalizar esta formación, los participantes podrán:
- Comprender los riesgos de seguridad únicos introducidos por los sistemas AI.
- Identificar vectores de amenaza como ataques adversarios, envenenamiento de datos y inversión de modelo.
- Aplicar modelos de gobernanza fundamentales como el Marco NIST AI Risk Management.
- Alinear el uso de AI con estándares emergentes, directrices de cumplimiento y principios éticos.
Privacy-Preserving Machine Learning
14 HorasEsta formación en vivo dirigida por un instructor en Bolivia (en línea o presencial) está destinada a profesionales avanzados que desean implementar y evaluar técnicas como el aprendizaje federado, la computación multiparte segura, la cifrado homomórfico y la privacidad diferencial en flujos de trabajo de aprendizaje automático del mundo real.
Al finalizar esta formación, los participantes podrán:
- Comprender y comparar técnicas clave para preservar la privacidad en ML.
- Implementar sistemas de aprendizaje federado utilizando marcos de código abierto.
- Aplicar la privacidad diferencial para compartir datos seguros y entrenar modelos.
- Utilizar técnicas de cifrado y computación segura para proteger las entradas y salidas del modelo.
Red Teaming AI Systems: Offensive Security for ML Models
14 HorasEsta formación en vivo dirigida por un instructor en Bolivia (en línea o presencial) está destinada a profesionales avanzados de seguridad y especialistas en IA que desean simular ataques contra sistemas de IA, descubrir vulnerabilidades e incrementar la robustez de los modelos de IA implementados.
Al finalizar esta formación, los participantes podrán:
- Simular amenazas del mundo real a los modelos de aprendizaje automático.
- Generar ejemplos adversarios para probar la robustez del modelo.
- Evaluar la superficie de ataque de las API y pipelines de IA.
- Diseñar estrategias de red teaming para entornos de implementación de IA.
Securing Edge AI and Embedded Intelligence
14 HorasEsta formación en vivo dirigida por un instructor en Bolivia (en línea o presencial) está destinada a ingenieros y profesionales de seguridad de nivel intermedio que desean proteger los modelos de IA implementados en el borde contra amenazas como la manipulación, la fuga de datos, las entradas adversarias y ataques físicos.
Al finalizar esta formación, los participantes podrán:
- Identificar y evaluar riesgos de seguridad en implementaciones de IA en el borde.
- Aplique técnicas de resistencia a la manipulación e inferencia cifrada.
- Fortalezca modelos desplegados en el borde y proteja las tuberías de datos.
- Implemente estrategias de mitigación de amenazas específicas para sistemas embebidos y restringidos.
Securing AI Models: Threats, Attacks, and Defenses
14 HorasEsta formación en vivo dirigida por un instructor en Bolivia (en línea o presencial) está destinada a profesionales de nivel intermedio en aprendizaje automático y ciberseguridad que desean comprender y mitigar las amenazas emergentes contra modelos de IA, utilizando tanto marcos conceptuales como defensas prácticas como el entrenamiento robusto y la privacidad diferencial.
Al finalizar esta formación, los participantes podrán:
- Identificar y clasificar amenazas específicas de AI como ataques adversarios, inversión y envenenamiento.
- Utilizar herramientas como el Adversarial Robustness Toolbox (ART) para simular ataques y probar modelos.
- Aplicar defensas prácticas que incluyen entrenamiento adversario, inyección de ruido y técnicas de preservación de la privacidad.
- Diseñar estrategias de evaluación de modelos conscientes de amenazas en entornos de producción.
Introducción al Modelado de Amenazas para IA
- ¿Qué hace que los sistemas de AI sean vulnerables?
- Superficie de ataque de AI vs sistemas tradicionales
- Vectores de ataque clave: capas de datos, modelo, salida e interfaz
Ataques Adversarios en Modelos de IA
- Comprender ejemplos adversarios y técnicas de perturbación
- Ataques de caja blanca vs caja negra
- Métodos FGSM, PGD y DeepFool
- Visualización y creación de muestras adversarias
Inversión del Modelo y Fugas de Privacidad
- Inferir datos de entrenamiento a partir de la salida del modelo
- Ataques de inferencia de membresía
- Riesgos de privacidad en modelos de clasificación y generativos
Envenenamiento de Datos e Inyecciones de Puertas Traseras
- Cómo los datos envenenados influyen en el comportamiento del modelo
- Puertas traseras basadas en desencadenantes y ataques Troyano
- Estrategias de detección y saneamiento
Robustez y Técnicas Defensivas
- Entrenamiento adversario y aumento de datos
- Mascaramiento del gradiente y preprocesamiento de entrada
- Técnicas de suavizado y regularización del modelo
Defensas de AI que Preservan la Privacidad
- Introducción a la privacidad diferencial
- Inyección de ruido y presupuestos de privacidad
- Aprendizaje federado y agregación segura
AI Security en Práctica
- Evaluación y despliegue de modelos conscientes de amenazas
- Uso del ART (Adversarial Robustness Toolbox) en configuraciones aplicadas
- Casos de estudio de la industria: fugas reales y mitigaciones
Resumen y Próximos Pasos
La seguridad de modelos de AI es la disciplina de defender sistemas de aprendizaje automático contra amenazas específicas del modelo, como entradas adversarias, envenenamiento de datos, ataques de inversión y fugas de privacidad.
Esta formación en vivo dirigida por un instructor (en línea o presencial) está destinada a profesionales de nivel intermedio en aprendizaje automático y ciberseguridad que desean comprender y mitigar las amenazas emergentes contra modelos de AI, utilizando tanto marcos conceptuales como defensas prácticas como el entrenamiento robusto y la privacidad diferencial.
Al finalizar esta formación, los participantes podrán:
- Identificar y clasificar amenazas específicas de AI como ataques adversarios, inversión y envenenamiento.
- Utilizar herramientas como el Adversarial Robustness Toolbox (ART) para simular ataques y probar modelos.
- Aplicar defensas prácticas que incluyen entrenamiento adversario, inyección de ruido y técnicas de preservación de la privacidad.
- Diseñar estrategias de evaluación de modelos conscientes de amenazas en entornos de producción.
Formato del Curso
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para acordarlo.
Requisitos previos
- Comprensión de los flujos de trabajo del aprendizaje automático y el entrenamiento del modelo
- Experiencia con Python y marcos comunes de ML como PyTorch o TensorFlow
- Familiaridad con conceptos básicos de seguridad o modelado de amenazas es útil
Audiencia
- ingenieros de aprendizaje automático
- analistas de ciberseguridad
- investigadores de AI y equipos de validación del modelo