Aprendizaje Automático con Preservación de Privacidad
El Aprendizaje Automático con Preservación de Privacidad es un campo enfocado en proteger datos sensibles mientras still permite capacidades avanzadas de IA en entornos descentralizados o restringidos.
Este entrenamiento dirigido por un instructor (en línea o presencial) está destinado a profesionales de nivel avanzado que deseen implementar y evaluar técnicas como el aprendizaje federado, el cálculo seguro multipartidario, la cifrado homomórfico y la privacidad diferencial en pipelines de aprendizaje automático del mundo real.
Al finalizar este entrenamiento, los participantes podrán:
- Comprender y comparar las técnicas clave de preservación de privacidad en ML.
- Implementar sistemas de aprendizaje federado utilizando marcos de código abierto.
- Aplicar la privacidad diferencial para compartir datos y entrenar modelos de forma segura.
- Utilizar técnicas de cifrado y cálculo seguro para proteger las entradas y salidas del modelo.
Formato del Curso
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar un entrenamiento personalizado para este curso, por favor contáctenos para hacer los arreglos necesarios.
Temario del curso
Introducción al Aprendizaje Automático con Preservación de Privacidad
- Motivaciones y riesgos en entornos de datos sensibles
- Visión general de las técnicas de preservación de privacidad en ML
- Modelos de amenazas y consideraciones regulatorias (por ejemplo, GDPR, HIPAA)
Aprendizaje Federado
- Concepto y arquitectura del aprendizaje federado
- Sincronización y agregación cliente-servidor
- Implementación utilizando PySyft y Flower
Privacidad Diferencial
- Matemáticas de la privacidad diferencial
- Aplicación de DP en consultas de datos y entrenamiento de modelos
- Uso de Opacus y TensorFlow Privacy
Cálculo Seguro Multipartidario (SMPC)
- Protocolos SMPC y casos de uso
- Enfoques basados en cifrado vs compartición secreta
- Flujos de trabajo de cálculo seguro con CrypTen o PySyft
Cifrado Homomórfico
- Cifrado homomórfico completo vs parcial
- Inferencia cifrada para cargas de trabajo sensibles
- Práctica con TenSEAL y Microsoft SEAL
Aplicaciones y Estudios de Caso del Sector
- Privacidad en la atención médica: aprendizaje federado para IA médica
- Colaboración segura en finanzas: modelos de riesgo y cumplimiento
- Casos de uso en defensa y gobierno
Resumen y Próximos Pasos
Requerimientos
- Comprensión de los principios del aprendizaje automático
- Experiencia con Python y bibliotecas de ML (por ejemplo, PyTorch, TensorFlow)
- Familiaridad con conceptos de privacidad de datos o ciberseguridad es útil
Audiencia
- Investigadores de IA
- Equipos de protección de datos y cumplimiento de privacidad
- Ingenieros de seguridad que trabajan en industrias reguladas
Los cursos públicos requieren más de 5 participantes.
Aprendizaje Automático con Preservación de Privacidad - Reserva
Aprendizaje Automático con Preservación de Privacidad - Consulta
Aprendizaje Automático con Preservación de Privacidad - Solicitud de consultoría
Solicitud de consultoría
Próximos cursos
Cursos Relacionados
ISACA Avanzado en Gestión de Seguridad de IA (AAISM)
21 HorasAAISM es un marco avanzado para evaluar, gobernar y gestionar los riesgos de seguridad en sistemas de inteligencia artificial.
Este entrenamiento dirigido por instructores (en línea o presencial) está destinado a profesionales de nivel avanzado que deseen implementar controles de seguridad y prácticas de gobierno efectivas para entornos empresariales de IA.
Al finalizar este programa, los participantes estarán preparados para:
- Evaluar riesgos de seguridad en IA utilizando metodologías reconocidas en la industria.
- Implementar modelos de gobernanza para despliegues responsables de IA.
- Alinear políticas de seguridad de IA con los objetivos organizacionales y las expectativas regulatorias.
- Mejorar la resiliencia y la responsabilidad en operaciones impulsadas por IA.
Formato del Curso
- Conferencias facilitadas respaldadas por análisis de expertos.
- Talleres prácticos y actividades basadas en evaluaciones.
- Ejercicios aplicados utilizando escenarios reales de gobernanza de IA.
Opciones de Personalización del Curso
- Para un entrenamiento personalizado alineado con su estrategia de IA organizacional, póngase en contacto con nosotros para personalizar el curso.
Gobernanza, Cumplimiento y Seguridad de IA para Líderes Empresariales
14 HorasEste entrenamiento dirigido por un instructor en vivo (en línea o presencial) está destinado a líderes empresariales intermedios que desean comprender cómo gobernar y asegurar los sistemas de IA de manera responsable y en conformidad con marcos emergentes como el Reglamento de IA de la UE, el RGPD, ISO/IEC 42001 y la Orden Ejecutiva sobre IA de Estados Unidos.
Al finalizar este entrenamiento, los participantes podrán:
- Comprender los riesgos legales, éticos y regulatorios del uso de IA en diferentes departamentos.
- Interpretar y aplicar marcos principales de gobernanza de IA (Reglamento de IA de la UE, NIST AI RMF, ISO/IEC 42001).
- Establecer políticas de seguridad, auditoría y supervisión para el despliegue de IA en la empresa.
- Desarrollar directrices de adquisición y uso para sistemas de IA de terceros y propios.
Gestión de Riesgos y Seguridad de la IA en el Sector Público
7 HorasLa Inteligencia Artificial (IA) introduce nuevas dimensiones de riesgo operativo, desafíos de gobernanza y exposición a ciberseguridad para las agencias y departamentos gubernamentales.
Este entrenamiento dirigido por un instructor (en línea o en el lugar) está orientado a profesionales del sector público en TI y gestión de riesgos con experiencia limitada previa en IA que desean comprender cómo evaluar, monitorear y asegurar sistemas de IA dentro de un contexto gubernamental o regulatorio.
Al final de este entrenamiento, los participantes serán capaces de:
- Interpretar conceptos clave de riesgo relacionados con los sistemas de IA, incluyendo sesgo, imprevisibilidad y desviación del modelo.
- Aplicar marcos específicos de gobernanza y auditoría de IA como el NIST AI RMF y ISO/IEC 42001.
- Reconocer amenazas de ciberseguridad que se dirigen a modelos y pipelines de datos de IA.
- Establecer planes de gestión de riesgos interdepartamentales y alineación de políticas para la implementación de IA.
Formato del Curso
- Conferencia interactiva y discusión de casos de uso en el sector público.
- Ejercicios de marcos de gobernanza de IA y mapeo de políticas.
- Modelado basado en escenarios y evaluación de riesgos.
Opciones de Personalización del Curso
- Para solicitar un entrenamiento personalizado para este curso, por favor contáctenos para organizarlo.
Introducción a la Confianza, Riesgo y Security Management en IA (AI TRiSM)
21 HorasEsta formación en vivo dirigida por un instructor (online o presencial) está destinada a profesionales de TI principiantes y de nivel intermedio que desean entender e implementar AI TRiSM en sus organizaciones.
Al finalizar esta capacitación, los participantes podrán:
- Comprender los conceptos clave y la importancia de la confianza, el manejo del riesgo y la seguridad en AI.
- Identificar y mitigar los riesgos asociados con los sistemas AI.
- Implementar las mejores prácticas de seguridad para AI.
- Entender la conformidad regulatoria y las consideraciones éticas para AI.
- Desarrollar estrategias efectivas para la gobernanza y gestión de AI.
Building Secure and Responsible LLM Applications
14 HorasEste curso de formación dirigido por un instructor en Bolivia (en línea o presencial) está destinado a desarrolladores, arquitectos y gerentes de productos de IA de nivel intermedio a avanzado que deseen identificar y mitigar riesgos asociados con aplicaciones impulsadas por modelos de lenguaje grandes (LLM), incluyendo inyección de prompts, fuga de datos y salida sin filtrar, mientras incorporan controles de seguridad como la validación de entrada, supervisión humana en el bucle y barreras de protección de la salida.
Al finalizar este curso, los participantes podrán:
- Comprender las vulnerabilidades principales de los sistemas basados en LLM.
- Aplicar principios de diseño seguro a la arquitectura de aplicaciones LLM.
- Utilizar herramientas como Guardrails AI y LangChain para validación, filtrado y seguridad.
- Integrar técnicas como el uso de entornos aislados (sandboxing), equipos rojos (red teaming) y revisiones humanas en el bucle en pipelines de producción de grado empresarial.
Ciberseguridad en sistemas de IA
14 HorasEsta formación en vivo, guiada por un instructor (en línea o presencial) está dirigida a profesionales de nivel intermedio de IA y ciberseguridad que desean comprender y abordar las vulnerabilidades de seguridad específicas de los modelos y sistemas de IA, especialmente en industrias altamente reguladas como finanzas, gobernanza de datos y consultoría.
Al finalizar esta formación, los participantes serán capaces de:
- Comprender los tipos de ataques adversarios dirigidos a sistemas de IA y métodos para defenderse contra ellos.
- Implementar técnicas de endurecimiento del modelo para proteger las tuberías de aprendizaje automático.
- Asegurar la seguridad y integridad de los datos en modelos de aprendizaje automático.
- Navegar entre los requisitos de cumplimiento normativo relacionados con la seguridad de la IA.
Introducción a la Seguridad y Gestión de Riesgos en IA
14 HorasEste entrenamiento dirigido por un instructor, en vivo (en línea o presencial) está destinado a profesionales de la seguridad de TI, gestión de riesgos y cumplimiento con nivel principiante que deseen comprender los conceptos fundamentales de seguridad en IA, vectores de amenaza y marcos globales como el NIST AI RMF y ISO/IEC 42001.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Comprender los riesgos de seguridad únicos introducidos por los sistemas de IA.
- Identificar vectores de amenaza como ataques adversarios, envenenamiento de datos e inversión de modelos.
- Aplicar modelos de gobernanza fundamentales como el Marco de Gestión de Riesgos de IA del NIST.
- Alinear el uso de IA con estándares emergentes, directrices de cumplimiento y principios éticos.
OWASP GenAI Security
14 HorasBasado en las últimas pautas del proyecto OWASP GenAI Security, los participantes aprenderán a identificar, evaluar y mitigar amenazas específicas de IA mediante ejercicios prácticos y escenarios del mundo real.
Red Teaming de Sistemas de IA: Seguridad Ofensiva para Modelos de ML
14 HorasEste entrenamiento dirigido por un instructor (en línea o presencial) está destinado a profesionales de seguridad avanzados y especialistas en ML que desean simular ataques a sistemas de IA, descubrir vulnerabilidades y mejorar la robustez de los modelos de IA implementados.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Simular amenazas del mundo real a modelos de aprendizaje automático.
- Generar ejemplos adversarios para probar la robustez del modelo.
- Evaluar el área de ataque de APIs y pipelines de IA.
- Diseñar estrategias de red teaming para entornos de implementación de IA.
Protegiendo la Inteligencia en el Borde y la Inteligencia Embebida
14 HorasEsta formación dirigida por un instructor (en línea o presencial) está destinada a ingenieros y profesionales de la seguridad de nivel intermedio que desean proteger los modelos de IA implementados en el borde contra amenazas como manipulaciones, filtraciones de datos, entradas adversarias y ataques físicos.
Al final de esta formación, los participantes serán capaces de:
- Identificar y evaluar los riesgos de seguridad en las implementaciones de IA en el borde.
- Aplicar técnicas de resistencia a la manipulación e inferencia cifrada.
- Fortalecer los modelos implementados en el borde y asegurar las pipelines de datos.
- Implementar estrategias de mitigación de amenazas específicas para sistemas embebidos y con recursos limitados.
Protección de Modelos de IA: Amenazas, Ataques y Defensas
14 HorasEste entrenamiento dirigido por un instructor en vivo (en línea o presencial) está destinado a profesionales intermedios de aprendizaje automático y ciberseguridad que deseen comprender y mitigar amenazas emergentes contra los modelos de IA, utilizando tanto marcos conceptuales como defensas prácticas como el entrenamiento robusto y la privacidad diferencial.
Al finalizar este entrenamiento, los participantes serán capaces de:
- Identificar y clasificar amenazas específicas de IA como ataques adversarios, inversión y envenenamiento.
- Utilizar herramientas como la Adversarial Robustness Toolbox (ART) para simular ataques y probar modelos.
- Aplicar defensas prácticas, incluyendo entrenamiento adversario, inyección de ruido y técnicas que preservan la privacidad.
- Diseñar estrategias de evaluación del modelo conscientes de amenazas en entornos de producción.
Seguridad y Privacidad en Aplicaciones de TinyML
21 HorasTinyML es un enfoque para implementar modelos de aprendizaje automático en dispositivos de bajo consumo y recursos limitados que operan en el borde de la red.
Este entrenamiento dirigido por instructores (en línea o presencial) está destinado a profesionales de nivel avanzado que deseen asegurar las pipelines de TinyML e implementar técnicas de protección de la privacidad en aplicaciones de IA en el borde.
Al finalizar este curso, los participantes podrán:
- Identificar riesgos de seguridad propios de la inferencia de TinyML en dispositivo.
- Implementar mecanismos de protección de la privacidad para implementaciones de IA en el borde.
- Fortalecer los modelos y sistemas embebidos de TinyML contra amenazas adversarias.
- Aplicar mejores prácticas para un manejo seguro de datos en entornos con recursos limitados.
Formato del Curso
- Conferencias atractivas respaldadas por discusiones dirigidas por expertos.
- Ejercicios prácticos que enfatizan escenarios de amenazas del mundo real.
- Implementación práctica utilizando herramientas de seguridad embebida y TinyML.
Opciones de Personalización del Curso
- Las organizaciones pueden solicitar una versión personalizada de este entrenamiento para alinearlo con sus necesidades específicas de seguridad y cumplimiento.
IA Segura y Confiable: Gobernanza, Identidad y Equipo Rojo
21 HorasEste curso cubre la gobernanza, gestión de identidad y pruebas adversarias para sistemas de IA agente, con enfoque en patrones de implementación seguros para empresas y técnicas prácticas de equipo rojo.
Esta capacitación dirigida por un instructor (en línea o presencial) está destinada a profesionales de nivel avanzado que deseen diseñar, asegurar y evaluar sistemas de IA basados en agentes en entornos de producción.
Al finalizar esta capacitación, los participantes podrán:
- Definir modelos y políticas de gobernanza para implementaciones seguras de IA agente.
- Diseñar flujos de identidad y autenticación no humanos para agentes con acceso de privilegios mínimos.
- Implementar controles de acceso, rastros de auditoría y observabilidad adaptados a agentes autónomos.
- Planificar y ejecutar ejercicios de equipo rojo para descubrir malos usos, caminos de escalada y riesgos de exfiltración de datos.
- Mitigar amenazas comunes a sistemas agente mediante políticas, controles de ingeniería y monitoreo.
Formato del Curso
- Conferencias interactivas y talleres de modelado de amenazas.
- Laboratorios prácticos: aprovisionamiento de identidad, aplicación de políticas y simulación de adversarios.
- Ejercicios de equipo rojo/equipo azul y evaluación final del curso.
Opciones de Personalización del Curso
- Para solicitar una capacitación personalizada para este curso, comuníquese con nosotros para realizar los arreglos necesarios.