Implementación y Optimización de Modelos de Lenguaje Grande (LLMs) con Ollama
Ollama proporciona una forma eficiente de implementar y ejecutar modelos de lenguaje grandes (LLMs) localmente o en entornos de producción, ofreciendo control sobre el rendimiento, el costo y la seguridad.
Este entrenamiento dirigido por un instructor, en vivo (en línea o presencial), está dirigido a profesionales de nivel intermedio que deseen implementar, optimizar e integrar LLMs utilizando Ollama.
Al finalizar este entrenamiento, los participantes podrán:
- Configurar e implementar LLMs utilizando Ollama.
- Optimizar modelos de IA para mejorar el rendimiento y la eficiencia.
- Aprovechar la aceleración de GPU para mejorar la velocidad de inferencia.
- Integrar Ollama en flujos de trabajo y aplicaciones.
- Monitorear y mantener el rendimiento de los modelos de IA a lo largo del tiempo.
Formato del Curso
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar un entrenamiento personalizado para este curso, contáctenos para organizarlo.
Temario del curso
Introducción a Ollama para la implementación de LLM
- Descripción general de las capacidades de Ollama
- Ventajas de la implementación local de modelos de IA
- Comparación con soluciones de alojamiento de IA basadas en la nube
Configuración del entorno de implementación
- Instalación de Ollama y dependencias requeridas
- Configuración de hardware y aceleración GPU
- Dockerización de Ollama para implementaciones escalables
Implementación de LLM con Ollama
- Carga y gestión de modelos de IA
- Implementación de Llama 3, DeepSeek, Mistral y otros modelos
- Creación de APIs y puntos de acceso para el uso de modelos de IA
Optimización del rendimiento de LLM
- Ajuste fino de modelos para mejorar la eficiencia
- Reducción de la latencia y mejora de los tiempos de respuesta
- Gestión de la memoria y asignación de recursos
Integración de Ollama en flujos de trabajo de IA
- Conexión de Ollama a aplicaciones y servicios
- Automatización de procesos impulsados por IA
- Uso de Ollama en entornos de edge computing
Monitoreo y mantenimiento
- Seguimiento del rendimiento y depuración de problemas
- Actualización y gestión de modelos de IA
- Garantía de seguridad y cumplimiento en implementaciones de IA
Escalabilidad de implementaciones de modelos de IA
- Mejores prácticas para manejar cargas de trabajo elevadas
- Escalabilidad de Ollama para casos de uso empresarial
- Avances futuros en la implementación local de modelos de IA
Resumen y próximos pasos
Requerimientos
- Experiencia básica con modelos de aprendizaje automático e inteligencia artificial
- Familiaridad con interfaces de línea de comandos y scripting
- Comprensión de entornos de implementación (local, edge, nube)
Público objetivo
- Ingenieros de IA que optimizan implementaciones de IA locales y en la nube
- Profesionales de ML que implementan y ajustan LLMs
- Especialistas DevOps que gestionan la integración de modelos de IA
Los cursos públicos requieren más de 5 participantes.
Implementación y Optimización de Modelos de Lenguaje Grande (LLMs) con Ollama - Reserva
Implementación y Optimización de Modelos de Lenguaje Grande (LLMs) con Ollama - Consulta
Implementación y Optimización de Modelos de Lenguaje Grande (LLMs) con Ollama - Solicitud de consultoría
Solicitud de consultoría
Próximos cursos
Cursos Relacionados
Depuración y Evaluación Avanzada de Modelos Ollama
35 HorasAdvanced Ollama Model Debugging & Evaluation es un curso detallado centrado en el diagnóstico, la prueba y la medición del comportamiento de los modelos al ejecutar implementaciones locales o privadas de Ollama.
Esta formación en vivo dirigida por instructores (en línea o presencial) se dirige a ingenieros de IA avanzados, profesionales de ML Ops y practicantes de QA que desean garantizar la fiabilidad, la fidelidad y la preparación operativa de los modelos basados en Ollama en producción.
Al final de esta formación, los participantes serán capaces de:
- Ejecutar un depurado sistemático de modelos alojados en Ollama y reproducir modos de fallo de manera confiable.
- Diseñar y ejecutar pipelines de evaluación robusta con métricas cuantitativas y cualitativas.
- Implementar la observabilidad (logs, trazas, métricas) para monitorear la salud del modelo y el deriva.
- Automatizar pruebas, validaciones y controles de regresión integrados en los pipelines CI/CD.
Formato del Curso
- Conferencia interactiva y discusión.
- Laboratorios prácticos y ejercicios de depuración utilizando implementaciones de Ollama.
- Casos de estudio, sesiones grupales de solución de problemas y talleres de automatización.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para arreglarlo.
Creando Flujos de Trabajo de IA Privada con Ollama
14 HorasEsta formación en vivo y presidida por un instructor (en línea o en el sitio) está dirigida a profesionales avanzados que desean implementar flujos de trabajo impulsados por IA seguros y eficientes utilizando Ollama.
Al finalizar esta formación, los participantes podrán:
- Implementar y configurar Ollama para el procesamiento de IA privada.
- Integrar modelos de IA en flujos de trabajo empresariales seguros.
- Optimizar el rendimiento de la IA mientras se mantiene la privacidad de los datos.
- Automatizar procesos de negocio con capacidades de IA alojadas localmente.
- Asegurar el cumplimiento con las políticas de seguridad y gobernanza empresariales.
Fine-Tuning y Personalización de Modelos de IA en Ollama
14 HorasEste entrenamiento en vivo dirigido por un instructor (en línea o presencial) en Bolivia está destinado a profesionales de nivel avanzado que desean afinar y personalizar modelos AI en Ollama para mejorar el rendimiento y aplicaciones específicas del dominio.
Al finalizar este entrenamiento, los participantes podrán:
- Configurar un entorno eficiente para afinar modelos AI en Ollama.
- Preparar conjuntos de datos para el ajuste supervisado y el aprendizaje por refuerzo.
- Optimizar los modelos AI para rendimiento, precisión y eficiencia.
- Implementar modelos personalizados en entornos de producción.
- Evaluar mejoras del modelo y asegurar la robustez.
Aplicaciones Multimodales con Ollama
21 HorasOllama es una plataforma que permite ejecutar y ajustar modelos de lenguaje grandes y multimodales localmente.
Esta formación en vivo dirigida por un instructor (en línea o presencial) está destinada a ingenieros ML avanzados, investigadores de IA y desarrolladores de productos que desean construir y desplegar aplicaciones multimodales con Ollama.
Al finalizar esta formación, los participantes podrán:
- Configurar y ejecutar modelos multimodales con Ollama.
- Integrar entradas de texto, imagen y audio para aplicaciones del mundo real.
- Desarrollar sistemas de comprensión de documentos y QA visual.
- Crear agentes multimodales capaces de razonar entre modalidades.
Formato del Curso
- Conferencia interactiva y discusión.
- Ejercicios prácticos con conjuntos de datos multimodales reales.
- Implementación en laboratorio vivo de tuberías multimodales usando Ollama.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para coordinar.
Introducción a Ollama: Ejecución de Modelos de IA Locales
7 HorasEsta formación en vivo, dirigida por un instructor (en línea u on-site), está orientada a profesionales principiantes que desean instalar, configurar y usar Ollama para ejecutar modelos de IA en sus máquinas locales.
Al finalizar esta formación, los participantes podrán:
- Comprender los fundamentos y capacidades de Ollama.
- Configurar Ollama para ejecutar modelos locales de IA.
- Implementar e interactuar con LLMs utilizando Ollama.
- Optimizar el rendimiento y el uso de recursos para cargas de trabajo de IA.
- Explorar casos de uso para la implementación local de IA en diversos sectores.
Ollama y Privacidad de Datos: Patrones de Implementación Segura
14 HorasOllama es una plataforma que permite ejecutar modelos de lenguaje y multimodales grandes localmente mientras respalda estrategias de implementación seguras.
Esta capacitación en vivo dirigida por un instructor (en línea o presencial) está orientada a profesionales de nivel intermedio que desean implementar Ollama con medidas fuertes de privacidad de datos y cumplimiento regulatorio.
Al finalizar esta formación, los participantes podrán:
- Implementar Ollama de forma segura en entornos containerizados y locales.
- Aplicar técnicas de privacidad diferencial para proteger datos sensibles.
- Implementar prácticas de registro, monitoreo y auditoría seguras.
- Enfocar el control del acceso a los datos en función de los requisitos de cumplimiento.
Formato del Curso
- Sesiones interactivas de conferencias y discusiones.
- Laboratorios prácticos con patrones de implementación segura.
- Casos de estudio y ejercicios prácticos centrados en el cumplimiento.
Opciones de Personalización del Curso
- Para solicitar una capacitación personalizada para este curso, contáctenos para coordinar.
Aplicaciones de Ollama en Finanzas
14 HorasOllama es una plataforma ligera para ejecutar modelos de lenguaje grandes localmente.
Este curso de formación dirigido por un instructor (en línea o en el sitio) está destinado a profesionales financieros y personal de TI intermedios que deseen implementar, personalizar y operacionalizar soluciones AI basadas en Ollama en entornos financieros.
Al completar este curso, los participantes adquirirán las habilidades necesarias para:
- Implementar y configurar Ollama para su uso seguro en operaciones financieras.
- Integrar modelos de lenguaje locales (LLMs) en flujos de trabajo analíticos y de informes.
- Adaptar los modelos a la terminología y tareas específicas del sector financiero.
- Aplicar las mejores prácticas de seguridad, privacidad y cumplimiento normativo.
Formato del Curso
- Conferencia interactiva y discusión.
- Ejercicios prácticos con datos financieros.
- Implementación en vivo de escenarios enfocados en finanzas.
Opciones de Personalización del Curso
- Para solicitar un curso personalizado, por favor contáctenos para hacer los arreglos necesarios.
Aplicaciones de Ollama en la Salud
14 HorasOllama es una plataforma ligera para ejecutar modelos de lenguaje grandes localmente.
Este entrenamiento dirigido por un instructor (en línea o presencial) está destinado a profesionales de la salud y equipos de TI intermedios que deseen implementar, personalizar y operacionalizar soluciones AI basadas en Ollama dentro de entornos clínicos y administrativos.
Al completar este entrenamiento, los participantes serán capaces de:
- Instalar y configurar Ollama para su uso seguro en entornos de salud.
- Integrar modelos de lenguaje locales (LLMs) en flujos de trabajo clínicos y procesos administrativos.
- Personalizar los modelos para la terminología específica del sector de la salud y las tareas correspondientes.
- Aplicar mejores prácticas en privacidad, seguridad y cumplimiento normativo.
Formato del Curso
- Conferencia interactiva y discusión.
- Demostraciones prácticas y ejercicios guiados.
- Implementación práctica en un entorno de simulación de salud aislado.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, contáctenos para hacer los arreglos necesarios.
Ollama para IA Responsable y Gobernanza
14 HorasOllama es una plataforma para ejecutar modelos de lenguaje y multimodales grandes localmente, respaldando prácticas de gobernanza y AI responsable.
Esta formación en vivo dirigida por instructores (en línea o presencial) está orientada a profesionales de nivel intermedio a avanzado que desean implementar equidad, transparencia y responsabilidad en aplicaciones impulsadas por Ollama.
Al finalizar esta capacitación, los participantes podrán:
- Aplicar principios de AI responsable en las implementaciones de Ollama.
- Implementar estrategias de filtrado de contenido y mitigación de sesgos.
- Diseñar flujos de trabajo de gobernanza para la alineación de AI y auditoría.
- Establecer marcos de monitoreo y reporte para cumplimiento normativo.
Formato del Curso
- Clases interactivas y discusiones.
- Laboratorios prácticos de diseño de flujos de trabajo de gobernanza.
- Casos de estudio y ejercicios enfocados en el cumplimiento normativo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, contáctenos para coordinar.
Escalado de Ollama y Optimización de la Infraestructura
21 HorasOllama es una plataforma para ejecutar modelos de lenguaje y multimodales a gran escala de manera local y escalable.
Este entrenamiento en vivo dirigido por un instructor (en línea o presencial) está destinado a ingenieros de nivel intermedio a avanzado que desean escalar las implementaciones de Ollama para entornos de múltiples usuarios, alta capacidad de procesamiento y eficiencia de costos.
Al finalizar este entrenamiento, los participantes podrán:
- Configurar Ollama para cargas de trabajo multiusuario y distribuidas.
- Optimizar la asignación de recursos GPU y CPU.
- Implementar estrategias de escalado automático, batching y reducción de latencia.
- Monitorear y optimizar la infraestructura para el rendimiento y la eficiencia de costos.
Formato del Curso
- Conferencias interactivas y discusiones.
- Laboratorios prácticos de implementación y escalado.
- Ejercicios de optimización en entornos en vivo.
Opciones de Personalización del Curso
- Para solicitar un entrenamiento personalizado para este curso, por favor contáctenos para concertarlo.
Maestría en Ingeniería de Prompt con Ollama
14 HorasOllama es una plataforma que permite ejecutar modelos de lenguaje y multimodales de gran tamaño localmente.
Esta formación en vivo dirigida por un instructor (en línea u onsite) está destinada a profesionales de nivel intermedio que desean dominar técnicas de ingeniería de prompts para optimizar las salidas de Ollama.
Al final de esta formación, los participantes podrán:
- Diseñar prompts efectivos para casos de uso diversos.
- Aplicar técnicas como el priming y la estructuración en cadena de pensamiento.
- Implementar plantillas de prompts y estrategias de gestión de contexto.
- Construir pipelines de promping multi-etapas para flujos de trabajo complejos.
Formato del Curso
- Conferencia interactiva y discusión.
- Ejercicios prácticos con diseño de prompts.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para coordinar.