HACK A BOSS
FormaciónEvaluacionesPerfil
Volver
  • En directo

IA Generativa en Producción

8h de clase en directo·HACK A BOSS·Español

Skills que aprenderás

  • IA Generativa

Convocatorias

Necesitas un plan activo

Para acceder a los cursos en directo necesitas un plan activo. Estamos trabajando para que los planes estén disponibles pronto — ¡mantente atento!

No hay convocatorias abiertas ahora mismo, pero no te pierdas la oportunidad: guarda este curso y te avisamos en cuanto se abra una convocatoria.

Descripción

Objetivos

Temario

Requisitos técnicos

Conocimientos previos

Detalles de la convocatoria

Recursos

No hay recursos disponibles todavía para esta convocatoria

Curso de nivel avanzado para profesionales que han implementado sistemas GenAI y necesitan operar, escalar y gobernar esos sistemas en entornos de producción. El curso cubre el diseño de arquitecturas multi-agente con herramientas externas y mecanismos de coordinación y control de flujo; el diseño de frameworks de evaluación continua con métricas operacionales, golden datasets y tests de regresión para detectar degradación silenciosa; las técnicas de alineamiento —RLHF, DPO y Constitutional AI— y el proceso de recopilación de datos de preferencia para ajustar el comportamiento del modelo; la infraestructura de serving con continuous batching, prompt caching y estrategias de escalado según el SLA; la auditoría de sistemas GenAI aplicando el EU AI Act para identificar el nivel de riesgo y los requisitos regulatorios aplicables; y la optimización de pipelines RAG mediante el diagnóstico sistemático de cuellos de botella en retrieval y generation. Al finalizar, el participante será capaz de diseñar la arquitectura completa de un sistema GenAI en producción, desde la infraestructura de serving hasta la gobernanza regulatoria.

Al finalizar el curso, el participante será capaz de:

  • Diseñar un sistema multi-agente con herramientas externas, coordinación entre agentes y mecanismos de control de flujo
  • Diseñar un framework de evaluación continua de un sistema LLM en producción con métricas, alertas y tests de regresión
  • Comparar técnicas de alineamiento de LLMs (RLHF, DPO, Constitutional AI) y diseñar un proceso de recopilación de datos de preferencia
  • Diseñar la infraestructura de serving para un LLM en producción seleccionando estrategias de batching, caching y escalado según los requisitos del SLA
  • Auditar un sistema GenAI aplicando el EU AI Act e identificar los requisitos de documentación y control aplicables
  • Optimizar el rendimiento de un pipeline RAG diagnosticando cuellos de botella en retrieval y generation
  1. Sistemas multi-agente Patrones de coordinación: orquestador central vs. pipeline secuencial vs. peer-to-peer; herramientas externas: conectores a APIs, bases de datos, buscadores web; fan-out y fan-in: ejecución paralela de agentes independientes y sincronización; mecanismos de control: max_iterations, timeout por agente, fallback ante fallo; casos donde un único agente con herramientas es preferible a un sistema multi-agente

  2. Evaluación continua en producción Fuentes de degradación silenciosa: distribution shift en inputs, cambios en documentos indexados, actualizaciones silenciosas del modelo del proveedor; métricas operacionales con umbrales de alerta: faithfulness, answer relevancy, latencia p95, tasa de "no puedo responder"; golden dataset: construcción, criterios de calidad y actualización periódica; tests de regresión ante cambios de prompt o modelo; procedimiento de rollback; campos mínimos en los logs para auditoría de una respuesta concreta

  3. Alineamiento de modelos RLHF: reward model entrenado a partir de comparaciones humanas + PPO para optimizar el LLM; limitaciones: complejidad, inestabilidad y coste computacional; DPO (Direct Preference Optimization): pérdida de clasificación sobre pares (chosen, rejected) sin reward model ni RL; formato de los datos de preferencia y criterios de calidad de la anotación; Constitutional AI: principios declarados en lugar de anotación humana por comparación; evaluación de capability regression tras el alineamiento

  4. Infraestructura de serving Continuous batching (dynamic batching): solapamiento de prefill y decode entre solicitudes; KV cache y prompt caching: cuándo cacheíar el prefijo del prompt y cuánto ahorro de coste y latencia produce; estrategias de escalado horizontal: métricas de trigger (latencia p95, longitud de cola), cooldown para evitar oscillación; gestión de prompts que superan la ventana de contexto: chunked prefill, RAG sobre el propio documento

  5. Gobernanza y auditoría (EU AI Act) Clasificación de sistemas GenAI por nivel de riesgo según el EU AI Act: sistemas prohibidos, alto riesgo, riesgo limitado, riesgo mínimo; requisitos para sistemas de alto riesgo: documentación técnica, logging de actividad, supervisión humana significativa, evaluación de sesgos; model cards: contenido mínimo según marcos de gobernanza; impact assessment: análisis de sesgos, grupos afectados, mecanismo de reclamación; GPAI y modelos de propósito general: obligaciones de transparencia y evaluación adversarial

  6. Optimización de pipelines RAG Diagnóstico por métricas: faithfulness baja con relevancy alta → alucinaciones del LLM (retrieval insuficiente); context precision baja → retriever impreciso; latencia alta en queries cortas → prefill sin caching o retrieval topK excesivo; técnicas de optimización: reranking con cross-encoder, HyDE (Hypothetical Document Embeddings) para mismatch semántico query-documento, query expansion para queries ambiguas; actualización incremental del índice ante cambios en la fuente de documentos

  • Python 3.x con pip
  • pip con acceso a instalar paquetes: langchain, langgraph, openai o anthropic, ragas
  • Cuenta activa con acceso a la API de un proveedor LLM (OpenAI, Anthropic u otro indicado por el docente)
  • Cuenta en Hugging Face para acceso a modelos de código abierto (ejercicios de alineamiento, opcional)
  • Editor de código (VS Code recomendado)
  • Terminal: bash, zsh o PowerShell

→ GEN02 — IA Generativa Aplicada (Intermedio, 6h)

  • Diseñar un pipeline RAG identificando las etapas de chunking, embedding, indexación y recuperación
  • Evaluar la calidad de las respuestas de un sistema RAG usando métricas de faithfulness y relevancia
  • Aplicar técnicas avanzadas de prompt engineering (few-shot, chain-of-thought, role prompting) para tareas de negocio complejas
  • Seleccionar el modelo LLM y su configuración según los requisitos de latencia, coste y calidad del caso de uso
  • Preparar un dataset de fine-tuning y seleccionar la técnica de adaptación según el presupuesto y el objetivo
  • Implementar medidas de mitigación de riesgos en un sistema GenAI: grounding, filtrado de PII y validación de salidas