Skills que aprenderás
Convocatorias
No hay convocatorias abiertas ahora mismo, pero no te pierdas la oportunidad: guarda este curso y te avisamos en cuanto se abra una convocatoria.
Recursos
No hay recursos disponibles todavía para esta convocatoria
Curso de nivel avanzado para profesionales que han implementado sistemas GenAI y necesitan operar, escalar y gobernar esos sistemas en entornos de producción. El curso cubre el diseño de arquitecturas multi-agente con herramientas externas y mecanismos de coordinación y control de flujo; el diseño de frameworks de evaluación continua con métricas operacionales, golden datasets y tests de regresión para detectar degradación silenciosa; las técnicas de alineamiento —RLHF, DPO y Constitutional AI— y el proceso de recopilación de datos de preferencia para ajustar el comportamiento del modelo; la infraestructura de serving con continuous batching, prompt caching y estrategias de escalado según el SLA; la auditoría de sistemas GenAI aplicando el EU AI Act para identificar el nivel de riesgo y los requisitos regulatorios aplicables; y la optimización de pipelines RAG mediante el diagnóstico sistemático de cuellos de botella en retrieval y generation. Al finalizar, el participante será capaz de diseñar la arquitectura completa de un sistema GenAI en producción, desde la infraestructura de serving hasta la gobernanza regulatoria.
Al finalizar el curso, el participante será capaz de:
Sistemas multi-agente Patrones de coordinación: orquestador central vs. pipeline secuencial vs. peer-to-peer; herramientas externas: conectores a APIs, bases de datos, buscadores web; fan-out y fan-in: ejecución paralela de agentes independientes y sincronización; mecanismos de control: max_iterations, timeout por agente, fallback ante fallo; casos donde un único agente con herramientas es preferible a un sistema multi-agente
Evaluación continua en producción Fuentes de degradación silenciosa: distribution shift en inputs, cambios en documentos indexados, actualizaciones silenciosas del modelo del proveedor; métricas operacionales con umbrales de alerta: faithfulness, answer relevancy, latencia p95, tasa de "no puedo responder"; golden dataset: construcción, criterios de calidad y actualización periódica; tests de regresión ante cambios de prompt o modelo; procedimiento de rollback; campos mínimos en los logs para auditoría de una respuesta concreta
Alineamiento de modelos RLHF: reward model entrenado a partir de comparaciones humanas + PPO para optimizar el LLM; limitaciones: complejidad, inestabilidad y coste computacional; DPO (Direct Preference Optimization): pérdida de clasificación sobre pares (chosen, rejected) sin reward model ni RL; formato de los datos de preferencia y criterios de calidad de la anotación; Constitutional AI: principios declarados en lugar de anotación humana por comparación; evaluación de capability regression tras el alineamiento
Infraestructura de serving Continuous batching (dynamic batching): solapamiento de prefill y decode entre solicitudes; KV cache y prompt caching: cuándo cacheíar el prefijo del prompt y cuánto ahorro de coste y latencia produce; estrategias de escalado horizontal: métricas de trigger (latencia p95, longitud de cola), cooldown para evitar oscillación; gestión de prompts que superan la ventana de contexto: chunked prefill, RAG sobre el propio documento
Gobernanza y auditoría (EU AI Act) Clasificación de sistemas GenAI por nivel de riesgo según el EU AI Act: sistemas prohibidos, alto riesgo, riesgo limitado, riesgo mínimo; requisitos para sistemas de alto riesgo: documentación técnica, logging de actividad, supervisión humana significativa, evaluación de sesgos; model cards: contenido mínimo según marcos de gobernanza; impact assessment: análisis de sesgos, grupos afectados, mecanismo de reclamación; GPAI y modelos de propósito general: obligaciones de transparencia y evaluación adversarial
Optimización de pipelines RAG Diagnóstico por métricas: faithfulness baja con relevancy alta → alucinaciones del LLM (retrieval insuficiente); context precision baja → retriever impreciso; latencia alta en queries cortas → prefill sin caching o retrieval topK excesivo; técnicas de optimización: reranking con cross-encoder, HyDE (Hypothetical Document Embeddings) para mismatch semántico query-documento, query expansion para queries ambiguas; actualización incremental del índice ante cambios en la fuente de documentos
langchain, langgraph, openai o anthropic, ragas→ GEN02 — IA Generativa Aplicada (Intermedio, 6h)