Skills que aprenderás
Convocatorias
No hay convocatorias abiertas ahora mismo, pero no te pierdas la oportunidad: guarda este curso y te avisamos en cuanto se abra una convocatoria.
Recursos
No hay recursos disponibles todavía para esta convocatoria
Curso de nivel intermedio orientado a profesionales que comprenden los fundamentos de la IA generativa y quieren diseñar e implementar sistemas GenAI reales en sus proyectos. El curso cubre el diseño end-to-end de pipelines RAG —estrategias de chunking, modelos de embedding, vector stores y retrieval por similitud—; la evaluación objetiva de la calidad de las respuestas con métricas de faithfulness y answer relevancy para diagnosticar dónde falla el sistema; las técnicas avanzadas de prompt engineering para tareas de negocio complejas —few-shot, chain-of-thought y role prompting—; la selección de modelo y parámetros de inferencia según los requisitos de latencia, coste y calidad; la preparación de datasets de fine-tuning y la selección entre full fine-tuning y LoRA/QLoRA según los recursos disponibles; y la implementación de controles de seguridad —grounding, filtrado de PII y validación de salidas—. Al finalizar, el participante será capaz de diseñar un pipeline RAG completo, evaluarlo con métricas objetivas, construir prompts robustos para producción y elegir el modelo adecuado para cada caso de uso.
Al finalizar el curso, el participante será capaz de:
Pipelines RAG: diseño e implementación Chunking: estrategias por tamaño fijo, por sección semántica y con solapamiento; impacto del tamaño y el solapamiento en la calidad del retrieval; modelos de embedding: selección según dominio y dimensión del vector; indexación en vector store; retrieval por similitud coseno: topK y umbral de corte; integración del contexto recuperado en el prompt del LLM
Evaluación de sistemas RAG Métricas por etapa: faithfulness (respuesta basada en el contexto), answer relevancy (respuesta aborda la pregunta), context precision (fragmentos recuperados son relevantes); diagnóstico de fallos a partir de la combinación de métricas: faithfulness baja con relevancy alta → alucinaciones del LLM; context precision baja → retriever impreciso; frameworks de evaluación automatizada (RAGAS)
Prompt engineering avanzado y selección de modelo Few-shot learning: cuándo y cómo diseñar ejemplos que especifican el patrón de transformación esperado; chain-of-thought: instrucción de razonamiento paso a paso para tareas multi-criterio; role prompting y output formatting; selección de modelo según latencia, coste por token y calidad; parámetros de inferencia: temperatura según tipo de tarea (determinista vs. creativa), max_tokens según la longitud esperada de la respuesta
Fine-tuning y mitigación de riesgos Full fine-tuning vs. LoRA vs. QLoRA: comparativa de requisitos de VRAM, coste y rendimiento; cuándo fine-tuning es preferible a RAG (comportamiento y estilo) y cuándo no; criterios de calidad para el dataset de entrenamiento: representatividad, limpieza, set de evaluación separado; mitigación de riesgos: grounding con instrucción explícita de citar fuentes, filtrado de PII con NER o expresiones regulares antes del envío al LLM, validación de salidas con guardrails de formato y contenido; control de acceso en retrieval por metadatos de usuario
langchain, openai o anthropic, chromadb o faiss-cpu→ GEN01 — Introducción a la IA Generativa (Iniciación, 4h)