HACK A BOSS
FormaciónEvaluacionesPerfil
Volver
  • En directo

IA Generativa Aplicada

6h de clase en directo·HACK A BOSS·Español

Skills que aprenderás

  • IA Generativa

Convocatorias

Necesitas un plan activo

Para acceder a los cursos en directo necesitas un plan activo. Estamos trabajando para que los planes estén disponibles pronto — ¡mantente atento!

No hay convocatorias abiertas ahora mismo, pero no te pierdas la oportunidad: guarda este curso y te avisamos en cuanto se abra una convocatoria.

Descripción

Objetivos

Temario

Requisitos técnicos

Conocimientos previos

Detalles de la convocatoria

Recursos

No hay recursos disponibles todavía para esta convocatoria

Curso de nivel intermedio orientado a profesionales que comprenden los fundamentos de la IA generativa y quieren diseñar e implementar sistemas GenAI reales en sus proyectos. El curso cubre el diseño end-to-end de pipelines RAG —estrategias de chunking, modelos de embedding, vector stores y retrieval por similitud—; la evaluación objetiva de la calidad de las respuestas con métricas de faithfulness y answer relevancy para diagnosticar dónde falla el sistema; las técnicas avanzadas de prompt engineering para tareas de negocio complejas —few-shot, chain-of-thought y role prompting—; la selección de modelo y parámetros de inferencia según los requisitos de latencia, coste y calidad; la preparación de datasets de fine-tuning y la selección entre full fine-tuning y LoRA/QLoRA según los recursos disponibles; y la implementación de controles de seguridad —grounding, filtrado de PII y validación de salidas—. Al finalizar, el participante será capaz de diseñar un pipeline RAG completo, evaluarlo con métricas objetivas, construir prompts robustos para producción y elegir el modelo adecuado para cada caso de uso.

Al finalizar el curso, el participante será capaz de:

  • Diseñar un pipeline RAG identificando las etapas de chunking, embedding, indexación y recuperación
  • Evaluar la calidad de las respuestas de un sistema RAG usando métricas de faithfulness y relevancia
  • Aplicar técnicas avanzadas de prompt engineering (few-shot, chain-of-thought, role prompting) para tareas de negocio complejas
  • Seleccionar el modelo LLM y su configuración según los requisitos de latencia, coste y calidad del caso de uso
  • Preparar un dataset de fine-tuning y seleccionar la técnica de adaptación según el presupuesto y el objetivo
  • Implementar medidas de mitigación de riesgos en un sistema GenAI: grounding, filtrado de PII y validación de salidas
  1. Pipelines RAG: diseño e implementación Chunking: estrategias por tamaño fijo, por sección semántica y con solapamiento; impacto del tamaño y el solapamiento en la calidad del retrieval; modelos de embedding: selección según dominio y dimensión del vector; indexación en vector store; retrieval por similitud coseno: topK y umbral de corte; integración del contexto recuperado en el prompt del LLM

  2. Evaluación de sistemas RAG Métricas por etapa: faithfulness (respuesta basada en el contexto), answer relevancy (respuesta aborda la pregunta), context precision (fragmentos recuperados son relevantes); diagnóstico de fallos a partir de la combinación de métricas: faithfulness baja con relevancy alta → alucinaciones del LLM; context precision baja → retriever impreciso; frameworks de evaluación automatizada (RAGAS)

  3. Prompt engineering avanzado y selección de modelo Few-shot learning: cuándo y cómo diseñar ejemplos que especifican el patrón de transformación esperado; chain-of-thought: instrucción de razonamiento paso a paso para tareas multi-criterio; role prompting y output formatting; selección de modelo según latencia, coste por token y calidad; parámetros de inferencia: temperatura según tipo de tarea (determinista vs. creativa), max_tokens según la longitud esperada de la respuesta

  4. Fine-tuning y mitigación de riesgos Full fine-tuning vs. LoRA vs. QLoRA: comparativa de requisitos de VRAM, coste y rendimiento; cuándo fine-tuning es preferible a RAG (comportamiento y estilo) y cuándo no; criterios de calidad para el dataset de entrenamiento: representatividad, limpieza, set de evaluación separado; mitigación de riesgos: grounding con instrucción explícita de citar fuentes, filtrado de PII con NER o expresiones regulares antes del envío al LLM, validación de salidas con guardrails de formato y contenido; control de acceso en retrieval por metadatos de usuario

  • Python 3.x instalado con pip
  • pip con acceso a instalar paquetes: langchain, openai o anthropic, chromadb o faiss-cpu
  • Cuenta activa con acceso a la API de un proveedor LLM (OpenAI, Anthropic u otro indicado por el docente)
  • Editor de código (VS Code recomendado)
  • Terminal: bash, zsh o PowerShell

→ GEN01 — Introducción a la IA Generativa (Iniciación, 4h)

  • Distinguir IA discriminativa de IA generativa con ejemplos propios
  • Identificar la modalidad generativa adecuada para un caso de uso dado
  • Explicar qué es un LLM y cómo genera texto mediante predicción de tokens
  • Distinguir cuándo aplicar RAG y cuándo fine-tuning según el tipo de necesidad
  • Reconocer si un caso de uso justifica el uso de IA generativa frente a una solución más simple
  • Identificar riesgos éticos y de privacidad en una solución GenAI