HACK A BOSS
FormaciónEvaluacionesPerfil
Volver
  • En directo

Fundamentos de arquitecturas RAG

4h de clase en directo·HACK A BOSS·Español

Skills que aprenderás

  • Arquitecturas RAG

Convocatorias

Necesitas un plan activo

Para acceder a los cursos en directo necesitas un plan activo. Estamos trabajando para que los planes estén disponibles pronto — ¡mantente atento!

No hay convocatorias abiertas ahora mismo, pero no te pierdas la oportunidad: guarda este curso y te avisamos en cuanto se abra una convocatoria.

Descripción

Objetivos

Temario

Requisitos técnicos

Conocimientos previos

Detalles de la convocatoria

Recursos

No hay recursos disponibles todavía para esta convocatoria

Curso de iniciación a las arquitecturas RAG (Retrieval-Augmented Generation) orientado a perfiles técnicos que quieren comprender cómo los sistemas de IA combinan recuperación de información con generación de lenguaje. Cubre las limitaciones de los LLMs sin contexto externo, el concepto de embedding como representación semántica numérica del texto, qué es un vector store y en qué se diferencia de una base de datos relacional, la arquitectura de un pipeline RAG con sus dos fases (indexación y consulta), y por qué el chunking es un paso crítico para la calidad del sistema. Al finalizar, el participante será capaz de explicar cómo funciona un sistema RAG, identificar sus componentes y describir la función de cada uno sin necesidad de implementarlo.

Al finalizar el curso, el participante será capaz de:

  • Identificar el problema que resuelve RAG y por qué un LLM solo no es suficiente para acceder a conocimiento privado o actualizado
  • Explicar qué es un embedding y cómo permite recuperar texto semánticamente similar
  • Describir qué es un vector store y en qué se diferencia de una base de datos tradicional
  • Describir las dos fases de un pipeline RAG y la función de cada componente
  • Identificar por qué es necesario el chunking y cómo afecta a la precisión de la recuperación
  1. Limitaciones de los LLMs y el problema que resuelve RAG Conocimiento estático con fecha de corte; incapacidad de acceder a documentos privados o actualizados; tendencia a alucinaciones cuando el modelo no conoce la respuesta; cómo RAG añade una fase de recuperación que aporta contexto relevante antes de la generación
  2. Embeddings y búsqueda semántica Qué es un embedding: representación numérica que captura el significado semántico; similitud vectorial (coseno, producto escalar) como mecanismo de recuperación; por qué embeddings semánticamente similares están próximos en el espacio vectorial; diferencia entre búsqueda por palabras clave y búsqueda semántica
  3. Vector stores y su función en RAG Qué es un vector store; cómo almacena embeddings y ejecuta búsquedas de proximidad (ANN); diferencias con bases de datos relacionales y documentales; ejemplos de vector stores: Chroma, FAISS, Pinecone, Qdrant
  4. Pipeline RAG: fases, componentes y chunking Fase de indexación: preprocesar, fragmentar, embedir y almacenar; fase de consulta: embedir la consulta, recuperar fragmentos relevantes, construir el prompt y generar la respuesta; el rol del modelo de embedding, el vector store y el LLM en cada fase; chunking: por qué dividir documentos, efecto del tamaño del chunk en la granularidad semántica y el contexto
  • Navegador web actualizado para acceso a recursos y demostraciones interactivas
  • Cuenta en un proveedor de LLM (OpenAI, Anthropic u otro) recomendada pero no obligatoria para las demostraciones en vivo

Ninguno requerido más allá de familiaridad con conceptos básicos de inteligencia artificial generativa (qué es un LLM, cómo funciona un prompt). No es necesario saber programar ni conocer bases de datos. El curso es conceptual y no requiere entorno de desarrollo.