Skills que aprenderás
Convocatorias
No hay convocatorias abiertas ahora mismo, pero no te pierdas la oportunidad: guarda este curso y te avisamos en cuanto se abra una convocatoria.
Recursos
No hay recursos disponibles todavía para esta convocatoria
Curso de nivel intermedio orientado a profesionales que ya entienden qué es un embedding, conocen las operaciones básicas sobre un índice vectorial y han construido un prototipo de búsqueda semántica, y quieren dar el salto al diseño técnico de sistemas RAG de calidad de producción. El punto de partida es el dominio de los fundamentos de embeddings, similitud vectorial y operaciones CRUD sobre ChromaDB; el objetivo es aplicar criterios de diseño para construir sistemas de retrieval eficientes: seleccionar el algoritmo de indexación según los requisitos de escala y latencia, diseñar esquemas de metadatos con estrategias de filtrado adecuadas, elegir el modelo de embeddings correcto para el dominio, diseñar una estrategia de chunking rigurosa, evaluar la calidad del retrieval con métricas estándar y construir un pipeline RAG completo funcional. Al finalizar, el participante será capaz de diseñar e implementar un pipeline RAG con criterios técnicos explícitos y medir su calidad.
Al finalizar el curso, el participante será capaz de:
Algoritmos de indexación vectorial Limitaciones del índice Flat para colecciones grandes: coste O(N) en consulta; ANN (Approximate Nearest Neighbor): sacrificar recall exacto por latencia sublineal; HNSW: grafo multicapa, parámetros M y ef_construction en indexación, ef_search en consulta; IVF: partición del espacio en clusters, parámetro nlist y nprobe; criterios de selección: volumen, latencia objetivo, recall mínimo aceptable, frecuencia de actualizaciones; comparativa de rendimiento y memoria: Flat vs IVF vs HNSW; cómo los configuran ChromaDB, Qdrant y Pinecone
Metadatos y filtrado en BDs vectoriales Diseño de esquemas de metadatos: tipos soportados (string, numérico, booleano, fecha), cardinalidad y eficiencia de filtrado; estrategia pre-filter: filtrar candidatos antes de la búsqueda vectorial — ventajas con filtros selectivos; estrategia post-filter: búsqueda vectorial completa + filtrado de resultados — ventajas con filtros poco selectivos; metadatos adecuados vs texto libre que debe embeberse; implementación de filtered search en ChromaDB y Qdrant; diseño de namespaces para multi-tenant
Selección del modelo de embeddings Dimensionalidad del vector: impacto en almacenamiento, latencia y calidad; modelos disponibles: sentence-transformers (locales, gratuitos), OpenAI text-embedding-3 (API, multilingüe), modelos especializados de dominio; MTEB leaderboard: cómo leer y comparar modelos para tareas de retrieval; soporte multilingüe: modelos multilingüe vs combinación de modelos monolingüe; evaluación offline: cómo comparar dos modelos sobre el mismo corpus antes de decidir; latencia de inferencia en tiempo real vs offline
Chunking y preprocesamiento de documentos El problema del chunk size: demasiado pequeño (pérdida de contexto), demasiado grande (embeddings imprecisos); métodos de chunking: por caracteres/tokens con tamaño fijo, por separador semántico (párrafo, sección), recursivo; parámetro overlap: qué es, para qué sirve, cómo calibrarlo; estrategias por tipo de contenido: documentos estructurados (HTML, Markdown, PDF con secciones) vs texto libre; metadatos de trazabilidad por chunk: fuente, número de página, sección; herramientas: LangChain TextSplitters, LlamaIndex NodeParsers
Evaluación de la calidad del retrieval Conjunto de evaluación: cómo construirlo, qué tamaño mínimo es razonable, cómo anotarlo; métricas: precision@k, recall@k y MRR — definición, cálculo y cuándo usar cada una; interpretación de resultados: precision alta + recall bajo → vocabulary gap; recall alto + precision baja → mucho ruido; herramientas: RAGAS para evaluación de RAG, evaluación manual con inspección de los top-k; diagnóstico: cómo identificar si el problema está en el chunking, el embedding o el índice
Pipeline RAG integrador Arquitectura completa de un pipeline RAG: carga de documentos → chunking → embeddings → indexación → consulta → recuperación → construcción del prompt → generación; uso del mismo modelo de embedding en indexación y consulta; construcción del prompt con contexto: posición del contexto, instrucciones al LLM para usar solo el contexto; problemas frecuentes: LLM ignora el contexto (solución: instrucción explícita en el prompt de sistema), chunks irrelevantes (solución: revisar el modelo de embedding y el chunking); evaluación del pipeline completo con RAGAS
chromadb, sentence-transformers, rank-bm25, ragas, numpy, scikit-learn→ BDV01 — Fundamentos de Bases de Datos Vectoriales (Iniciación, 8h)