Skills que aprenderás
Convocatorias
No hay convocatorias abiertas ahora mismo, pero no te pierdas la oportunidad: guarda este curso y te avisamos en cuanto se abra una convocatoria.
Recursos
No hay recursos disponibles todavía para esta convocatoria
Curso de nivel avanzado dirigido a profesionales que ya diseñan y diagnostican prompts con criterio y necesitan operar sistemas de prompting en entornos de producción reales. El punto de partida es el dominio del diseño de system prompts, la iteración con evidencia y el diagnóstico de fallos; el objetivo es dar el salto a la producción: optimizar prompts para equilibrar calidad, coste y latencia, diseñar frameworks de evaluación automatizada con golden datasets y tests de regresión, arquitecturar pipelines multi-etapa con puntos de control y protocolos de fallo, evaluar la robustez frente a inputs adversariales, y aplicar selección dinámica de ejemplos y meta-prompting para escalar el diseño de prompts. Al finalizar, el participante será capaz de operar y mejorar sistemas de prompting en producción con criterio técnico y métricas objetivas.
Al finalizar el curso, el participante será capaz de:
Optimización para producción Coste y latencia en sistemas LLM: tokens de entrada vs tokens de salida y su impacto diferenciado en el coste; técnicas de compresión de contexto: eliminación de instrucciones redundantes, compresión de ejemplos few-shot; caching de prefijos: cuándo activarlo y cuánto ahorro produce; parámetros de inferencia relevantes para la optimización: temperatura, max_tokens, top_p; metodología de optimización iterativa: medir antes de cambiar, cambiar una variable a la vez, documentar el trade-off; umbral de degradación de calidad aceptable según el caso de uso
Evaluación automatizada y tests de regresión Limitaciones de la evaluación manual y subjetiva de prompts; diseño del golden dataset: criterios de selección de casos representativos, cobertura de casos difíciles y ambiguos, validación de etiquetas; métricas por tipo de tarea: exactitud, precision/recall para clasificación, BLEU/ROUGE para generación, métricas de formato para outputs estructurados; umbrales de alerta y procedimiento de regresión ante cambio de prompt o modelo; integración del test de regresión en el flujo de despliegue
Pipelines multi-etapa Patrones de pipeline: secuencial, con routing condicional y con fan-out; criterios de output por etapa: formato, completitud, coherencia; puntos de control automatizables entre etapas; protocolo de fallo diferenciado: reintentar con el mismo prompt, reintentar con prompt alternativo, escalar a revisión humana, detener el pipeline; trazabilidad de inputs y outputs para diagnóstico de fallos; casos donde un único prompt complejo supera a un pipeline multi-etapa
Robustez adversarial y meta-prompting Vectores de ataque en sistemas LLM: jailbreak directo, prompt injection indirecta, escalada de privilegios, inputs fuera de scope; diseño de salvaguardas en el system prompt: instrucciones de prioridad, respuestas estándar ante redirecciones, validación de inputs; casos de prueba adversariales para verificar salvaguardas sin degradar el uso normal; selección dinámica de ejemplos few-shot: indexación en vector store, similitud semántica como criterio de recuperación, valor de k y filtrado de redundantes; meta-prompting: prompt generador, prompt de crítica, prompt de refinamiento; cuándo meta-prompting supera al diseño manual y cuándo no
openai o anthropic, chromadb o faiss-cpu)→ PRE02 — Prompt Engineering: Diseño y evaluación (Intermedio, 6h)