HACK A BOSS
FormaciónEvaluacionesPerfil
Volver
  • En directo

Fundamentos de Prompt Engineering

6h de clase en directo·HACK A BOSS·Español

Skills que aprenderás

  • Prompt Engineering

Convocatorias

Necesitas un plan activo

Para acceder a los cursos en directo necesitas un plan activo. Estamos trabajando para que los planes estén disponibles pronto — ¡mantente atento!

No hay convocatorias abiertas ahora mismo, pero no te pierdas la oportunidad: guarda este curso y te avisamos en cuanto se abra una convocatoria.

Descripción

Objetivos

Temario

Requisitos técnicos

Conocimientos previos

Detalles de la convocatoria

Recursos

No hay recursos disponibles todavía para esta convocatoria

Este curso capacita a profesionales que trabajan o quieren trabajar con modelos de lenguaje (LLMs) para diseñar prompts que produzcan outputs útiles, predecibles y coherentes con sus objetivos. Dirigido a personas sin experiencia previa en prompting, cubre los fundamentos del diseño de instrucciones efectivas: la anatomía de un prompt, la diferencia entre prompts vagos y estructurados, el diagnóstico de causas de outputs incorrectos, las técnicas zero-shot y few-shot, y el control del tono, la extensión y el formato de salida. Al finalizar, el participante será capaz de analizar cualquier par prompt-output, identificar sus puntos de mejora y reescribir el prompt para obtener respuestas más precisas, detectando además cuándo un output muestra señales de alucinación o se ha salido del scope pedido.

Al finalizar el curso, el participante será capaz de:

  • Identificar los cuatro componentes de un prompt efectivo —instrucción, rol, contexto y formato de salida— y reconocer su presencia o ausencia en prompts dados
  • Distinguir un prompt vago de uno estructurado, señalando con precisión qué elementos faltan o son ambiguos
  • Identificar las causas más comunes por las que un prompt produce un output incorrecto o incompleto, y proponer correcciones concretas para cada caso
  • Diferenciar cuándo utilizar zero-shot y cuándo few-shot según las características de la tarea y la especificidad del criterio de salida
  • Identificar qué instrucciones de tono, extensión y formato influyen en el output generado y adaptarlas a distintos contextos de uso
  • Reconocer cuándo un output muestra señales de alucinación o está fuera del scope del prompt, distinguiendo ambos tipos de problema
  1. Anatomía de un prompt Componentes del prompt efectivo (instrucción, rol, contexto, formato de salida); identificación de componentes presentes y ausentes en prompts reales; diferencia entre prompts vagos y estructurados; fuentes de ambigüedad: términos evaluativos sin definir, alcance indefinido, múltiples interpretaciones posibles; reescritura y mejora de prompts con justificación de cada cambio
  2. Diagnóstico de outputs incorrectos Causas frecuentes de outputs no esperados: instrucción ambigua, contexto insuficiente, ausencia de formato de salida, instrucciones contradictorias, alcance demasiado amplio; análisis de pares prompt-output reales; corrección sistemática identificando la causa raíz de cada problema
  3. Técnicas de prompting Zero-shot vs. few-shot: diferencias conceptuales y criterios de elección según convencionalidad de la tarea, especificidad del criterio de clasificación y variabilidad del input; cuándo los ejemplos son más eficientes que las descripciones verbales; control de tono (formal, técnico, conversacional, persuasivo), extensión (límites en palabras, número de puntos, densidad) y formato de salida (JSON, Markdown, tabla, lista numerada, párrafo)
  4. Calidad y evaluación del output Señales de alucinación en LLMs: datos inventados con apariencia de veracidad, fuentes y citas fabricadas, afirmaciones no verificables presentadas como hechos; distinción entre alucinación y output fuera del scope del prompt; estrategias básicas de verificación; prompting defensivo: grounding con datos en el propio prompt
  • Acceso a un LLM conversacional (Claude, ChatGPT, Gemini o similar) con cuenta gratuita o de pago
  • Navegador web actualizado (Chrome, Firefox o Edge)
  • Editor de texto básico para anotar y versionar prompts durante la práctica (VS Code, Notepad++ o similar)

Ninguno requerido como requisito formal. Se recomienda haber cursado LLM01 — Fundamentos de los LLMs antes de este curso: entender qué es un token, cómo genera texto un LLM de forma autoregresiva y qué papel juega la ventana de contexto proporciona una base conceptual que hace más sólido el aprendizaje del prompt engineering. Si no se ha cursado LLM01, es suficiente con haber interactuado de forma habitual con algún asistente de IA como Claude, ChatGPT o Gemini y tener familiaridad básica con navegadores web y herramientas digitales.