Skills que aprenderás
Convocatorias
No hay convocatorias abiertas ahora mismo, pero no te pierdas la oportunidad: guarda este curso y te avisamos en cuanto se abra una convocatoria.
Recursos
No hay recursos disponibles todavía para esta convocatoria
Este curso introduce a profesionales que trabajan con IA generativa o quieren entender cómo funcionan los modelos de lenguaje de gran escala desde dentro. Dirigido a personas con curiosidad técnica sobre los LLMs que necesitan comprender qué ocurre bajo el capó cuando interactúan con un asistente de IA, el curso cubre los mecanismos esenciales: la tokenización del texto, el proceso de generación autoregresiva, el papel y las limitaciones de la ventana de contexto, la anatomía de una solicitud y los parámetros que controlan la variabilidad de las respuestas. Al finalizar, el participante será capaz de interpretar el comportamiento de un LLM en situaciones cotidianas —prompts largos, respuestas truncadas, aparente "olvido" de instrucciones— y tomar decisiones informadas sobre cómo estructurar sus solicitudes y ajustar los parámetros de generación.
Al finalizar el curso, el participante será capaz de:
temperature como control de variabilidad; relación entre temperatura baja y respuestas predecibles, temperatura alta y respuestas creativas; otros parámetros frecuentes (top_p, max_tokens); criterios para elegir temperatura según el tipo de tareaNinguno requerido como requisito formal. Se recomienda haber cursado IIA01 — Introducción a la IA Generativa antes de este curso, ya que proporciona el contexto más amplio sobre los paradigmas de IA en el que se enmarcan los LLMs. No es necesario tener conocimientos de programación ni de matemáticas. Basta con familiaridad básica con herramientas digitales y haber interactuado de forma ocasional con algún asistente de IA como Claude, ChatGPT o Gemini.