Skills que aprenderás
Convocatorias
No hay convocatorias abiertas ahora mismo, pero no te pierdas la oportunidad: guarda este curso y te avisamos en cuanto se abra una convocatoria.
Recursos
No hay recursos disponibles todavía para esta convocatoria
Este curso introduce Apache Kafka como plataforma de streaming distribuida para participantes que trabajan en entornos backend, datos o DevOps y necesitan entender cómo funciona el modelo productor-consumidor sobre topics particionados. El curso cubre la arquitectura de brokers, topics y partitions; las garantías de orden y persistencia mediante offsets; la puesta en marcha de un broker local con Docker; la publicación y consumo de mensajes con la CLI de Kafka; el modelo de consumer groups y distribución de particiones; y la implementación de un cliente básico en Python. Al finalizar, el participante será capaz de levantar un entorno Kafka, publicar y consumir mensajes, y diagnosticar los errores más frecuentes de un pipeline básico.
Al finalizar el curso, el participante será capaz de:
confluent-kafka, garantizando el envío con flush() y controlando el punto de lectura con auto.offset.resetUNKNOWN_TOPIC_OR_PART, NoBrokersAvailable, OFFSET_OUT_OF_RANGE, heartbeat timeout) y describir cómo diagnosticarloskafka-topics.sh --list; publicación de mensajes con kafka-console-producer.sh; consumo desde el principio y desde un offset específico con kafka-console-consumer.shbootstrap.servers y key.serializer; envío de mensajes con produce() y flush(); configuración del consumer con group.id y auto.offset.reset; lectura de mensajes con poll() y commit de offsetsUNKNOWN_TOPIC_OR_PART, NoBrokersAvailable, OFFSET_OUT_OF_RANGE, heartbeat timeout y Message too large; estrategia de lectura de logs del broker y del cliente para identificar la causa raízconfluent-kafkaconfluent-kafka 2.x instalado en el entorno de trabajo (pip install confluent-kafka)No se requiere experiencia previa con Kafka ni con sistemas de mensajería. El participante debe ser capaz de ejecutar comandos en la terminal, leer un archivo YAML básico y escribir funciones sencillas en Python con bucles y condicionales. No es necesario haber trabajado con Docker en profundidad, aunque tener instalado Docker Desktop y haber ejecutado algún docker run facilitará el arranque.