Skills que aprenderás
Convocatorias
No hay convocatorias abiertas ahora mismo, pero no te pierdas la oportunidad: guarda este curso y te avisamos en cuanto se abra una convocatoria.
Recursos
No hay recursos disponibles todavía para esta convocatoria
Este curso capacita a ingenieros y desarrolladores que ya manejan los fundamentos de Kafka para diseñar, configurar y operar pipelines de datos con criterio técnico. El curso cubre el diseño de topologías de topics con garantías de orden y políticas de retención adecuadas al caso de uso; la gestión de consumer groups y la verificación del rebalanceo de partitions; la configuración de compactación de logs; la integración con sistemas externos mediante Kafka Connect; la monitorización del consumer lag; la depuración de mensajes perdidos o duplicados analizando la semántica de entrega; y la configuración de replicación multi-broker para alta disponibilidad. Al finalizar, el participante será capaz de tomar decisiones justificadas de configuración y diagnosticar fallos en pipelines Kafka de complejidad media.
Al finalizar el curso, el participante será capaz de:
kafka-consumer-groups.shdelete y cuándo usar compactkafka-consumer-groups.sh, identificar la causa de un lag creciente y proponer la corrección adecuadaacks del producer o en la estrategia de commit de offset del consumerretention.ms, retention.bytes y cálculo de la retención necesaria; diseño de múltiples topics para dominios distintosgroup.id, session.timeout.ms y heartbeat.interval.ms; triggers del rebalanceo (entrada, salida y timeout de consumer); lectura de kafka-consumer-groups.sh --describe; interpretación del campo LAG y del valor -1cleanup.policy=delete vs cleanup.policy=compact; casos de uso de la compactación (topics de estado por clave); combinación compact,delete; ajuste de retention.ms, retention.bytes y min.cleanable.dirty.ratioPOST /connectors); verificación del estado con GET /connectors/<nombre>/statusacks, retries y enable.idempotence en el producer; commit de offset antes o después del procesamiento y sus consecuenciasreplication-factor, ISR (In-Sync Replicas) y min.insync.replicas; elección de líder ante la caída de un broker; verificación del ISR con kafka-topics.sh --describe; efecto de acks=all cuando el ISR no satisface min.insync.replicascurl o cliente REST (Postman, Insomnia) para interactuar con la API REST de Kafka Connectconfluent-kafka 2.x para ejercicios de producer/consumer avanzado→ KFK01 — Apache Kafka fundamentos (Iniciación, 8h)