Skills que aprenderás
Convocatorias
No hay convocatorias abiertas ahora mismo, pero no te pierdas la oportunidad: guarda este curso y te avisamos en cuanto se abra una convocatoria.
Recursos
No hay recursos disponibles todavía para esta convocatoria
Este curso está dirigido a ingenieros que operan Kafka en entornos de producción y necesitan dominar los patrones más exigentes de la plataforma: procesamiento stateful con Kafka Streams, evolución de schemas con Schema Registry y Avro, optimización cuantitativa de throughput y latencia, arquitecturas multi-cluster con MirrorMaker 2, despliegue como operador en Kubernetes con Strimzi, definición de alertas de producción con Prometheus y planificación de migraciones críticas como el salto de ZooKeeper a KRaft. El curso combina diseño de arquitecturas con implementación técnica y análisis de trade-offs, y requiere diez horas para cubrir con profundidad los siete dominios avanzados. Al finalizar, el participante será capaz de tomar decisiones de arquitectura justificadas, instrumentar un cluster para producción y ejecutar operaciones complejas con plan de rollback.
Al finalizar el curso, el participante será capaz de:
kafka-producer-perf-test.sh, identificando el parámetro limitante y ajustando linger.ms, batch.size, fetch.min.bytes o compression.typeKafka con almacenamiento persistente y creando topics con el recurso KafkaTopicUnderReplicatedPartitions, broker offline, throughput anómalo) e integrarlas con AlertmanagerStreamsBuilder; ventanas temporales con TimeWindows y grace periods; recuperación de estado tras reinicio; verificación del changelog topic y su política de compactación["null", "type"] en Avro; verificación de compatibilidad con el endpoint /compatibility antes de registrar; resolución writer/reader schema en el KafkaAvroDeserializerkafka-producer-perf-test.sh y kafka-consumer-perf-test.sh; interpretación de métricas de throughput, latencia media y percentil 99; ajuste de batch.size y linger.ms para batching eficiente; fetch.min.bytes y fetch.max.wait.ms en el consumer; compression.type (lz4, snappy, zstd) y trade-off CPU vs redsync.group.offsets.enabled; riesgos del offset mapping entre clusters y uso de RemoteClusterUtils.translateOffsets(); configuración de replication.factor y tasks.max en función del RPO; procedimiento de failover paso a pasoKafka, KafkaTopic, KafkaUser); despliegue del cluster con replicas y storage.type: persistent-claim; verificación del estado Ready con kubectl wait; gestión de topics con KafkaTopic y el label strimzi.io/cluster; Entity Operator para gestión declarativa de topics y usuarioskafka_server_replicamanager_underreplicatedpartitions, kafka_consumergroup_lag, kafka_brokers; sintaxis de reglas de alerta con expr, for y severity; enrutamiento en Alertmanager por severity a PagerDuty y Slack; fases de la migración ZooKeeper → KRaft con bridge mode; criterios de rollback y verificaciones de estado previas a desconectar ZooKeeperconfluentinc/cp-schema-registry) para ejercicios de evolución de schemasconfluent-kafka para ejercicios de benchmarking y cliente→ KFK02 — Apache Kafka intermedio (Intermedio, 8h)
kafka-consumer-groups.shdelete) y compactación (compact) según el caso de usoacks, commit de offset)