Modalidad: 100% Remoto
Experiencia: 2 a 3 años
Buscamos un/a Ingeniero de Datos con experiencia práctica en Apache Kafka para unirse a nuestro equipo en modalidad completamente remota. Serás clave en la construcción y mantenimiento de pipelines de datos en tiempo real, asegurando escalabilidad, fiabilidad y bajo latencia.
Diseñar, implementar y mantener flujos de datos en tiempo real utilizando Apache Kafka.
Desarrollar productores y consumidores (Kafka Producers/Consumers) en lenguajes como Python, Java o Scala.
Configurar y administrar clústeres Kafka, tópicos, particiones y estrategias de replicación.
Integrar Kafka con ecosistemas de big data (Spark Streaming, Flink, etc.) y bases de datos (PostgreSQL, MongoDB, BigQuery, etc.).
Monitorear el rendimiento, latencia y consumo de los pipelines.
Colaborar con equipos de Data Engineering, Backend y Producto para garantizar la calidad y gobernanza de los datos.
2 a 3 años de experiencia comprobable trabajando con Apache Kafka en entornos productivos.
Conocimiento sólido de arquitecturas orientadas a eventos (event-driven architecture).
Experiencia con lenguajes de programación como Python o Java.
Familiaridad con cloud providers (AWS, GCP o Azure) y servicios como MSK, Confluent Cloud, etc.
Manejo de herramientas de orquestación (Airflow, Kubernetes) es un plus.
Inglés intermedio/avanzado (deseable según el cliente).

Morgan Stanley

Edges Wellness Center LLC

WSP in Canada

Digitalenta

Cox Automotive Inc.

Grupo TECDATA Engineering

Grupo TECDATA Engineering

Grupo TECDATA Engineering