Responsabilidades principales:
Diseñar y liderar arquitecturas de pipelines ETL escalables y eficientes en AWS, asegurando buenas prácticas y estándares técnicos.
Resolver problemas técnicos avanzados en Spark / PySpark relacionados con transformaciones complejas y procesamiento intensivo.
Colaborar con áreas de Cloud y TechHub para optimizar infraestructura.
Alinear modelos de datos con objetivos de negocio y necesidades de reporting.
Liderar al equipo de Data Engineering: asignación de tareas, revisión de entregables y mejora técnica.
Documentar procesos, arquitecturas y estándares de datos para asegurar su sostenibilidad.
Requisitos técnicos obligatorios:
Experiencia avanzada en Apache Spark / PySpark sobre AWS.
Diseño e implementación de workflows ETL complejos.
Modelado de datos y diseño de esquemas escalables.
Conocimiento profundo de AWS (S3, RDS, EMR) y seguridad de datos.
SQL avanzado.
Experiencia con CI/CD y despliegue automatizado en AWS.
Fuertes habilidades de liderazgo técnico y coordinación con stakeholders.
Deseables:
Procesamiento de datos en tiempo real.
Certificación AWS en datos o arquitectura cloud.
Conocimiento de modelos de datos del sector financiero (banca/inversión).
Inglés fluido.
Formación universitaria en Ingeniería, Matemáticas, Física o similares.
BairesDev
QA Ltd
Arqiva
Kasten by Veeam | #1 Kubernetes Backup
SynergisticIT