🚀 ¡Oportunidad laboral! ¡.! 🚀
- Apartir de 2 años de experiencia
- Experiencia en el desarrollo de pipelines ETL con Apache Spark y Python.
- Conocimiento practico de servicio AWS como S3, RDS (PostgreSQL) e IAM, AWS Glue, Amaxon EMR y Lambda.
- Solidas habilidades en SQL.
- Familiaridad con sistemas de control de versiones y flujos de CI/CD.
- Experiencia con procesamiento de datos en tiempo real (deseable).
- Certificación AWS realización con datos o arquitecturas cloud (deseable).
- Conocimiento de conceptos de inversiones y modelos de datos de banca privada (deseable).
- Diseñar, construir y mantener pipelines ETL utilizando Apache Spark, siguiendo las directrices y estándares establecidos por el Data Engineering Lead.
- Trabajo en remoto Al 100%
Skills:
- Amazon Kinesis Data Firehose Intermedio: Opcional
- Tableau Intermedio: Opcional
- Amazon EMR Avanzado: Obligatorio
- Lambda Avanzado: Obligatorio
- Power BI Intermedio: Opcional
- PostgreSQL Experto Bloqueante
- Amazon CloudWatch Intermedio: Opcional
- AWS Amazon Web Services Intermedio: Opcional
- Tipologia de productos de inversión Intermedio: Opcional
- AWS Glue Avanzado: Obligatorio
- Python Avanzado: Obligatorio
- Inglés Avanzado: Opcional