Semi Senior / Senior Ingeniero de Datos - Sector Bancario

Remote: 
Full Remote
Contract: 
Work from: 

Offer summary

Qualifications:

Extensive experience in the complete development cycle of information solutions., Strong knowledge of database optimization and Big Data technologies., Proficiency in Python, Scala, or Java, applying Clean Code principles., Experience with ETL tools and DataOps/MLOps strategies..

Key responsabilities:

  • Design and develop data solutions aligned with Data Architecture vision.
  • Create and optimize ETLs, ELTs, and APIs for efficient data handling.
  • Implement testing strategies to validate functional and non-functional quality.
  • Mentor and support the onboarding of new team members.

Devsu logo
Devsu Computer Software / SaaS SME https://www.devsu.com/
51 - 200 Employees
See all jobs

Job description

Buscamos un Ingeniero de Datos con amplia experiencia en el ciclo completo de desarrollo de soluciones de información, incluyendo análisis, diseño, desarrollo, certificación, despliegue y mantenimiento, en entornos OnPremise y tecnologías Big Data. El candidato ideal debe demostrar sólidos conocimientos en optimización de bases de datos y un enfoque proactivo para superar limitaciones técnicas o de procesos, asegurando soluciones robustas, eficientes y alineadas con las mejores prácticas de desarrollo. Se valorará la capacidad de liderar y colaborar con equipos multidisciplinarios para acelerar el cumplimiento de objetivos.

Es una posición remota en LATAM, en donde serás asignado/a a uno de nuestros clientes más importantes en el sector financiero/bancario de Latinoamérica.

Trabajarás en un entorno ágil, con un equipo increíble en la implementación de productos de software de clase mundial.

Requirements

Experiencia
    • Bases de datos relacionales y NoSQL, diseño de Datawarehouse, Datamarts, Datalakes y Lakehouse.
    • Procesamiento distribuido con Hadoop, Spark y arquitecturas batch/streaming.
    • Desarrollo en Python, Scala o Java, aplicando principios de Clean Code.
    • Construcción de pipelines con herramientas ETL (Azure Data Factory, AWS Glue, SSIS).
    • Estrategias de DataOps/MLOps y despliegue CI/CD.
  • Deseable: Certificaciones en AWS, Azure, o Big Data, y experiencia en arquitecturas modernas como Data Mesh o Data Fabric.

Responsabilidades
  • Diseñar y desarrollar soluciones de datos alineadas con la visión de Arquitectura de Datos.
  • Crear y optimizar ETLs, ELTs y APIs para manejo eficiente de datos.
  • Implementar estrategias de testing para validar calidad funcional y no funcional.
  • Proponer mejoras continuas en procesos y productos de datos.
  • Resolver incidencias técnicas y documentar soluciones conforme a estándares.
  • Mentorizar y apoyar el onboarding de nuevos integrantes del equipo.
Herramientas y Tecnologías
  • Apache Spark, Kafka, Flink, Hadoop, HDFS.
  • Servicios Cloud: AWS, Azure, GCP.
  • Lenguajes: Python, Scala, Java.

Benefits

Un contrato estable a largo plazo. Entrenamiento contínuo. Seguro de Salud Privado. Trabajarás con algunos de los ingenieros de software más talentosos de América Latina y los EEUU, haciendo un trabajo desafiante y software de clase mundial.

Required profile

Experience

Industry :
Computer Software / SaaS
Spoken language(s):
Spanish
Check out the description to know which languages are mandatory.

Other Skills

  • Mentorship
  • Collaboration
  • Problem Solving

Related jobs