Logo for Sofka Technologies

Ingeniero de Datos Senior

Roles & Responsibilities

  • 5+ years of proven experience in analysis, design, and deployment of Big Data solutions and relational/NoSQL databases.
  • Strong technical expertise in database optimization, Big Data architectures (Data Mesh, Lakehouse) and cloud ecosystems (AWS, Azure, Google Cloud).
  • Proficiency in Clean Code practices to ensure maintainable, efficient, and readable data products in On-Premise and cloud environments.
  • Ability to communicate complex technical concepts to business stakeholders, with experience in conflict resolution and negotiation.

Requirements:

  • Design data engineering solutions aligned with the architecture vision, ensuring high efficiency and scalability.
  • Develop and deploy complex data products (ETL, ELT, APIs) using cutting-edge tools and Clean Code principles.
  • Apply data-focused validation and testing strategies to rigorously verify functional and non-functional criteria.
  • Lead continuous improvement initiatives, proactively identifying opportunities to optimize products and development processes.

Job description


¿Estás buscando nuevos desafíos y un lugar donde puedas disfrutar de un ambiente cercano mientras aprendes constantemente?

¡Bienvenido a un equipo con un propósito claro: "TRANSFORMAR la vida de las personas siendo el aliado TECNOLÓGICO más confiable"! 🚀

¡Prepárate y únete a esta aventura! 

¿Qué encontrarás?

  • Retos técnicos y personales que te mantendrán en constante crecimiento.🤝 Un equipo conectado, enfocado en tu bienestar físico y mental.

  • Cultura de mejora continua, fresca y colaborativa, con oportunidades de aprendizaje y gente dispuesta a apoyarte.

  • KaizenHub, un programa diseñado para potenciar tus talentos, con feedback, mentorías y coaching a través de Sofka U. ¡Será un reto y un juego a la vez! 🧠🎮

  • Programas como Happy Kaizen y WeSofka que cuidan tu bienestar físico y emocional. 

¿Qué buscamos?

Un Ingeniero de datos Senior con más de 5 años de experiencia liderando el ciclo de vida de soluciones de información de alto impacto. Tu perfil destaca por un dominio técnico excepcional en optimización de bases de datos, arquitecturas Big Data y ecosistemas Cloud, junto con la capacidad de diseñar modelos robustos como Data Mesh y Lakehouse. Buscamos a un experto que no solo ejecute, sino que garantice la eficiencia y legibilidad del código mediante prácticas de Clean Code, impulsando la excelencia técnica en ambientes OnPremise y nube.

Responsabilidades

  • Realizar el diseño de ingeniería de soluciones de datos alineadas a la visión de Arquitectura, asegurando altos estándares de eficiencia y escalabilidad.

  • Desarrollar y desplegar productos de datos complejos (ETLs, ELTs, APIs) utilizando herramientas de vanguardia y aplicando principios de Clean Code.

  • Aplicar estrategias de validación y testing orientado a datos para verificar rigurosamente criterios funcionales y no funcionales.

  • Liderar iniciativas de mejora continua, identificando proactivamente oportunidades para optimizar productos y procesos de desarrollo.

  • Participar en tareas de programación en pares y revisiones técnicas para elevar la calidad del desarrollo dentro de todo el equipo.

  • Resolver incidencias en ambientes de estabilización y proponer soluciones estructurales a largo plazo para evitar su recurrencia.

  • Diseñar componentes genéricos, plantillas y lógicas reutilizables que aceleren el time-to-market de los nuevos desarrollos.

  • Proponer y ejecutar actividades de Onboarding y mentoría técnica para fortalecer el crecimiento de los ingenieros que se integran al equipo.

Requisitos

Formación: Profesional graduado en Ingeniería de Sistemas, Computación, Electrónica o carreras afines con enfoque en gestión de datos.
Experiencia: Más de 5 años de experiencia comprobable en análisis, diseño y despliegue de soluciones Big Data y bases de datos relacionales/NoSQL. Experiencia sólida en resolución de conflictos, negociación y exposición de conceptos técnicos a perfiles de negocio.

Conocimientos Técnicos

  • Motores de Base de Datos: Oracle, SQL Server, Postgres y NoSQL (MongoDB, Cassandra, ElasticSearch).

  • Ecosistemas Big Data: Apache Spark (SQL/Python), PySpark, Hadoop, HDFS, Kafka y Flink.

  • Cloud Computing: Dominio de AWS, Azure (Data Factory) y Google Cloud Platform (DataFlow).

  • Arquitecturas Modernas: Datawarehouse, Lakehouse, Data Mesh, Data Fabric y Arquitecturas orientadas a eventos.

  • Herramientas ETL: SSIS, Pentaho, Talend, AWS Glue y STRATIO.

  • Desarrollo y DevOps: Lenguajes Scala o Java, diseño de APIs, herramientas de CI/CD y control de versiones.

  • Metodologías: Marcos de trabajo Ágiles y estrategias DataOps / MLOps.

¡PRESENTATE y sé parte de esta historia! 


Condiciones

  • Contrato a término indefinido o Contractor  ¡Queremos relaciones a largo plazo y que seas parte de nuestra familia por mucho tiempo!

  • ¿Buscas crecimiento profesional? En Sofka, te ofrecemos un ecosistema de aprendizaje con múltiples herramientas para cerrar brechas y potenciar tus habilidades. ¡Tú decides cómo quieres crecer! 📚

Related jobs

Other jobs at Sofka Technologies

We help you get seen. Not ignored.

We help you get seen faster — by the right people.

🚀

Auto-Apply

We apply for you — automatically and instantly.

Save time, skip forms, and stay on top of every opportunity. Because you can't get seen if you're not in the race.

AI Match Feedback

Know your real match before you apply.

Get a detailed AI assessment of your profile against each job posting. Because getting seen starts with passing the filters.

Upgrade to Premium. Apply smarter and get noticed.

Upgrade to Premium

Join thousands of professionals who got noticed and hired faster.