Logo for SDG Group

Spark Data Engineer

Roles & Responsibilities

  • Degree in Computer Engineering, Telecommunications, Mathematics, Physics, or related fields.
  • Minimum 5 years of Big Data experience with distributed processing and ETL/ELT pipelines in complex environments using Python or Scala and frameworks such as Spark, Airflow, or Databricks; knowledge of data architectures (Data Lakehouse, cloud) and formats like Parquet, Delta Lake, Iceberg, or Snowflake.
  • Strong coding practices and data governance: Git, CI/CD, DataOps, pipeline monitoring, data quality controls, and data versioning.
  • English communication skills for global collaboration and an innovative mindset with curiosity about emerging Big Data technologies and willingness to experiment and propose improvements.

Requirements:

  • Design and develop end-to-end data solutions to process large data volumes, from business problem to scalable and optimized ETL/ELT pipelines.
  • Work with technologies such as Apache Spark, Python, Scala, Apache Beam, and orchestration with Airflow or Databricks Workflows to generate insights.
  • Process and store data using Parquet, Delta Lake, Iceberg in cloud environments (AWS, Azure, GCP); define architectures like Data Lakehouse, Data Mesh, and data warehouses.
  • Collaborate with multidisciplinary teams and stakeholders, translate complex requirements into efficient technical solutions; explore and evaluate emerging technologies to keep projects at the forefront.

Job description

¡Hola, Data Lover! 💙

¿Te gustaría llevar tu expertise en datos al siguiente nivel?

En SDG Group somos líderes globales en Big Data, Business Intelligence, Analytics e Inteligencia Artificial. Desde 1994 hemos acompañado a la mitad del IBEX-35 y a algunas de las compañías más destacadas a nivel internacional en su transformación digital, convirtiendo los datos en soluciones de alto impacto gracias a nuestras alianzas estratégicas con Microsoft, Google y AWS, y a los mejores aceleradores tecnológicos del mercado.

Nuestro equipo de Data Technologies es el epicentro donde aterrizan proyectos desafiantes y las soluciones más disruptivas. Trabajamos de forma transversal con clientes de múltiples sectores, siempre a la vanguardia tecnológica, combinando innovación, expertise y autonomía real.

Diseñamos arquitecturas que marcan estándares y creamos aceleradores que transforman. No solo se ejecutan proyectos, sino que se desarrollan aceleradores, artefactos y pruebas de concepto. Aquí defines, experimentas y tienes ownership para diseñar soluciones desde cero.

➡️ ¿Cómo será tu día a día?

🔹 Diseñarás y desarrollarás soluciones end-to-end para procesar grandes volúmenes de datos, desde el problema de negocio hasta pipelines ETL/ELT escalables y optimizados.

🔹 Trabajarás con tecnologías como Apache Spark, Python, Scala, Apache Beam y orquestación con Airflow o Databricks Workflows, generando insights.

🔹 Procesarás y almacenarás datos utilizando formatos como Parquet, Delta Lake y Apache Iceberg, garantizando eficiencia y escalabilidad en entornos cloud (AWS, Azure, GCP).

🔹 Definirás arquitecturas avanzadas como Data Lakehouse, Data Mesh y data warehouses mejorando la gestión y el aprovechamiento de los datos.

🔹 Colaborarás con equipos multidisciplinares y stakeholders, transformando requerimientos complejos en soluciones técnicas eficientes.

🔹 Explorarás y evaluarás tecnologías emergentes, como Databricks, Delta Live Tables, dbt Cloud, Apache Iceberg, Snowflake… contribuyendo a mantener nuestros proyectos a la vanguardia del ecosistema Big Data.

🔹 Impulsarás la calidad y observabilidad de los datos aplicando DataOps, Data Quality y CI/CD, asegurando pipelines confiables y seguros.


➡️ ¿Qué te hará triunfar en esta posición?

🔹 Formación en Ingeniería Informática, Telecomunicaciones, matemáticas, Física, o similares.

🔹 Experiencia en Big Data: al menos 5 años trabajando con procesamiento distribuido y pipelines ETL/ELT en entornos complejos, utilizando lenguajes como Python o Scala y frameworks como Spark, Airflow o Databricks; conocimiento de arquitecturas de datos (Data Lakehouse, cloud) y formatos/almacenamiento como Parquet, Delta Lake, Iceberg o Snowflake.

🔹 Buenas prácticas y gestión de código: Git, CI/CD, DataOps, monitorización de pipelines, control de calidad de datos y versionado de datos.

🔹 Mentalidad de innovación: Curiosidad por tecnologías emergentes y tendencias Big Data, con disposición a experimentar y proponer mejoras continuas.

🔹 Que puedas comunicarte en inglés para trabajar en entornos globales y colaborar con equipos internacionales.

Valoramos también:


🔹 Experiencia en proyectos de streaming en tiempo real, utilizando tecnologías como Kafka, Kinesis, Flink o Spark Structured Streaming.

🔹 Conocimientos avanzados en orquestación, DevOps para datos, gobernanza, calidad y seguridad, así como experiencia con Data Mesh y arquitecturas distribuidas.

🔹 Experiencia en ML pipelines y MLOps integrados con Big Data, usando herramientas como MLflow, SageMaker, Vertex AI o Kubeflow.

💫 ¿Qué nos hace diferentes? 💫

Aquí no somos una empresa más... ¡somos un equipo que va a por todas!

🔹 Tecnología e innovación sin límites. La tecnología y los datos son nuestra esencia. Trabajamos con lo más avanzado del mercado y te formamos para que domines las herramientas que están redefiniendo la industria. Tendrás acceso a las últimas plataformas y tecnologías: si algo es nuevo, lo estamos usando o evaluando.

🔹 Desarrollo profesional a tu medida. Aquí no hay carreras rígidas ni caminos predefinidos: cada cierto tiempo se revisan tus logros y se definen nuevos objetivos. Podrás evolucionar hacia roles de arquitectura, tech lead, referente tecnológico o especialista en dominios complejos, manteniendo siempre un impacto directo en la tecnología y en las decisiones clave de los proyectos.

🔹 Un equipo que te acompaña desde el primer día. Desde el minuto 1 formas parte del equipo de Data Technologies, formado por numerosos referentes donde la colaboración es el pilar fundamental.

🔹 Propósito y valores que nos definen. Creemos firmemente en la diversidad y la inclusión como motores esenciales de la creatividad y la innovación. Es lo que nos permite superar cualquier desafío y construir un entorno donde cada perspectiva enriquece el resultado final. 🌍💜

 

📌Y, por si fuera poco…

🔸Contrato indefinido (¡queremos que te quedes mucho tiempo!)

🔸 Flexibilidad total. Remoto 100%, híbrido u oficina. Tú decides dónde y cómo trabajas mejor.

🔸 Jornada intensiva en julio y agosto, además de los viernes.

🔸Salario según tu formación y experiencia, con revisiones basadas en resultados.

🔸Apoyo económico para el teletrabajo.

🔸Acceso a formaciones, certificaciones oficiales, conferencias y cursos.

 

Si te apasionan los datos, quieres trabajar con tecnología de última generación, y buscas un lugar donde tu crecimiento no tenga límites... ¡Este es tu momento!

Mientras tanto, entérate de más: https://medium.com/sdg-group

Data Engineer Related jobs

Other jobs at SDG Group

We help you get seen. Not ignored.

We help you get seen faster — by the right people.

🚀

Auto-Apply

We apply for you — automatically and instantly.

Save time, skip forms, and stay on top of every opportunity. Because you can't get seen if you're not in the race.

AI Match Feedback

Know your real match before you apply.

Get a detailed AI assessment of your profile against each job posting. Because getting seen starts with passing the filters.

Upgrade to Premium. Apply smarter and get noticed.

Upgrade to Premium

Join thousands of professionals who got noticed and hired faster.