Desarrollador Spark y Python

Remote: 
Full Remote
Contract: 
Work from: 

Offer summary

Qualifications:

Solid experience in Python development., Practical knowledge of Apache Spark., Familiarity with Apache Airflow for creating and maintaining DAGs., Advanced SQL skills, particularly with Oracle databases..

Key responsibilities:

  • Develop and deploy distributed data processing solutions within an established architecture.
  • Create data pipelines using Spark (PySpark).
  • Implement DAGs in Apache Airflow for orchestration.
  • Participate in continuous process improvement, adhering to best practices and agile methodologies.

Nubika - Cloud Solutions logo
Nubika - Cloud Solutions Scaleup http://www.nubika.com/
51 - 200 Employees
See all jobs

Job description

Descripción de la empresa

Inetum es líder europeo en servicios digitales. El equipo de 28.000 consultores y expertos de Inetum se esfuerza cada día por lograr un impacto digital en las empresas, en las entidades del sector público y en la sociedad. Las soluciones de Inetum quieren contribuir al rendimiento y la innovación de sus clientes, así como al interés general.

Presente en 19 países con una red de centros densa, Inetum colabora con los principales fabricantes de software para afrontar los retos de la transformación digital con proximidad y flexibilidad.

Impulsada por su ambición de crecimiento y expansión, Inetum generó una cifra de negocio de 2.500 millones de euros en 2023.

Descripción del empleo

¿Qué harás?

Formarás parte de un equipo responsable de desarrollar y desplegar soluciones de procesamiento de datos distribuidos, dentro de una arquitectura ya establecida. Trabajarás mano a mano con perfiles de análisis funcional y arquitectura, implementando la lógica de negocio en flujos de datos reales, orientados a eventos.

Tu día a día girará en torno a:

  •  Desarrollo de pipelines de datos distribuidos con Spark (PySpark).

  •  Implementación de DAGs en Apache Airflow para orquestación.

  •  Construcción de procesos ETL desde fuentes como Oracle hacia arquitecturas EDA.

  •  Uso intensivo de Python para programar la lógica de transformación y procesamiento.

  •  Participación activa en la mejora continua de los procesos, trabajando bajo buenas prácticas y metodologías ágiles.

Requisitos:

  •  Experiencia sólida en desarrollo con Python.

  •  Conocimiento y uso práctico de Apache Spark.

  •  Familiaridad con Apache Airflow: creación y mantenimiento de DAGs.

  •  Capacidad para trabajar con bases de datos relacionales y manejar SQL avanzado, especialmente sobre Oracle.

  •  Experiencia en proyectos de datos reales, con foco en ingesta, procesamiento y entrega de información.

  •  Ganas de construir soluciones escalables, modulares y con impacto.

¿Qué te ofrecemos?

  •  Participación en un proyecto estratégico en el sector bancario.

  •  Una arquitectura ya implantada, donde tu rol será hacerla realidad desarrollando los procesos que dan vida a los datos.

  •  Trabajo colaborativo con perfiles de análisis y arquitectura que te ayudarán a centrarte en lo que mejor haces: desarrollar soluciones de datos.

  •  Entorno técnico puntero: Spark, Airflow, Python, arquitecturas EDA, ingesta desde Oracle.

  •  Modalidad híbrida/remota y salario competitivo, acorde a tu experiencia y potencial.

Requisitos
  • Implementación de procesos de asimilación y tratamiento de información sobre arquitecturas complejas y con un alto volumen de datos
  • Realización de pruebas unitarias, de integración y de regresión
  • Otras funciones habituales de implementación de proyectos de software

Información adicional

Posibilidad de teletrabajo con desplazamientos a cliente ubicado en Madrid 2/3 días al mes.

Required profile

Experience

Industry :
Spoken language(s):
SpanishEnglish
Check out the description to know which languages are mandatory.

Other Skills

  • Collaboration

Related jobs