Match score not available

Spark Data Engineer

unlimited holidays - extra holidays - extra parental leave - long remote period allowed
Remote: 
Full Remote
Contract: 
Experience: 
Mid-level (2-5 years)
Work from: 

Offer summary

Qualifications:

Bachelor's degree in Computer Engineering, Minimum 4 years of Big Data Engineer experience, Expertise in data architecture and tools like Apache Spark.

Key responsabilities:

  • Provide technical insights for data processes
  • Participate in data architecture design
  • Develop with technologies like Spark, SQL
  • Optimize search engine response times
  • Conduct POC with new technologies
SDG Group logo
SDG Group Large https://www.sdggroup.com/
1001 - 5000 Employees
See more SDG Group offers

Job description

¡Hola Data Lover! 💙

En SDG, no solo tendrás la oportunidad de formar parte de algo increíble, ¡sino que vivirás lo que significa ser un auténtico especialista en Data & Analytics!

¿Estás preparadx para embarcarte en esta emocionante aventura? con nosotrxs, podrás potenciar todas tus habilidades y capacidades analíticas, tecnológicas y de negocio.

¡Es hora de despegar hacia el futuro mediante el poder de los datos! Únete a nosotros y prepárate para romper las reglas y alcanzar tu mejor versión 🚀✨.

Descubre el poder de SDG: líderes globales en la industria del dato 💥📊

En SDG trabajamos para la mitad de las empresas del IBEX-35, pero también en multitud de compañías internacionales. Gracias al boom de la analítica, estamos en un ritmo constante de crecimiento, y desde 1994 nos hemos convertido en el socio de confianza para empresas que desean maximizar todo el potencial de sus datos.

Si buscas formar parte de una compañía 100% especializada en #Data & #Analytics, ¡te estamos esperando!

Requisitos mínimos:

  • Estar graduado en Ingeniería Informática o de Telecomunicaciones.
  • Tener al menos 4 años de experiencia en un rol de Big Data Engineer, implementando y productivizando soluciones de captación, ingesta y transformación de datos con herramientas de procesamiento distribuido y/o procesamiento en streaming.
  • Experiencia en arquitectura de datos (formato, estructura, particionado, modelado, capas y ciclo de vida) en ambientes Data Lake, Data Lakehouse, Kafka Topics & Partitioning, Schema Registry, etc.
  • Además será importante que tengas experiencia en algunas de las siguientes herramientas:
  • Lenguajes: Python, Java o Scala.
  • Herramientas core del entorno de procesamiento en entornos Big Data, especialmente Apache Spark. Además es importante que tengas conocimientos sólidos de HDFS.
  • Conocimiento de al menos una plataforma de datos con profundidad: Databricks, AWS EMR, AWS Glue, Elastic Search, GCP Dataflow & Dataproc, etc.
  • Conocimiento en herramientas de orquestación como Apache Airflow, Azure Data Factory, Databricks workflows,...
  • Conocimiento y experiencia en el uso de sistemas de control de versiones (VCS), esencialmente Git.
  • Experiencia en la utilización de al menos una de las tres grandes nubes (AWS, Microsoft Azure o Google Cloud Platform), especialmente en lo relativo a los servicios orientados a procesamiento y disposición de datos.

 

Requisitos valorables:

    • Nos gusta estar al día en nuevas tecnologías, así que necesitamos personas que quieran estar en continua evolución y que tengan ganas de aprender nuevas tecnologías y probar nuevas herramientas.
    • Para nosotrxs el trabajo en equipo es primordial, por lo que buscamos personas que impulsen ese buen ambiente y las sinergias entre compañerxs y diferentes equipos de trabajo.
    • Qué conozcas lenguajes que están tomando relevancia ahora en el mundo data como Rust o Elixir es algo que valoraremos muy positivamente también.
    • Cómo trabajamos en un entorno global, será un plus que puedas comunicarte en inglés.
    • Conocimiento sobre DataOps, Observabilidad, patrones de diseño low-code/no-code,...

     

    Acerca del puesto:

    SDG Group es una firma de consultoría global focalizada exclusivamente en soluciones de data & analytics, cubriendo con ello toda la cadena de valor del dato, y proporcionando planes de carrera tanto de consultoría como de especialización para todos aquellos que quieran progresar en el mundo del dato. Además, a través de nuestra cultura Smart Work tendrás la posibilidad de definir el modelo de trabajo que más se adapte a ti y a tus necesidades personales, al mismo tiempo que puedas colaborar en iniciativas de gran impacto para clientes punteros en sus respectivas industrias.

    Como data engineer del área de Data Technologies, tu misión será formar parte de equipos multidisciplinares con el objetivo de ayudar a nuestros clientes a abordar iniciativas de datos en entornos de alta complejidad técnica. Tendrás la posibilidad de utilizar un amplio espectro de tecnologías innovadoras para la construcción de soluciones de gestión de datos bajo diversos paradigmas de procesamiento y modelado, aplicando para ello los principios adecuados en términos de desarrollo y arquitectura.

    Asimismo, gracias a nuestro path de especialista tendrás la oportunidad de crecer como ingeniero y/o arquitecto Big Data, contando con herramientas y recursos para tu continuo aprendizaje y crecimiento profesional, al mismo tiempo que te involucras en diversos retos que permitan tanto a SDG Group como a nuestros clientes explotar al máximo el valor de sus datos.

    Responsabilidades:

    • Darás tu opinión técnica sobre los procesos y arquitecturas que se desarrollen para nutrir las conversaciones técnicas que se llevan a cabo durante las fases de diseño de la misma, priorizando estrategias dirigidas por metadatos y fundamentadas en DataOps.
    • Participarás en la toma de requerimientos necesarios para arquitecturas y pipelines de datos.
    • También llevarás a cabo tareas de desarrollo con diferentes tecnologías, aunque principalmente usamos Spark (tanto para procesos en batch como streaming). Adicionalmente, y aunque nuestros desarrollos habitualmente no se basen en SQL, es importante que tengas la soltura suficiente para hacer exploración de datos.
    • Somos bastante agnósticos a la tecnología y a la infraestructura en nuestros proyectos, así que es posible que tengas experiencia proyectos en AWS, Azure, GCP u on-premises, por lo que será importante que no te importe estar cambiando de entorno con frecuencia.
    • A veces también nos toca crear u optimizar tiempos de respuesta en motores de búsqueda, así que cualquier experiencia en Solr o Elastic nos gustará.
    • Además, en algunos momentos también necesitaremos hacer pruebas de concepto y pruebas con tecnologías nuevas en el mercado y servicios cloud nuevos o que creamos que puedan ser útiles para nuestros proyectos o clientes, por lo que también podrás colaborar en tareas de innovación.

    Required profile

    Experience

    Level of experience: Mid-level (2-5 years)
    Spoken language(s):
    Spanish
    Check out the description to know which languages are mandatory.

    Other Skills

    • Verbal Communication Skills
    • Lifelong Learning
    • Collaboration

    Data Engineer Related jobs