Data + ML Engineeer at Crodu

Remote: 
Full Remote
Contract: 
Work from: 

Offer summary

Qualifications:

7 years of experience as a Data Engineer, Strong knowledge of Databricks and Apache Spark, especially PySpark, Experience in migrating ML solutions from AWS SageMaker to Databricks, Proficient in Python and familiar with cloud platforms like AWS or Azure..

Key responsibilities:

  • Migrate ML components from AWS SageMaker to Databricks
  • Deploy models to production environments and monitor metrics
  • Collaborate with the data/platform team to integrate models with existing data architecture
  • Automate and optimize ETL processes.

CRODU logo
CRODU Information Technology & Services Scaleup https://crodu.com/
51 - 200 Employees
See all jobs

Job description

🌴 Forma pracy: długoterminowo, fulltime, 100% zdalnie 👈
⏰ Start: 21/07/2025 👈

Cześć! 👋
W imieniu naszego klienta z USA poszukujemy doświadczonych Data Engineerów ze znajomością Machine Learningu. Firma wspiera organizacje w transformacji chmurowej, realizując projekty w różnych branżach i obszarach – od migracji danych, przez ich integrację, aż po optymalizację istniejących rozwiązań. Obecnie tworzymy zespół, który będzie przeprowadzał migrację z modelu ML AWS SageMaker do Databricks oraz budował i optymalizował modele chmurowe.

Projekt prowadzony dla firmy z USA, ale wymagana jest praca jedynie z niewielką zakładką godzinową (np. od 10:00 do 18:00), więc chętnie dogadamy się jeśli chodzi o godziny pracy. Zależy im na długofalowej współpracy, dlatego osoby zaangażowane w jeden projekt płynnie przechodzą do kolejnych inicjatyw w ramach tego samego środowiska. Projekty różnią się długością, ale zapotrzebowanie na kompetencje specjalistów pozostaje stałe.

Codzienne zadania:

📍
Migracja komponentów ML z AWS SageMaker (training jobs, endpointy) do Databricks

📍Wdrażanie modeli do środowiska produkcyjnego, monitoring metryk i retraining

📍Współpraca z zespołem data/platform nad integracją modeli z istniejącą architekturą danych

📍Przygotowanie planu implementacji do uruchomienia na żywo

📍Automatyzacja i optymalizacja procesów ETL

Wymagania:

⚡️ 7 lat doświadczenia w roli Data Engineera

⚡️ Bardzo dobra znajomość platformy Databricks oraz frameworku Apache Spark (w szczególności PySpark)

⚡️ Doświadczenie w migracjach rozwiązań ML (np. z SageMaker do Databricks) i przenoszeniu pipeline’ów do środowiska chmurowego

⚡️ Praktyczne doświadczenie z usługami AWS, szczególnie S3, EC2, SageMaker

⚡️ Udział w projektach opartych na uczeniu maszynowym lub AI, także w środowiskach produkcyjnych

⚡️ Bardzo dobra znajomość Pythona

⚡️ Doświadczenie z platformami chmurowymi takimi jak AWS lub Azure

⚡️ Angielski na poziomie umożliwiającym swobodną komunikację w zespole

Mile widziane:

⚡️ Znajomość usług chmurowych Microsoft Azure (np. Data Factory, Synapse, Logic Apps)

⚡️ Doświadczenie z MLflow, Feature Store, Delta Lake, CI/CD modeli, monitorowaniem driftu

⚡️ Praktyka w pracy z bazami big data lub NoSQL (np. Redshift, EMR, Hadoop, Google BigQuery)

⚡️ Ogólne zrozumienie narzędzi do zarządzania pipeline’ami danych (DBT, Airflow, SSIS, etc.) – jako uzupełnienie do współpracy z zespołem Data Engineeringowym

Jak działamy i co oferujemy?

🎯 Stawiamy na otwartą komunikację zarówno w procesie rekrutacji jak i po zatrudnieniu - zależy nam na klarowności informacji dotyczących procesu i zatrudnienia

🎯 Do rekrutacji podchodzimy po ludzku, dlatego upraszczamy nasze procesy rekrutacyjne, żeby były możliwie jak najprostsze i przyjazne kandydatowi

🎯 Pracujemy w imię zasady "remote first", więc praca zdalna to u nas norma, a wyjazdy służbowe ograniczamy do minimum

🎯 Oferujemy prywatną opiekę medyczną (Medicover) oraz kartę Multisport dla kontraktorów

Jak aplikować 👇

Prześlij nam swoje zgłoszenie przez formularz!

Required profile

Experience

Industry :
Information Technology & Services
Spoken language(s):
English
Check out the description to know which languages are mandatory.

Other Skills

  • Collaboration
  • Communication

Related jobs