At least 5 years of IT experience, including 3.5+ years delivering data projects in AWS with production deployments
Commercial experience with Google Cloud Platform (GCP), BigQuery and Dataproc
Hands-on experience with Databricks, PySpark and Terraform
Advanced SQL proficiency and strong Python (Pandas/NumPy) skills; solid Git, CI/CD practices; Agile software development familiarity
Requirements:
Own and co-create end-to-end cloud data solutions together with the team
Design, build and modify data processing solutions (ETL/ELT) in the cloud, including evaluation of alternatives (e.g., Apache Airflow)
Analyze client requirements, assess risks and constraints, and adapt solutions to meet business needs; maintain documentation
Test and validate solutions, ensuring quality and alignment with security and compliance considerations
Job description
Klientem jest międzynarodowa organizacja z sektora medialno‑broadcastingowego, realizująca projekty związane z przetwarzaniem, integracją i jakością danych na dużą skalę. Firma działa w środowisku chmurowym, wykorzystując nowoczesne technologie data engineeringowe do budowy i utrzymania platform analitycznych wspierających kluczowe procesy biznesowe.
Szukamy Ciebie, jeśli:
masz min. 5 lat doświadczenia w IT, w tym min. 3,5 roku w pracy z danymi w chmurze AWS (potwierdzone projektami komercyjnymi wdrożonymi na produkcje),
masz doświadczenie komercyjne w pracy z GCP oraz BigQuery i Dataproc,
masz doświadczenie w pracy z Databricks,
posiadasz komercyjne doświadczenie z PySpark,
masz doświadczenie w pracy z Terraform,
korzystasz z SQL na poziomie zaawansowanym i wykorzystujesz go na rozwiązaniach technologicznych MS i nie tylko,
znasz metodyki i stosujesz biegle Git oraz CI/CD,
tworzysz i optymalizujesz rozwiązania przetwarzające dane (ETL, ELT, itp.) poprzedzone projektem technicznym oraz alternatywami rozwiązań (np. Apache Airflow)
potrafisz programować w Python i korzystasz z bibliotek Pandas i/lub NumPy,
masz doświadczenie z praktykami zwinnymi oraz znasz narzędzia wykorzystywane w procesie wytwarzania oprogramowania, w tym np. Azure DevOps,
masz wiedzę na temat stosowania mechanizmów związanych z bezpiecznym przechowywaniem i przetwarzaniem danych w chmurze,
świadomie wykorzystujesz Generative AI w procesie wytwarzania oprogramowania oraz w decyzjach architektonicznych i technologicznych,
posługujesz się j. angielskim na poziomie średniozaawansowanym (min. B2) oraz swobodnie komunikujesz się w języku polskim.
Praca na tym stanowisku w naszej firmie oznacza:
odpowiedzialność za całość rozwiązań współtworzonych wraz z zespołem,
tworzenie lub modyfikowanie rozwiązań do przetwarzania danych w chmurze,
tworzenie i modyfikowanie dokumentacji,
analizowanie i optymalizowanie rozwiązań w zakresie działającego lub projektowanego systemu,
analizowanie wymagań klienta pod kątem dostarczenia optymalnego rozwiązania jego potrzeby biznesowej,
analizowanie potencjalnych zagrożeń,
dostosowywanie rozwiązań względem wymagań biznesowych,
testowanie rozwiązań.
Doświadczenie
5 lat
Wynagrodzenie_senior
133 – 196 zł/h netto + VAT (B2B)
Typ oferty
Data Solutions
Technologie
AWS
GCP
Python
SQL
Databricks
Co oferujemy, by pracowało Ci się dobrze:
dużą swobodę działania i realny wpływ na kierunek projektów,
projekty dla klientów z Europy i USA – branża turystyczna, ubezpieczeniowa, energetyczna, farmaceutyczna i finansowa,
certyfikacje i szkolenia chmurowe: AWS, Microsoft, Databricks Academy – opłacamy szkolenia i egzaminy,
narzędzia AI dla każdego w zespole od pierwszego dnia,
społeczność ekspertów: grupy tematyczne, dostęp do zespołu architektów systemowych, analityków biznesowych i zespołu UX,
możliwość pracy 100% remote,
damy Ci merytoryczny feedback po zakończonym procesie rekrutacyjnym – niezależnie od wyniku.