Cloud Data Architect (GCP)

fully flexible
Work set-up: 
Full Remote
Contract: 
Experience: 
Senior (5-10 years)
Work from: 

Offer summary

Qualifications:

Minimum 5 years of experience with data in Google Cloud Platform, proven through commercial production deployments., Strong knowledge of Data & Analytics services in GCP, including BigQuery, Dataflow, Pub/Sub, and Looker., Proficiency in CI/CD, Infrastructure as Code (Terraform), and Git tools and processes., Experience in designing scalable, resilient data architectures, including data models and various data processing patterns..

Key responsibilities:

  • Consulting clients on GCP solutions and advising on cost-effective technology choices.
  • Participating in discovery and pitch meetings, presenting solutions and technical proposals.
  • Creating architectural diagrams, TCO/ROI calculations, and supporting sales activities.
  • Developing proof-of-concept projects and maintaining relationships with technical teams.

Future Processing logo
Future Processing Computer Software / SaaS Large https://future-processing.com/
501 - 1000 Employees
See all jobs

Job description


Szukamy Ciebie, jeśli:
  • posiadasz min. 5 lat doświadczenia w pracy z danymi w Google Cloud Platform (potwierdzone komercyjnymi wdrożeniami produkcyjnymi) oraz doświadczenie w roli Lead Developera / Architekta lub pokrewnej,
  • masz szeroką wiedzę o usługach Data & Analytics w GCP (BigQuery, BigLake, Dataflow, Dataproc, Pub/Sub, Cloud Composer, Dataplex, Senstive Data Protection, Looker, Vertex AI),
  • biegle korzystasz z narzędzi i procesów CI/CD, IaC (Terraform i/lub Cloud Deploy/Cloud Build), Git,
  • potrafisz projektować i modyfikować modele danych oraz dobierać odpowiednią architekturę (DWH, Data Marts, Data Lake, Delta Lake, Lakehouse, BigLake),
  • architektury Lambda i Kappa nie kryją przed Tobą tajemnic; wiesz, jak implementować je w GCP
  • masz doświadczenie w budowie rozwiązań “near-real-time” (Pub/Sub, Dataflow)
  • korzystasz z SQL i Pythona na poziomie zaawansowanym,
  • potrafisz projektować skalowalne i odporne na błędy pipeline’y z wykorzystaniem Dataflow (Apache Beam) i Dataproc, dobierając odpowiednie wzorce dla przetwarzania batch & streaming,
  • masz doświadczenie w optymalizacji wydajności i kosztów pipeline’ów Dataflow oraz klastrów Dataproc (autoscaling, sizing workerów) oraz w implementacji dobrych praktyk monitoringu (Cloud Monitoring, Logging),
  • monitoring, diagnostyka i rozwiązywanie problemów w chmurze (Cloud Monitoring, Logging, Error Reporting, Cloud Trace) to dla Ciebie codzienność, a planowanie i optymalizacja kosztów (FinOps, GCP Pricing Calculator, BigQuery Reservations) nie stanowią wyzwania,
  • posiadasz wiedzę na temat migracji rozwiązań on-premise do GCP i znasz różne typy migracji (lift-and-shift, re-platform, re-architect),
  • wiesz, jak stosować mechanizmy bezpiecznego przechowywania i przetwarzania danych w GCP (VPC Service Controls, CMEK, DLP, Cloud KMS),
  • brałeś(aś) udział w spotkaniach przedsprzedażowych i umiesz przekładać wymagania biznesowe na rozwiązania techniczne,
  • cechuje Cię myślenie strategiczne i analityczne, dobra samoorganizacja, samodzielność, adaptacyjność, komunikatywność oraz proaktywność,
  • masz doświadczenie w mentorowaniu i szkoleniu inżynierów o mniejszym stażu oraz wspieraniu ich rozwoju,
  • prowadzenie prezentacji / prelekcji podczas wydarzeń branżowych nie spędza Ci snu z powiek,
  • jesteś otwarty(a) na wyjazdy służbowe,
  • posługujesz się językiem angielskim na poziomie zaawansowanym (min. C1).

  • Praca na tym stanowisku w naszej firmie oznacza:
  • konsultowanie rozwiązań z klientami – obecnymi i potencjalnymi – oraz doradztwo w doborze technologii GCP, z dążeniem do optymalnego kosztowo rozwiązania problemu biznesowego,
  • udział w spotkaniach discovery / pitch – prezentacja naszego doświadczenia, procesu, podejścia do GCP, doprecyzowanie wymagań,
  • tworzenie wkładu merytorycznego do ofert: schematy architektury, obliczenia TCO / ROI / kosztów GCP za pomocą Pricing Calculatora,
  • estymowanie projektów i zapotrzebowania na zasoby zespołu Data Solutions,
  • budowanie argumentacji przekonującej klienta do proponowanego rozwiązania, wskazywanie przewag nad alternatywami,
  • udział w spotkaniach ofertowych – odpowiadanie na pytania, prezentacja architektury i kosztorysu,
  • R&D w obszarze Data & Analytics GCP – analiza nowych usług i narzędzi pod kątem wartości biznesowej,
  • tworzenie Proof-of-Concept dla nowych koncepcji danych,
  • utrzymywanie relacji z technicznym zespołem klienta i koordynację pracy inżynierów zaangażowanych w projekt,
  • aktywne zaangażowanie w rozwój linii biznesowej Data Solutions (rekrutacja, pozyskiwanie klientów, prelekcje konferencyjne, mentoring).
  • odpowiedzialność end-to-end za rozwiązania data-platformowe tworzone wspólnie z zespołem,
  • tworzenie i optymalizację potoków ETL/ELT w GCP (BigQuery, Dataflow, Dataproc, Cloud Composer),
  • tworzenie i modyfikowanie dokumentacji,
  • budowanie i utrzymywanie katalogu oraz modeli danych zgodnie z najlepszymi praktykami Data Governance,
  • analizę wymagań biznesowych i dobór optymalnych rozwiązań technologicznych,
  • analizowanie potencjalnych zagrożeń,
  • monitoring, diagnostykę i FinOps-owe optymalizacje kosztów chmury.

  • Wynagrodzenie_architekt
  • 165 – 245 zł/h netto + VAT (B2B)


  • Typ oferty
  • Data Solutions

  • Technologie
  • GCP
  • BigQuery
  • SQL
  • Dataflow
  • Dataproc

  • Język
  • angielski C1
  • Required profile

    Experience

    Level of experience: Senior (5-10 years)
    Industry :
    Computer Software / SaaS
    Spoken language(s):
    English
    Check out the description to know which languages are mandatory.

    Other Skills

    • Adaptability
    • Communication
    • Public Speaking
    • Proactivity
    • Analytical Thinking
    • Strategic Thinking
    • Mentorship

    Cloud Architect Related jobs