Logo for B2

Engenheiro de Dados Sênior/ Pleno (Data Engineer - Home Office

Roles & Responsibilities

  • Advanced Python for ETL, automation, and API integration
  • Advanced SQL for data manipulation and query optimization
  • Spark / PySpark for building and optimizing data processing jobs
  • Experience with AWS data services (S3, Glue, Lambda, Step Functions) and data lakehouse implementations

Requirements:

  • Develop and maintain scalable data pipelines (batch and streaming) for ingestion, transformation, and availability of data
  • Model data for analytics and AI applications and integrate data from multiple sources (APIs, events, internal systems)
  • Orchestrate pipelines with AWS Step Functions and implement an event-driven, lakehouse-based architecture using Spark/PySpark
  • Ensure data quality, observability, performance, and cost optimization in AWS environments, collaborating with data teams

Job description

Venha fazer parte do nosso TIME!
[ Vaga extensiva a: PCD's, mulheres, pessoas com +40, pessoas indígenas, pessoas LGBTQIAP+ e pessoas negras. ]

Você é apaixonado por DESAFIOS e busca um ambiente de trabalho ACOLHEDOR? Esta é a sua oportunidade de brilhar! Aqui, nossa cultura é incrível e nos sentimos em casa. Valorizamos a liberdade de expor ideias e a INOVAÇÃO em tudo que fazemos.

Estamos em busca de Engenheiro de Dados Sênior/ Pleno (Data Engineer), com foco na construção de pipelines escaláveis e eficientes para suportar iniciativas de analytics e inteligência artificial. Se você busca atuar com dados em larga escala e arquitetura moderna, essa vaga é para você! ?

? Modelo de atuação: 100% Home Office
? Contratação: PJ (com possibilidade de internalização após 3 meses de alocação no cliente)

O que você precisa saber:

Resumo da função
Este profissional será responsável por projetar, construir e manter pipelines de dados robustos e escaláveis, garantindo a ingestão, transformação e disponibilização de dados para consumo analítico e aplicações de IA. Atuará em um ambiente moderno de dados, com arquitetura lakehouse e forte uso de serviços AWS. Espera-se um perfil técnico, organizado e orientado à eficiência, com foco em qualidade, performance e custo. Se deseja atuar em desafios complexos e com alto impacto, essa oportunidade é ideal ?

Hard Skills
• Construção de pipelines de dados (batch e streaming)
• Processamento de dados em arquitetura lakehouse
• Modelagem de dados para consumo analítico
• Integração de dados entre múltiplas fontes (APIs, eventos, sistemas internos)
• Python avançado (ETL, automações e integração com APIs)
• SQL avançado para manipulação e otimização de dados
• Spark / PySpark para criação e otimização de jobs
• Experiência com AWS (S3, Glue, Lambda, Step Functions)
• Conhecimento em EMR (diferencial relevante)
• Experiência com mensageria e eventos (EventBridge, SQS, SNS)
• DynamoDB (modelagem e acesso a dados)
• Orquestração de pipelines com Step Functions
• Arquitetura orientada a eventos (event-driven)
• Experiência com Data Lake / Lakehouse (Parquet, camadas raw/curated/analytics)
• Estratégias de particionamento de dados
• Boas práticas de data quality e observabilidade de pipelines
• Otimização de performance e custo em ambientes de dados
• Versionamento com Git
• Infraestrutura como código com Terraform (nível intermediário)

Atividades da posição
• Desenvolver e manter pipelines de dados escaláveis (batch e streaming)
• Garantir ingestão, transformação e disponibilização eficiente de dados
• Modelar dados para suportar análises e aplicações de IA
• Integrar diferentes fontes de dados (APIs, eventos e sistemas internos)
• Construir e otimizar jobs utilizando Spark / PySpark
• Atuar na orquestração de pipelines com Step Functions
• Trabalhar com arquitetura orientada a eventos
• Organizar e estruturar dados em ambientes Data Lake / Lakehouse
• Implementar estratégias de particionamento e otimização de dados
• Garantir qualidade, confiabilidade e observabilidade dos pipelines
• Otimizar custos e performance em ambientes AWS
• Colaborar com times de dados (analistas e cientistas) para entrega de soluções
• Apoiar decisões técnicas relacionadas à arquitetura e engenharia de dados

Data Engineer Related jobs

Other jobs at B2

We help you get seen. Not ignored.

We help you get seen faster — by the right people.

🚀

Auto-Apply

We apply for you — automatically and instantly.

Save time, skip forms, and stay on top of every opportunity. Because you can't get seen if you're not in the race.

AI Match Feedback

Know your real match before you apply.

Get a detailed AI assessment of your profile against each job posting. Because getting seen starts with passing the filters.

Upgrade to Premium. Apply smarter and get noticed.

Upgrade to Premium

Join thousands of professionals who got noticed and hired faster.