[Job 22692] Senior/Master Data Developer, Brazil

unlimited holidays - extra holidays - extra parental leave - long remote period allowed
Work set-up: 
Full Remote
Contract: 
Experience: 
Senior (5-10 years)
Work from: 

Offer summary

Qualifications:

Professional experience as a Data Engineer or similar role with a focus on data pipeline development and cloud-based data solutions., Advanced proficiency in Python for data processing, scripting, and automation., Deep knowledge of AWS services for building and managing data infrastructure., Strong experience in agile environments using Scrum or Kanban methodologies..

Key responsibilities:

  • Design and develop scalable ETL/ELT data pipelines to process large volumes of structured and unstructured data.
  • Build event-driven architectures for real-time data processing and seamless system integration.
  • Leverage AWS cloud services to design and deploy robust data infrastructure.
  • Collaborate closely with cross-functional teams to deliver iterative solutions following agile methodologies.

Ci&T logo
Ci&T http://www.ciandt.com
5001 - 10000 Employees
See all jobs

Job description

Somos especialistas em transformação tecnológica, unindo expertise humana à IA para criar soluções tech escaláveis. Com mais de 6.500 CI&Ters ao redor do mundo, já formamos parcerias com mais de 1.000 clientes durante nossos 30 anos de história. Inteligência Artificial é nossa realidade.

Importante: posições localizadas na Região Metropolitana de Campinas, sua presença nos escritórios da cidade será obrigatória, conforme a política de frequência vigente.

Estamos em busca de um Senior Data Developer altamente qualificado para se juntar à nossa equipe dinâmica de dados. Este papel é fundamental na concepção, construção e manutenção de pipelines de dados e infraestrutura escaláveis para suportar nossos processos de tomada de decisão baseados em dados.

Responsabilidades:
- Projetar e Desenvolver Pipelines de Dados: Arquitetar, implementar e manter pipelines ETL/ELT escaláveis e de alto desempenho para processar grandes volumes de dados estruturados e não estruturados.
- Integração e Processamento de Dados: Construir arquiteturas acionadas por eventos para permitir o processamento de dados em tempo real e a integração perfeita entre sistemas.
- Gerenciamento da Infraestrutura em Nuvem: Aproveitar os serviços em nuvem AWS (por exemplo, S3, Redshift, Glue, Lambda, Kinesis, Pentaho) para projetar e implantar uma infraestrutura de dados robusta.
- Desenvolvimento e Otimização de Código: Escrever código limpo, eficiente e de fácil manutenção em Python para suportar a ingestão, transformação e orquestração de dados.
- Colaboração em Ambientes Ágeis: Trabalhar em estreita colaboração com equipes multifuncionais, incluindo cientistas de dados, analistas e engenheiros de software, seguindo metodologias ágeis para entregar soluções iterativas.
- Qualidade e Governança de Dados: Implementar melhores práticas para qualidade de dados, monitoramento e conformidade para garantir a integridade, consistência e segurança dos dados.
- Otimização de Desempenho: Otimizar pipelines de dados e consultas em ambientes em nuvem para desempenho, escalabilidade e eficiência de custos.
- Mentoria e Liderança: Fornecer orientação técnica aos membros juniores da equipe, promovendo uma cultura de aprendizado contínuo e melhoria.
- Documentação e Compartilhamento de Conhecimento: Documentar designs técnicos, processos e fluxos de trabalho para garantir a manutenção e transferência de conhecimento.

Requisitos:
- Experiência profissional como Engenheiro de Dados ou em papel semelhante, com forte foco no desenvolvimento de pipelines de dados e soluções de dados baseadas em nuvem.
- Proficiência avançada em Python para processamento de dados, scripting e automação.
- Experiência prática com Databricks para processamento de grandes dados, incluindo Spark, Delta Lake e fluxos de trabalho do Databricks.
- Conhecimento profundo em serviços AWS para construir e gerenciar infraestrutura de dados.
- Expertise em projetar e implementar fluxos de trabalho ETL/ELT utilizando ferramentas como Apache Airflow, AWS Glue ou semelhantes.
- Experiência na construção de pipelines de dados em tempo real usando frameworks acionados por eventos.
- Forte experiência em ambientes ágeis, utilizando metodologias Scrum ou Kanban.
- Proficiência em bancos de dados relacionais e não-relacionais, com expertise em otimização SQL.
- Sólida compreensão de técnicas de modelagem de dados para análises e relatórios.
- Familiaridade com pipelines CI/CD, controle de versão e infraestrutura como código.
- Habilidades analíticas excepcionais focadas na entrega de soluções escaláveis e eficientes.
- Excelentes habilidades de comunicação verbal e escrita, com a capacidade de colaborar efetivamente com partes interessadas técnicas e não técnicas.

Qualificações Preferenciais:
- Inglês: Nível intermediário a avançado.
- Experiência com tecnologias de conteinerização (por exemplo, Docker, Kubernetes) para implantar aplicações de dados.
- Conhecimento de frameworks de governança de dados e normas de conformidade (por exemplo, GDPR, CCPA).
- Familiaridade com ferramentas de grandes dados como Apache Spark, Hadoop ou Snowflake.
- Certificações em AWS ou Databricks.

#LI-AR2
Nossos benefícios:

- Plano de saúde e odontológico;
- Vale alimentação e refeição;
- Auxílio-creche;
- Licença paternagem estendida;
- Wellhub (Gympass)
- TotalPass
- PLR;
- Seguro de Vida;
- CI&T University;
- Clube de descontos;
- Plataforma online gratuita dedicada à promoção da saúde física, mental e bem-estar. 
- Curso gestante e paternagem responsável;
- Parceria com plataformas de cursos online;
- Plataforma para aprendizagem de idiomas;
- E muitos outros.

Mais detalhes sobre os nossos benefícios aqui: https://ciandt.com/br/pt-br/carreiras


A colaboração é nosso superpoder, diversidade nos une, e a excelência é nosso padrão.
Valorizamos a diversidade de identidades e experiências de vida, fomentando um ambiente de trabalho diverso, inclusivo e seguro. Incentivamos a candidatura de pessoas de comunidades diversas e sub-representadas às nossas vagas.

Required profile

Experience

Level of experience: Senior (5-10 years)
Spoken language(s):
PortugueseEnglish
Check out the description to know which languages are mandatory.

Other Skills

  • Communication
  • Analytical Skills

Data Engineer Related jobs