[Job 23531] MidLevel Data Developer Vaga para pessoas com deficiência

Work set-up: 
Full Remote
Contract: 
Experience: 
Mid-level (2-5 years)
Work from: 

Offer summary

Qualifications:

Experiência prévia com Engenharia de Dados., Bom conhecimento de Python para processamento de dados., Experiência com Databricks e serviços AWS., Conhecimento de bancos de dados relacionais e não-relacionais..

Key responsibilities:

  • Implementar dashboards e relatórios usando Power BI.
  • Desenvolver e manter pipelines ETL/ELT.
  • Contribuir para arquiteturas de processamento em tempo real.
  • Utilizar serviços AWS e escrever código Python para manipulação de dados.

Ci&T logo
Ci&T
5001 - 10000 Employees
See all jobs

Job description

Somos especialistas em transformação tecnológica, unindo expertise humana à IA para criar soluções tech escaláveis. Com mais de 7.400 CI&Ters ao redor do mundo, já formamos parcerias com mais de 1.000 clientes durante nossos 30 anos de história. Inteligência Artificial é nossa realidade.

Importante: posições localizadas na Região Metropolitana de Campinas, sua presença nos escritórios da cidade será obrigatória, conforme a política de frequência vigente.
Estamos em busca de uma pessoa MidLevel Data Developer para se juntar à nossa equipe de desenvolvimento e impulsionar nossa busca pela excelência técnica e inovação contínua.
Se deseja atuar na criação de soluções inovadoras e participar de um time multidisciplinar, esta pode ser a oportunidade perfeita para você.

Missão:
Participar ativamente de iniciativas de transformação digital através da implementação e manutenção de componentes da nova arquitetura de dados (Data Lakehouse) usando tecnologias AWS e Databricks. A pessoa trabalhará com autonomia em tarefas específicas, contando com orientação em decisões arquitetônicas mais complexas.

Responsabilidades:
Implementação de dashboards e relatórios usando Power BI
Desenvolvimento e manutenção de pipelines ETLELT seguindo padrões estabelecidos
Contribuição para arquiteturas de processamento em tempo real
Utilização de serviços AWS (S3, Redshift, Glue, Lambda, Kinesis) para operações de dados
Escrita de código Python para ingestão e transformação de dados
Participação em equipes multifuncionais em ambiente ágil
Aplicação de práticas definidas para garantia de qualidade dos dados
Otimização de queries e pipelines para melhor desempenho
Documentação de processos e soluções implementadas

Requisitos:
Experiência prévia com Engenharia de Dados
Bom conhecimento de Python para processamento de dados
Experiência com Databricks (Spark, Delta Lake)
Familiaridade com serviços AWS, Azure ou GCP para manipulação de dados
Experiência com ferramentas ETLELT como Airflow ou AWS Glue
Conhecimento de metodologias ágeis (ScrumKanban)
Experiência com bancos de dados relacionais e nãorelacionais
Bons conhecimentos de SQL e otimização básica de consultas
Capacidade de trabalhar com orientação e alguma autonomia
Conhecer e já ter atuado na construção e manutenção de catálogo de dados.

Diferenciais:
Certificações básicas em AWS ou Databricks
Experiência inicial com arquiteturas Data Lakehouse
Conhecimento de arquiteturas de dados AWS
Interesse em automação e melhoria de processos
Experiência com ferramentas de visualização de dados (Power BI)
Experiência com construção e manutenção de catálogo de dados

Nossos benefícios:

Plano de saúde e odontológico;
Vale alimentação e refeição;
Auxíliocreche;
Licença parental estendida;
Parceria com academias e profissionais de saúde e bemestar via Wellhub (Gympass) TotalPass;
Participação nos Lucros e Resultados (PLR);
Seguro de Vida;
Plataforma de aprendizagem contínua (CI&T University);
Clube de descontos;
Plataforma online gratuita dedicada à promoção da saúde física, mental e bemestar;

Required profile

Experience

Level of experience: Mid-level (2-5 years)
Spoken language(s):
Portuguese
Check out the description to know which languages are mandatory.

Other Skills

  • Collaboration
  • Problem Solving

Data Analyst Related jobs