Practical experience in data manipulation programming languages, especially Python with libraries like Pandas and NumPy., Knowledge of AWS data solutions such as S3, Redshift, and Glue., Experience in creating and maintaining data pipelines using ETL/ELT tools and workflow orchestration tools like Apache Airflow., Strong skills in data modeling and familiarity with Git for version control and CI/CD best practices..
Key responsabilities:
Develop and analyze data systems, creating features with support from the technical team.
Provide knowledge transfer and support to junior team members.
Collaborate with multidisciplinary teams including analysts and data scientists.
Document processes to ensure data consistency and quality.
Report This Job
Help us maintain the quality of our job listings. If you find any issues with this job post, please let us know.
Select the reason you're reporting this job:
Há quase duas décadas, a Runtalent se consolidou como uma referência no mercado de tecnologia, proporcionando soluções inovadoras em TI para empresas B2B que buscam se manter competitivas na corrida pela transformação digital de seus negócios.
Oferecemos uma variedade de serviços, como alocação de profissionais, squads ágeis e gestão de times e serviços. Além disso, dispomos de um banco de talentos com mais de 30 mil profissionais especializados em múltiplas áreas, aptos a atuar em projetos de TI por tempo determinado ou indeterminado, agregando soluções para diversos cenários de negócios.
Para os nossos colaboradores, conhecidos como Runners, oferecemos suporte e investimento em qualificações técnicas e programas de realocação, para que possam desempenhar suas atividades da melhor forma possível.
Venha fazer parte da Runtalent e transforme seu negócio com a ajuda de nossos serviços especializados em tecnologia.
Requisitos: * Experiência prática em linguagens de programação voltadas para manipulação de dados, como Python (com forte domínio de bibliotecas como Pandas, NumPy, etc). * Conhecimento em soluções AWS voltadas para dados (S3, Redshift, Glue, etc.). * Capacidade de criar e manter pipelines de dados utilizando ferramentas de ETL/ELT. * Experiência com ferramentas de orquestração de workflows, como Apache Airflow ou similares. * Conhecimento prático em ambientes de deployment e containerização com Kubernetes. * Forte habilidade em modelagem de dados (relacional e dimensional). * Integração com ferramentas de visualização de dados, especialmente Power BI. * Familiaridade com Git para versionamento de código e boas práticas de CI/CD. * Conhecimento em governança de dados, incluindo validação, qualidade e monitoramento. * Conhecimento em dbt para transformação e gerenciamento dos modelos de dados.
Desejáveis: *Capacidade de trabalhar em um ambiente colaborativo e dinâmico, contribuindo para a manutenção e evolução de soluções já existentes. * Habilidade para identificar problemas, propor melhorias e implementar novas features de forma eficiente. * Boa comunicação para interagir com times multidisciplinares (analistas, cientistas de dados e stakeholders). * Organização e atenção aos detalhes para documentar processos e garantir a consistência dos dados. * Proatividade para buscar soluções técnicas e aprender novas tecnologias conforme necessário.
Responsabilidades principais: Desenvolvimento e análise de dados de sistemas. Recurso deverá desenvolver features com apoio do time técnico, deverá ter senioridade para repassar conhecimento e apoiar ao time com nível técnico inferior.
Modalidade: Remota
Required profile
Experience
Spoken language(s):
PortugueseEnglish
Check out the description to know which languages are mandatory.