JOB DESCRIPTION
A Leega é uma empresa focada no atendimento eficiente e inovador em seus clientes.
Isso não poderia ser diferente com o nosso principal combustível: as pessoas!
Nossa cultura é inspiradora e nossos valores estão presentes no dia a dia: ética e transparência, excelência de qualidade, trabalho em equipe, responsabilidade econômica, social e ambiental, relações humanas e credibilidade.
Buscamos profissionais inovadores que sejam movidos por desafios e focados em resultados.
Se você busca uma empresa dinâmica e parceira e que investe em seus colaboradores através de capacitação constante, a Leega é o lugar para você!
>> A LEEGA É PARA TODOS, ficaremos muito felizes em ter você em nosso time. Venha fazer parte da nossa história e da construção do nosso futuro.
Cadastre-se agora mesmo em nossas vagas!
RESPONSIBILITIES AND ASSIGNMENTS
O Data Engineering Product Manager tem a missão/papel de equilibrar a complexidade técnica com as necessidades de negócios, garantindo que todos os dados, sejam estruturados ou não, sejam valiosos e facilmente acessíveis para quem precisa deles, dentro de um ecossistema seguro e escalável. A construção de uma infraestrutura escalável e eficiente com uma estratégia de governança e acessibilidade que permita à organização tirar o máximo proveito de seus dados sendo uma alavanca para estratégias de Big Data e análise avançada, como Machine Learning, Business Intelligence e análises em tempo real.
🔎 Sobre a posição:
Definição e Estratégia do Produto Datalake
- Visão e estratégia deve definir como coletar, armazenar e fornecer dados limpos, acessíveis e aproveitáveis por diferentes partes da organização, alinhando isso aos objetivos de negócios da empresa;
- Governança de Dados: garantir que as políticas de segurança, qualidade e conformidade sejam aplicadas e implementar práticas que garantam o uso ético, eficiente e seguro desses dados.
Arquitetura e desing de dados
- Definição de estrutura e Camadas: colaborar com engenheiros de dados para definir e otimizar essas camadas, garantindo que a arquitetura suporte o tipo de análise e processamento necessário.
- Qualidade de dados: implementação de processos de validação, monitoramento e auditoria contínua da qualidade do dados armazenados;
Gerenciamento da Ingestão de dados
- Fontes de dados: lidar com diferentes origens internas e externas, sendo bases relacionais, API's, logs, arquivos de texto, dados de IoT, etc. Planejar e gerenciar como esses dados são ingeridos (ETL ou ELT), garantindo uma ingestão eficiente e escalável;
- Escalabilidade e performance: garantir infraestrutura adequada seja aplicada ao produto, sendo capaz de lidar com picos de dados;
Acessibilidade e Consumo de Dados
- Padrões de Acesso e APIs: garantir acesso de forma eficiente por diferentes usuários e sistemas, padronizando API's ou ferramentas de visualização de dados;
- Facilidade de Navegação e Descoberta de Dados: organizar dados em ferramentas de catálogos de dados e metadados de maneira que os usuários possam descobrir e acessar facilmente os dados.- Entendimento sólido de como funcionam os sistemas de Datalake, incluindo tecnologias como Hadoop, Spark, ferramentas de ETL, arquiteturas de dados em nuvem e gerenciamento de big data;
Segurança e Privacidade de Dados
- Controle de Acesso: definir controles de acesso robustos, incluindo políticas de autorização e autenticação, protegendo dados sensíveis;
- Conformidade Regulatória: implementar práticas para garantir que os dados pessoais ou sensíveis sejam protegidos, auditados e gerenciados de forma adequada, alinhado a regulamentação de privacidade, LGPD e GDPR;
Análises Avançadas e Inteligência Artificial
- Suporte para Análises e Machine Learning: suportar iniciativas organizando dados de forma que seja acessível para cientistas e engenheiros no preparo de modelos;
- Integração com Ferramentas de BI e Analytics: garantir integração e disponibilidade do dado;
Custo e Eficiência
- Otimização de Custos: trabalhar estratégias que otimizam os custos sem sacrificar a performance, como escolha de formatos eficientes (Parquet, ORC, etc), compreessão de dados e otimização do uso da infraestrutura;
REQUIREMENTS AND QUALIFICATIONS
- Conhecimento em governança de Dados, incluindo privacidade, segurança e compliance;
- Familiaridade com ferramentas de Catálogo e Metadata Management;
- Metodologias ágeis e de discovery;(Scrum e Kanban);
- Métricas de produtividade de equipes ágeis (Burndown, Burnup, tempo de ciclo etc);
- Amplo conhecimento analítico para gerar análises e tomar decisões baseadas em dados;
- Experiência prévia construindo e apoiando todo o ciclo de vida de produtos de tecnologia e de desenvolvimento;
ADDITIONAL INFORMATION
Atuação: 100%Remoto.
Vem trabalhar com a gente!
A LEEGA é referência em consultoria e outsourcing para soluções de Data Analytics .
Temos 14 ANOS de mercado e mais de 20 ANOS de experiência em soluções de Business Intelligence, Data Integration e Analytics, atendendo grandes empresas dos mais diversos segmentos do mercado e contamos com mais de 400 colaboradores.
Conquistamos capacidade técnica e reunimos as melhores pessoas para proporcionar aos nossos clientes a melhor experiência.
Brasileiros, com escritório de projetos, fábrica de software e centro de treinamento em São Paulo (capital) , atuação internacional com escritório também em Portugal, somos conhecidos por viver e respirar Analytics e Big Data, inovando nossa tecnologia, compartilhando conhecimento, evoluindo talentos e entregando VALOR.
Em nosso porftólio de serviços ofertamos consultoria especializada, alocação de profissionais, treinamento e desenvolvimento de soluções customizadas para Cloud Computing, Business Intelligence, Big Data, Data Analytics, Machine Learning, Inteligência Artificial, Data Quality, MDM, Governança de Dados e demais soluções de dados