Informações
A Leega é uma empresa focada no atendimento eficiente e inovador em seus clientes.
Isso não poderia ser diferente com o nosso principal combustível: as pessoas!
Nossa cultura é inspiradora e nossos valores estão presentes no dia a dia: ética e transparência, excelência de qualidade, trabalho em equipe, responsabilidade econômica, social e ambiental, relações humanas e credibilidade.
Continua apos o anúncio
Buscamos profissionais inovadores que sejam movidos por desafios e focados em resultados.
Se você busca uma empresa dinâmica e parceira e que investe em seus colaboradores através de capacitação constante, a Leega é o lugar para você!
>> A LEEGA É PARA TODOS, ficaremos muito felizes em ter você em nosso time. Venha fazer parte da nossa história e da construção do nosso futuro.
Continua apos o anúncio
Cadastre-se agora mesmo em nossas vagas!
- Graduação Superior Completa (Ciências da Computação, Engenharia da Computação, Sistemas de Informação ou áreas correlatas)
- Sólida experiência e vivência prática na criação e manutenção de pipelines de dados
- Domínio em linguagem de programação (SQL, Spark , PySpark e Python)
- Experiência com integração de Databricks em ambiente de nuvem AWS
- Experiência com ferramentas, soluções e integração de dados do ecossistema em nuvem: Athena, S3, EMR
- Experiência em Banco de Dados estruturado (Oracle, SQL Server MySql ou Postgree)
- Experiência em testes de unitário, integrados e performance
- Conhecimento em PowerBI
- Conhecimento Control-M
- Sólidos conhecimentos sobre modelagem de dados, Delta Lake, armazenamento de dados e conceitos de ETL
- Excelentes habilidades de comunicação e trabalho em equipe
- Capacidade de resolver problemas de forma criativa e eficiente
- Forte foco em qualidade, escalabilidade e desempenho
Continua apos o anúncio
- Desenvolver e implementar soluções utilizando a plataforma Databricks para análise e processamento de grandes volumes de dados
- Projetar, otimizar e manter pipelines de dados eficientes e escaláveis
- Colaborar com equipes internas para entender as necessidades de dados e propor soluções técnicas adequadas
- Colaborar com outras equipes para entender os requisitos de dados e traduzi-los em soluções técnicas eficazes
- Construir e manter componentes arquiteturais para reuso, considerando a visão de transversalidade
- Garantir a implementação, padronização e constante aperfeiçoamento das metodologias de desenvolvimento das soluções de dados
Continua apos o anúncio
Desejável: Certificação AWS, Databricks ou GCP.
100%remota.