Informações
Atuar na construção, manutenção e otimização de pipelines de dados em ambientes analíticos e operacionais, garantindo que os dados estejam estruturados, atualizados, íntegros e acessíveis para uso por times de negócios, BI e Data Science.
- Ensino superior completo em Ciência da Computação, Engenharia, Sistemas de Informação, Estatística ou áreas correlatas.
- Sólido conhecimento em SQL e Python voltado para manipulação de dados.
- Experiência em construção de pipelines com ferramentas como Airflow, StreamSets, NiFi ou similares.
- Conhecimento em modelagem de dados (normalizada e dimensional).
- Experiência prática com bancos de dados relacionais (PostgreSQL, SQL Server, etc.) e não relacionais (MongoDB, etc.).
- Experiência com ambientes Linux e shell scripting.
- Conhecimento de conceitos OLTP, OLAP, Data Lake, Data Warehouse e Lakehouse.
- Familiaridade com processos de CI/CD e infraestrutura como código (IaC).
- Experiência em projetos de migração ou integração de dados entre plataformas.
- Experiência em Linux incluindo construção de shell script.
Continua apos o anúncio
Diferenciais:
- Experiência prática com serviços de cloud (GCP, AWS, Azure, Oracle Cloud ou On-Premises).
- Conhecimento e uso de ferramentas como DBT, Delta Lake, Apache Spark / PySpark.
- Experiência com ferramentas de catálogo e governança de dados (Data Catalog, DataHub, Amundsen).
- Vivência em projetos de arquitetura Medallion ou Data Mesh.
- Integração com times de Data Science e apoio na operacionalização de modelos.
Continua apos o anúncio
Comportamentos Esperados:
- Proatividade e capacidade de trabalhar de forma autônoma.
- Boa comunicação e habilidade para trabalhar em equipe multidisciplinar.
- Capacidade analítica para resolução de problemas complexos.
- Organização, responsabilidade e foco em entrega com qualidade.
- Vontade de aprender e se atualizar constantemente.
- Desenvolver pipelines de ingestão e transformação de dados (ETL/ELT) em ambientes de Data Lake e Data Warehouse.
- Implementar rotinas de controle de qualidade, monitoramento e validação de dados.
- Construir e manter APIs para consumo de dados por sistemas e aplicações.
- Documentar fluxos de dados, regras de negócio e modelos de dados utilizados.
- Participar da modelagem de dados relacionais e analíticos.
- Colaborar com times de BI, Produtos e Data Science na estruturação e disponibilização dos dados.
- Automatizar processos de entrega de dados com uso de ferramentas de orquestração.
- Apoiar a evolução da arquitetura de dados da empresa junto aos times de arquitetura e DevOps.
- Atuar com versionamento e CI/CD para garantir rastreabilidade e reprodutibilidade dos pipelines.
- Participar de cerimônias e ciclos de desenvolvimento ágil (Scrum/Kanban).
Continua apos o anúncio
Modelo de contratação: PJ
Tipo de CNPJ/Empresa: ME (microempresa) ou LTDA (Empresa de Responsabilidade Limitada)
Cachê: Valor fixo em Nota Fiscal
Com plano abrangente de benefícios:
💻 Notebook da empresa para quem está em SP, ou 💸 auxílio infraestrutura para garantia de internet e insumos para a realização do trabalho, para quem está fora de SP.
🤑13ª nota no ano;
🛫 Recesso de 30 dias + 1/3 (benefício adquirido após 1 ano de contrato);
Continua apos o anúncio
🏥 Assistência Médica SulAmérica
💚Seguro de Vida;
💳 VR por dia útil; (Cartão Flash; Crédito/Débito; podendo utilizar em redes com CNPJ de food (Exemplo: Restaurante;Mercado e Aplicativos)
📴 Day-off +crédito extra no cartão flash pelo dia do aniversário vitalício;
🦷 Assistência Odontológica SulAmérica - Plano opcional
🏋🏻Incentivo a prática de exercício físico - TotalPass
Continua apos o anúncio
📚 Incentivo a educação - Reembolso mensal para cursos e treinamentos (segundo política)
✅Avaliações de performance semestrais com feedbacks e construção de PDI.
🪴Escritório moderno, preparado para atender a todos, com restaurante próprio em estilo bistrô.