Especialista em Engenharia de Dados
Especialista em Engenharia de Dados
Localização: São Paulo (Sede)
Área / BU: IT & Digital Brazil
Reporte: Data Engineering Manager
Alguma pessoa interna mapeada? Não
Propósito da posição
Entrar na Nestlé significa fazer parte da maior empresa de alimentos e bebidas do mundo, em um ambiente que valoriza diversidade, inclusão e colaboração. Aqui, trabalhamos com dados em grande escala para apoiar decisões estratégicas e acelerar a transformação digital do negócio.
Estamos buscando uma pessoa Engenheira de Dados (Pleno) para evoluir nossos pipelines, modelos e plataformas, atuando em um ecossistema moderno que combina Databricks, Snowflake, DBT e Lakeflow. Você terá autonomia para propor melhorias, apoiar escolhas técnicas e contribuir para consolidar uma cultura data‑driven em toda a organização.
O dia a dia...
Desenvolver e manter pipelines escaláveis utilizando Databricks (Lakeflow Spark Declarative Pipelines e Lakeflow Jobs) e Azure Data Factory;
Criar e evoluir modelos de dados com DBT, aplicando modularidade, versionamento, testes automatizados e documentação clara;
Empregar Databricks Asset Bundles para empacotamento, versionamento e implantação consistente de jobs/pipelines entre ambientes;
Implementar e manter validações de qualidade de dados com Great Expectations (suites de testes, checks em linha e relatórios de conformidade);
Trabalhar com Snowflake para ingestão, modelagem e transformação, aplicando princípios de performance e governança;
Processar grandes volumes de dados, garantindo qualidade, linhagem e observabilidade de ponta a ponta;
Integrar múltiplas fontes, padronizando contratos e garantindo consistência entre domínios;
Participar de decisões de arquitetura e padrões de engenharia em projetos multidisciplinares;
Colaborar com analistas, cientistas de dados e times de negócio para viabilizar produtos de dados e casos de uso de alto impacto.
O que vai contribuir para o seu sucesso?
Experiência prática em engenharia de dados em cloud (preferencialmente Azure), incluindo Databricks, DBT, Lakeflow Spark Declarative Pipelines, Lakeflow Jobs, Databricks Asset Bundles e Snowflake;
Graduação superior completa;
Conhecimento sólido em Spark e Python, com boas práticas de desenvolvimento (testes, versionamento, modularização e observabilidade);
Vivência com arquitetura orientada a dados (data lakehouse, ELT/ETL moderno) e processamento em larga escala;
Experiência com o ecossistema Azure (ADF, Storage, integrações e orquestração);
Conhecimento em versionamento de código com Git e familiaridade com GitHub e Azure DevOps no dia a dia de engenharia de dados (uso de repositórios, branches e Pull Request);
Entendimento de Great Expectations para Data Quality, além de conceitos de linhagem, governança, privacidade, retenção e anonimização;
Comunicação clara e colaboração com times multidisciplinares;
Vontade de simplificar processos e criar soluções que gerem impacto real no negócio
Inglês desejável
Localização: São Paulo (Sede)
Área / BU: IT & Digital Brazil
Reporte: Data Engineering Manager
Alguma pessoa interna mapeada? Não
Propósito da posição
Entrar na Nestlé significa fazer parte da maior empresa de alimentos e bebidas do mundo, em um ambiente que valoriza diversidade, inclusão e colaboração. Aqui, trabalhamos com dados em grande escala para apoiar decisões estratégicas e acelerar a transformação digital do negócio.
Estamos buscando uma pessoa Engenheira de Dados (Pleno) para evoluir nossos pipelines, modelos e plataformas, atuando em um ecossistema moderno que combina Databricks, Snowflake, DBT e Lakeflow. Você terá autonomia para propor melhorias, apoiar escolhas técnicas e contribuir para consolidar uma cultura data‑driven em toda a organização.
O dia a dia...
Desenvolver e manter pipelines escaláveis utilizando Databricks (Lakeflow Spark Declarative Pipelines e Lakeflow Jobs) e Azure Data Factory;
Criar e evoluir modelos de dados com DBT, aplicando modularidade, versionamento, testes automatizados e documentação clara;
Empregar Databricks Asset Bundles para empacotamento, versionamento e implantação consistente de jobs/pipelines entre ambientes;
Implementar e manter validações de qualidade de dados com Great Expectations (suites de testes, checks em linha e relatórios de conformidade);
Trabalhar com Snowflake para ingestão, modelagem e transformação, aplicando princípios de performance e governança;
Processar grandes volumes de dados, garantindo qualidade, linhagem e observabilidade de ponta a ponta;
Integrar múltiplas fontes, padronizando contratos e garantindo consistência entre domínios;
Participar de decisões de arquitetura e padrões de engenharia em projetos multidisciplinares;
Colaborar com analistas, cientistas de dados e times de negócio para viabilizar produtos de dados e casos de uso de alto impacto.
O que vai contribuir para o seu sucesso?
Experiência prática em engenharia de dados em cloud (preferencialmente Azure), incluindo Databricks, DBT, Lakeflow Spark Declarative Pipelines, Lakeflow Jobs, Databricks Asset Bundles e Snowflake;
Graduação superior completa;
Conhecimento sólido em Spark e Python, com boas práticas de desenvolvimento (testes, versionamento, modularização e observabilidade);
Vivência com arquitetura orientada a dados (data lakehouse, ELT/ETL moderno) e processamento em larga escala;
Experiência com o ecossistema Azure (ADF, Storage, integrações e orquestração);
Conhecimento em versionamento de código com Git e familiaridade com GitHub e Azure DevOps no dia a dia de engenharia de dados (uso de repositórios, branches e Pull Request);
Entendimento de Great Expectations para Data Quality, além de conceitos de linhagem, governança, privacidade, retenção e anonimização;
Comunicação clara e colaboração com times multidisciplinares;
Vontade de simplificar processos e criar soluções que gerem impacto real no negócio
Inglês desejável
São Paulo, São Paulo, BR, 04730-000
São Paulo, São Paulo, BR, 04730-000