Engenheiro de Dados
LigueLead | Campinas - SP | Presencial, Híbrido, Remoto
Estamos em busca de um Engenheiro de Dados para estruturar e manter nossa arquitetura de dados. Este profissional será responsável por projetar e otimizar pipelines de ingestão, transformação e armazenamento de dados, garantindo disponibilidade, escalabilidade e segurança das informações para toda a empresa.
Faixa salarial
A combinar
Regime de contratação
CLT, PJ
Benefícios
- Vale Alimentação/Refeição via cartão Ifood Benefícios.
- Ajuda de custo ou vale transporte via Ifood Benefícios.
- Assistência médica (coparticipativa, extensiva à dependentes)
- Assistência odontológica (extensiva à dependentes)
- Day off e mimo no aniversário.
- Seguro de vida.
- Licença maternidade estendida.
- Espaço interativo com videogame.
- Espaço de descompressão #DESLIGUER.
- Frutas todos os dias
- Estacionamento.
- Treinamentos constantes e oportunidades de desenvolvimento.
- Projetar, desenvolver e manter pipelines de ETL/ELT.
- Integrar dados de múltiplas fontes (APIs, sistemas internos, bancos de dados).
- Construir e otimizar data lakes e data warehouses.
- Garantir a governança, qualidade e segurança dos dados.
- Colaborar com analistas e cientistas de dados para facilitar o acesso às informações.
- Experiência em linguagens como SQL e Python (ou Scala).
- Conhecimento em ferramentas de processamento de dados (Spark, Kafka, Hadoop é diferencial).
- Experiência com bancos relacionais e não-relacionais.
- Vivência em cloud (AWS, GCP ou Azure).
- Boas práticas de versionamento (Git) e metodologias ágeis.
- Experiência com orquestradores (Airflow, Luigi).
- Conhecimento em arquitetura de microsserviços ou streaming de dados.
*Ao se candidatar você concorda com a Política de Privacidade
Engenheiro de Dados
LigueLead | Campinas - SP | Presencial, Híbrido, Remoto
Descrição da vaga
Estamos em busca de um Engenheiro de Dados para estruturar e manter nossa arquitetura de dados. Este profissional será responsável por projetar e otimizar pipelines de ingestão, transformação e armazenamento de dados, garantindo disponibilidade, escalabilidade e segurança das informações para toda a empresa.
Responsabilidades e atribuições
- Projetar, desenvolver e manter pipelines de ETL/ELT.
- Integrar dados de múltiplas fontes (APIs, sistemas internos, bancos de dados).
- Construir e otimizar data lakes e data warehouses.
- Garantir a governança, qualidade e segurança dos dados.
- Colaborar com analistas e cientistas de dados para facilitar o acesso às informações.
Requisitos e qualificações
- Experiência em linguagens como SQL e Python (ou Scala).
- Conhecimento em ferramentas de processamento de dados (Spark, Kafka, Hadoop é diferencial).
- Experiência com bancos relacionais e não-relacionais.
- Vivência em cloud (AWS, GCP ou Azure).
- Boas práticas de versionamento (Git) e metodologias ágeis.
Requisitos desejáveis
- Experiência com orquestradores (Airflow, Luigi).
- Conhecimento em arquitetura de microsserviços ou streaming de dados.
*Ao se candidatar você concorda com a Política de Privacidade
*Ao se candidatar você concorda com a Política de Privacidade
Faixa salarial
A combinar
Regime de contratação
CLT, PJ
Benefícios
- Vale Alimentação/Refeição via cartão Ifood Benefícios.
- Ajuda de custo ou vale transporte via Ifood Benefícios.
- Assistência médica (coparticipativa, extensiva à dependentes)
- Assistência odontológica (extensiva à dependentes)
- Day off e mimo no aniversário.
- Seguro de vida.
- Licença maternidade estendida.
- Espaço interativo com videogame.
- Espaço de descompressão #DESLIGUER.
- Frutas todos os dias
- Estacionamento.
- Treinamentos constantes e oportunidades de desenvolvimento.
Sobre a empresa