ENGENHEIRO DE DADOS PLENO
Sesatech | Híbrido, Remoto
Faixa salarial
A combinar
Regime de contratação
CLT
Benefícios
- 100% home-office
- Beneficios de mercado
- Construir e manter pipelines ETL/ELT robustos utilizando Apache Airflow
Implementar integrações de dados via APIs, garantindo governança, autenticação e versionamento - Manipular grandes volumes de dados em Oracle, incluindo extrações, cargas e otimização de consultas
- Implementar e manter pipelines de CI/CD para serviços de dados no Azure DevOps
- Garantir observabilidade dos pipelines por meio de logs, métricas e alertas utilizando Stack ELK
- Containerizar ferramentas e serviços com Docker para ambientes de desenvolvimento, homologação e produção
- Apache Airflow (DAGs, schedulers, retries e SLAs)
- Oracle (SQL avançado, tuning básico, cargas e extrações em grande volume)
- Integrações via APIs REST (paginação, tratamento de erros e rate limit)
- Linux (shell, processos, permissões e serviços)
- Git (Azure DevOps) com práticas de branch, pull request e code review
- Docker para empacotamento e manutenção de ferramentas de dados
- Observabilidade com ELK (logs estruturados, dashboards e investigação de falhas)
- Experiência com qualidade de dados (validações e testes automatizados em pipelines)
- Conhecimento em versionamento e releases de dados (data contracts)
- Vivência com esteiras completas de CI/CD e automações (IaC, templates, etc.)
- Experiência ou noções de Cloud (AWS, Azure ou GCP) e Infra as Code
Aqui, valorizamos autonomia, aprendizado contínuo e troca constante. Nosso ambiente é dinâmico, com espaço para experimentar, propor melhorias e evoluir junto com a empresa.
*Ao se candidatar você concorda com a Política de Privacidade
ENGENHEIRO DE DADOS PLENO
Sesatech | Híbrido, Remoto
Descrição da vaga
Responsabilidades e atribuições
- Construir e manter pipelines ETL/ELT robustos utilizando Apache Airflow
Implementar integrações de dados via APIs, garantindo governança, autenticação e versionamento - Manipular grandes volumes de dados em Oracle, incluindo extrações, cargas e otimização de consultas
- Implementar e manter pipelines de CI/CD para serviços de dados no Azure DevOps
- Garantir observabilidade dos pipelines por meio de logs, métricas e alertas utilizando Stack ELK
- Containerizar ferramentas e serviços com Docker para ambientes de desenvolvimento, homologação e produção
Requisitos e qualificações
- Apache Airflow (DAGs, schedulers, retries e SLAs)
- Oracle (SQL avançado, tuning básico, cargas e extrações em grande volume)
- Integrações via APIs REST (paginação, tratamento de erros e rate limit)
- Linux (shell, processos, permissões e serviços)
- Git (Azure DevOps) com práticas de branch, pull request e code review
- Docker para empacotamento e manutenção de ferramentas de dados
- Observabilidade com ELK (logs estruturados, dashboards e investigação de falhas)
Requisitos desejáveis
- Experiência com qualidade de dados (validações e testes automatizados em pipelines)
- Conhecimento em versionamento e releases de dados (data contracts)
- Vivência com esteiras completas de CI/CD e automações (IaC, templates, etc.)
- Experiência ou noções de Cloud (AWS, Azure ou GCP) e Infra as Code
*Ao se candidatar você concorda com a Política de Privacidade
*Ao se candidatar você concorda com a Política de Privacidade
Faixa salarial
A combinar
Regime de contratação
CLT
Benefícios
- 100% home-office
- Beneficios de mercado
Sobre a empresa
Aqui, valorizamos autonomia, aprendizado contínuo e troca constante. Nosso ambiente é dinâmico, com espaço para experimentar, propor melhorias e evoluir junto com a empresa.