Engenheiro de Dados
SAFE-E | Remoto
Faixa salarial
A combinar
Regime de contratação
CLT, PJ
Benefícios
- Vaga 100% remota
- Criar e manter pipelines de ingestão, transformação e integração de dados (ETL/ELT).
- Implementar arquiteturas escaláveis para Data Lakes, Data Warehouses e sistemas analíticos.
- Otimizar consultas, modelos e armazenamento para grandes volumes de dados.
- Garantir qualidade, integridade e segurança dos dados, em conformidade com a LGPD.
- Automatizar processos de coleta, tratamento e carga de dados.
- Monitorar fluxos de dados e corrigir eventuais falhas.
- Colaborar com equipes de BI, ciência de dados e engenharia para integração de soluções.
- Graduação em Ciência da Computação, Engenharia de Software, Sistemas de Informação ou áreas correlatas.
- Inglês avançado.
- Experiência sólida com Python e SQL.
- Conhecimento em bancos relacionais (MySQL, PostgreSQL, SQL Server) e não relacionais (MongoDB, OpenSearch).
- Vivência com ETL/ELT (Apache Airflow, dbt, Talend) e arquiteturas de Data Lake / Data Warehouse.
- Experiência com ecossistema AWS, incluindo ElastiCache (Redis) e RabbitMQ.
- Conhecimento em CI/CD para pipelines de dados.
- Vivência com processamento distribuído (Spark, Flink, Kafka).
- Experiência com Amazon S3, AWS Glue, Hive Metastore, Redshift, Athena, Trino, Superset, QuickSight.
- Conhecimento em AWS SageMaker ou integrações com sistemas como e.cti.
- Experiência com arquitetura orientada a eventos.
*Ao se candidatar você concorda com a Política de Privacidade
Engenheiro de Dados
SAFE-E | Remoto
Descrição da vaga
Responsabilidades e atribuições
- Criar e manter pipelines de ingestão, transformação e integração de dados (ETL/ELT).
- Implementar arquiteturas escaláveis para Data Lakes, Data Warehouses e sistemas analíticos.
- Otimizar consultas, modelos e armazenamento para grandes volumes de dados.
- Garantir qualidade, integridade e segurança dos dados, em conformidade com a LGPD.
- Automatizar processos de coleta, tratamento e carga de dados.
- Monitorar fluxos de dados e corrigir eventuais falhas.
- Colaborar com equipes de BI, ciência de dados e engenharia para integração de soluções.
Requisitos e qualificações
- Graduação em Ciência da Computação, Engenharia de Software, Sistemas de Informação ou áreas correlatas.
- Inglês avançado.
- Experiência sólida com Python e SQL.
- Conhecimento em bancos relacionais (MySQL, PostgreSQL, SQL Server) e não relacionais (MongoDB, OpenSearch).
- Vivência com ETL/ELT (Apache Airflow, dbt, Talend) e arquiteturas de Data Lake / Data Warehouse.
- Experiência com ecossistema AWS, incluindo ElastiCache (Redis) e RabbitMQ.
- Conhecimento em CI/CD para pipelines de dados.
- Vivência com processamento distribuído (Spark, Flink, Kafka).
Requisitos desejáveis
- Experiência com Amazon S3, AWS Glue, Hive Metastore, Redshift, Athena, Trino, Superset, QuickSight.
- Conhecimento em AWS SageMaker ou integrações com sistemas como e.cti.
- Experiência com arquitetura orientada a eventos.
*Ao se candidatar você concorda com a Política de Privacidade
*Ao se candidatar você concorda com a Política de Privacidade
Faixa salarial
A combinar
Regime de contratação
CLT, PJ
Benefícios
- Vaga 100% remota
Sobre a empresa