Dataops SR
V8.Tech | São Paulo - SP | Remoto
Estamos em busca de uma pessoa dedicada e com vontade de fazer a diferença para atuar na área de DataOps SR. Se você ama tecnologia, gosta de desafios e acredita no poder da colaboração para alcançar grandes resultados, essa oportunidade é para você!
Faixa salarial
A combinar
Regime de contratação
CLT
Benefícios
💰 Remuneração compatível com o mercado;
💻 Trabalho Hibrido;
🕛 Horário de trabalho flexível: De acordo com área de atuação e política interna;
🍎 Flash - Cartão de Benefícios Flexíveis com todas as categorias habilitadas: Alimentação, Refeição, Mobilidade, Educação, Saúde e Cultura;
🧡 Seguro de Vida (Caixa Econômica);
🚑 Plano de Saúde (Porto Seguro);
🦷 Plano Odontológico (Porto Seguro);
📊 PLR de acordo com a política da empresa;
😎 Zero dress code, vista-se como se sentir mais confortável;
🎂 Voucher do Ifood no dia do aniversário;
📚 Parceria com escola de inglês;
💰 Programa de indicação #amigosv8.tech;
💻 Trabalho Hibrido;
🕛 Horário de trabalho flexível: De acordo com área de atuação e política interna;
🍎 Flash - Cartão de Benefícios Flexíveis com todas as categorias habilitadas: Alimentação, Refeição, Mobilidade, Educação, Saúde e Cultura;
🧡 Seguro de Vida (Caixa Econômica);
🚑 Plano de Saúde (Porto Seguro);
🦷 Plano Odontológico (Porto Seguro);
📊 PLR de acordo com a política da empresa;
😎 Zero dress code, vista-se como se sentir mais confortável;
🎂 Voucher do Ifood no dia do aniversário;
📚 Parceria com escola de inglês;
💰 Programa de indicação #amigosv8.tech;
* Orquestrar e otimizar pipelines de ingestão de dados, garantindo alta disponibilidade e confiabilidade dos dados.
* Definir padrões e melhores práticas para governança e automação das esteiras de dados.
* Criar e otimizar processos de ETL/ELT para organização das camadas do Lakehouse, garantindo dados bem estruturados e rastreáveis.
* Assegurar integração eficiente entre OLTP, Data Lake, Data Marts e relatórios analíticos.
* Trabalhar lado a lado com as equipes de dados, garantindo coerência entre as camadas e otimização dos processos.
* Desenvolver e manter automação para controle de versão e deploy de dados, garantindo rastreabilidade e versionamento adequado dos pipelines.
* Garantir observabilidade e qualidade dos dados, implementando monitoramento e alertas para detecção de falhas e anomalias.
* Criar padrões para exposição de dados via APIs, tópicos corporativos e Data Marts, garantindo acesso estruturado para múltiplos consumidores.
* Apoiar o time cliente na implementação das esteiras de dados, garantindo materialização eficiente e alinhada aos padrões arquiteturais.
* Garantir segurança e conformidade dos dados, implementando controles de acesso, criptografia e auditoria.
* Definir padrões e melhores práticas para governança e automação das esteiras de dados.
* Criar e otimizar processos de ETL/ELT para organização das camadas do Lakehouse, garantindo dados bem estruturados e rastreáveis.
* Assegurar integração eficiente entre OLTP, Data Lake, Data Marts e relatórios analíticos.
* Trabalhar lado a lado com as equipes de dados, garantindo coerência entre as camadas e otimização dos processos.
* Desenvolver e manter automação para controle de versão e deploy de dados, garantindo rastreabilidade e versionamento adequado dos pipelines.
* Garantir observabilidade e qualidade dos dados, implementando monitoramento e alertas para detecção de falhas e anomalias.
* Criar padrões para exposição de dados via APIs, tópicos corporativos e Data Marts, garantindo acesso estruturado para múltiplos consumidores.
* Apoiar o time cliente na implementação das esteiras de dados, garantindo materialização eficiente e alinhada aos padrões arquiteturais.
* Garantir segurança e conformidade dos dados, implementando controles de acesso, criptografia e auditoria.
Obrigatórios:
* Ingestão de Dados: Oracle CDC, Oracle GoldenGate, Change Data Capture (CDC)
* Arquitetura de Dados: Lakehouse, Data Vault, Data Mesh, Data Marts
* Pipelines de ETL/ELT: Apache Airflow, Azure Data Factory, Databricks Pipelines
* Armazenamento e Processamento de Dados: Azure Synapse, Delta Lake, Snowflake, Parquet
* Modelagem e Transformação: SQL avançado, Apache Spark
* Governança e Qualidade de Dados: Data Catalog, Data Lineage, Master Data Management (MDM), Data Observability
* CI/CD para Dados: Liquibase para versionamento de schema, Terraform para infraestrutura como código
* Mensageria e Integração: RabbitMQ, Kafka para stream processing
* Monitoramento e Observabilidade: Azure Monitor, Elastic Stack/Datadog, OpenTelemetry
Diferenciais:
* Experiência com DataOps e automação de fluxos de dados.
* Conhecimento avançado em segurança de dados e LGPD/GDPR compliance.
* Experiência com técnicas avançadas de particionamento, caching e otimização de queries.
* Vivência em ambientes multicloud (Azure e OCI).
* Conhecimento de Machine Learning e pipelines para Data Science.
* Ingestão de Dados: Oracle CDC, Oracle GoldenGate, Change Data Capture (CDC)
* Arquitetura de Dados: Lakehouse, Data Vault, Data Mesh, Data Marts
* Pipelines de ETL/ELT: Apache Airflow, Azure Data Factory, Databricks Pipelines
* Armazenamento e Processamento de Dados: Azure Synapse, Delta Lake, Snowflake, Parquet
* Modelagem e Transformação: SQL avançado, Apache Spark
* Governança e Qualidade de Dados: Data Catalog, Data Lineage, Master Data Management (MDM), Data Observability
* CI/CD para Dados: Liquibase para versionamento de schema, Terraform para infraestrutura como código
* Mensageria e Integração: RabbitMQ, Kafka para stream processing
* Monitoramento e Observabilidade: Azure Monitor, Elastic Stack/Datadog, OpenTelemetry
Diferenciais:
* Experiência com DataOps e automação de fluxos de dados.
* Conhecimento avançado em segurança de dados e LGPD/GDPR compliance.
* Experiência com técnicas avançadas de particionamento, caching e otimização de queries.
* Vivência em ambientes multicloud (Azure e OCI).
* Conhecimento de Machine Learning e pipelines para Data Science.
* Experiência com arquitetura de Data Mesh e descentralização de dados.
* Conhecimento avançado em modelagem e otimização de queries para consumo analítico.
* Familiaridade com pipelines para Data Science e Machine Learning.
* Experiência com orquestração de pipelines em ambientes híbridos e multinuvem.
* Conhecimento avançado em modelagem e otimização de queries para consumo analítico.
* Familiaridade com pipelines para Data Science e Machine Learning.
* Experiência com orquestração de pipelines em ambientes híbridos e multinuvem.
Há 10 anos no mercado, a V8.Tech é uma empresa jovem, movida por tecnologia e inovação, que acelera a transformação digital. Ajudamos nossos clientes a revolucionarem seus negócios por meio da reestruturação e evolução, com foco na otimização de processos, tecnologia da informação, transformação digital e no crescimento em diversos setores. Atendemos diversos países na América Latina a partir de nosso escritório em São Paulo: Argentina, Colômbia, Peru e México.
Dataops SR
V8.Tech | São Paulo - SP | Remoto
Descrição da vaga
Estamos em busca de uma pessoa dedicada e com vontade de fazer a diferença para atuar na área de DataOps SR. Se você ama tecnologia, gosta de desafios e acredita no poder da colaboração para alcançar grandes resultados, essa oportunidade é para você!
Responsabilidades e atribuições
* Orquestrar e otimizar pipelines de ingestão de dados, garantindo alta disponibilidade e confiabilidade dos dados.
* Definir padrões e melhores práticas para governança e automação das esteiras de dados.
* Criar e otimizar processos de ETL/ELT para organização das camadas do Lakehouse, garantindo dados bem estruturados e rastreáveis.
* Assegurar integração eficiente entre OLTP, Data Lake, Data Marts e relatórios analíticos.
* Trabalhar lado a lado com as equipes de dados, garantindo coerência entre as camadas e otimização dos processos.
* Desenvolver e manter automação para controle de versão e deploy de dados, garantindo rastreabilidade e versionamento adequado dos pipelines.
* Garantir observabilidade e qualidade dos dados, implementando monitoramento e alertas para detecção de falhas e anomalias.
* Criar padrões para exposição de dados via APIs, tópicos corporativos e Data Marts, garantindo acesso estruturado para múltiplos consumidores.
* Apoiar o time cliente na implementação das esteiras de dados, garantindo materialização eficiente e alinhada aos padrões arquiteturais.
* Garantir segurança e conformidade dos dados, implementando controles de acesso, criptografia e auditoria.
* Definir padrões e melhores práticas para governança e automação das esteiras de dados.
* Criar e otimizar processos de ETL/ELT para organização das camadas do Lakehouse, garantindo dados bem estruturados e rastreáveis.
* Assegurar integração eficiente entre OLTP, Data Lake, Data Marts e relatórios analíticos.
* Trabalhar lado a lado com as equipes de dados, garantindo coerência entre as camadas e otimização dos processos.
* Desenvolver e manter automação para controle de versão e deploy de dados, garantindo rastreabilidade e versionamento adequado dos pipelines.
* Garantir observabilidade e qualidade dos dados, implementando monitoramento e alertas para detecção de falhas e anomalias.
* Criar padrões para exposição de dados via APIs, tópicos corporativos e Data Marts, garantindo acesso estruturado para múltiplos consumidores.
* Apoiar o time cliente na implementação das esteiras de dados, garantindo materialização eficiente e alinhada aos padrões arquiteturais.
* Garantir segurança e conformidade dos dados, implementando controles de acesso, criptografia e auditoria.
Requisitos e qualificações
Obrigatórios:
* Ingestão de Dados: Oracle CDC, Oracle GoldenGate, Change Data Capture (CDC)
* Arquitetura de Dados: Lakehouse, Data Vault, Data Mesh, Data Marts
* Pipelines de ETL/ELT: Apache Airflow, Azure Data Factory, Databricks Pipelines
* Armazenamento e Processamento de Dados: Azure Synapse, Delta Lake, Snowflake, Parquet
* Modelagem e Transformação: SQL avançado, Apache Spark
* Governança e Qualidade de Dados: Data Catalog, Data Lineage, Master Data Management (MDM), Data Observability
* CI/CD para Dados: Liquibase para versionamento de schema, Terraform para infraestrutura como código
* Mensageria e Integração: RabbitMQ, Kafka para stream processing
* Monitoramento e Observabilidade: Azure Monitor, Elastic Stack/Datadog, OpenTelemetry
Diferenciais:
* Experiência com DataOps e automação de fluxos de dados.
* Conhecimento avançado em segurança de dados e LGPD/GDPR compliance.
* Experiência com técnicas avançadas de particionamento, caching e otimização de queries.
* Vivência em ambientes multicloud (Azure e OCI).
* Conhecimento de Machine Learning e pipelines para Data Science.
* Ingestão de Dados: Oracle CDC, Oracle GoldenGate, Change Data Capture (CDC)
* Arquitetura de Dados: Lakehouse, Data Vault, Data Mesh, Data Marts
* Pipelines de ETL/ELT: Apache Airflow, Azure Data Factory, Databricks Pipelines
* Armazenamento e Processamento de Dados: Azure Synapse, Delta Lake, Snowflake, Parquet
* Modelagem e Transformação: SQL avançado, Apache Spark
* Governança e Qualidade de Dados: Data Catalog, Data Lineage, Master Data Management (MDM), Data Observability
* CI/CD para Dados: Liquibase para versionamento de schema, Terraform para infraestrutura como código
* Mensageria e Integração: RabbitMQ, Kafka para stream processing
* Monitoramento e Observabilidade: Azure Monitor, Elastic Stack/Datadog, OpenTelemetry
Diferenciais:
* Experiência com DataOps e automação de fluxos de dados.
* Conhecimento avançado em segurança de dados e LGPD/GDPR compliance.
* Experiência com técnicas avançadas de particionamento, caching e otimização de queries.
* Vivência em ambientes multicloud (Azure e OCI).
* Conhecimento de Machine Learning e pipelines para Data Science.
Requisitos desejáveis
* Experiência com arquitetura de Data Mesh e descentralização de dados.
* Conhecimento avançado em modelagem e otimização de queries para consumo analítico.
* Familiaridade com pipelines para Data Science e Machine Learning.
* Experiência com orquestração de pipelines em ambientes híbridos e multinuvem.
* Conhecimento avançado em modelagem e otimização de queries para consumo analítico.
* Familiaridade com pipelines para Data Science e Machine Learning.
* Experiência com orquestração de pipelines em ambientes híbridos e multinuvem.
Faixa salarial
A combinar
Regime de contratação
CLT
Benefícios
💰 Remuneração compatível com o mercado;
💻 Trabalho Hibrido;
🕛 Horário de trabalho flexível: De acordo com área de atuação e política interna;
🍎 Flash - Cartão de Benefícios Flexíveis com todas as categorias habilitadas: Alimentação, Refeição, Mobilidade, Educação, Saúde e Cultura;
🧡 Seguro de Vida (Caixa Econômica);
🚑 Plano de Saúde (Porto Seguro);
🦷 Plano Odontológico (Porto Seguro);
📊 PLR de acordo com a política da empresa;
😎 Zero dress code, vista-se como se sentir mais confortável;
🎂 Voucher do Ifood no dia do aniversário;
📚 Parceria com escola de inglês;
💰 Programa de indicação #amigosv8.tech;
💻 Trabalho Hibrido;
🕛 Horário de trabalho flexível: De acordo com área de atuação e política interna;
🍎 Flash - Cartão de Benefícios Flexíveis com todas as categorias habilitadas: Alimentação, Refeição, Mobilidade, Educação, Saúde e Cultura;
🧡 Seguro de Vida (Caixa Econômica);
🚑 Plano de Saúde (Porto Seguro);
🦷 Plano Odontológico (Porto Seguro);
📊 PLR de acordo com a política da empresa;
😎 Zero dress code, vista-se como se sentir mais confortável;
🎂 Voucher do Ifood no dia do aniversário;
📚 Parceria com escola de inglês;
💰 Programa de indicação #amigosv8.tech;
Sobre a empresa
Há 10 anos no mercado, a V8.Tech é uma empresa jovem, movida por tecnologia e inovação, que acelera a transformação digital. Ajudamos nossos clientes a revolucionarem seus negócios por meio da reestruturação e evolução, com foco na otimização de processos, tecnologia da informação, transformação digital e no crescimento em diversos setores. Atendemos diversos países na América Latina a partir de nosso escritório em São Paulo: Argentina, Colômbia, Peru e México.