




Resumo: Procuramos um Engenheiro de Dados Python/Google Cloud Platform para projetar, construir e manter pipelines e plataformas de dados escaláveis destinados à tomada de decisões orientadas por dados dentro da equipe BPCE SI. Pontos principais: 1. Desenvolver e manter pipelines de dados ponta a ponta (ELT/ETL) 2. Construir modelos de dados robustos na GCP utilizando BigQuery, Cloud Storage e Dataflow 3. Colaborar com equipes diversas para entregar soluções de dados **Descrição da empresa** A Natixis em Portugal é um Centro de Excelência cuja missão é transformar a banca tradicional desenvolvendo soluções inovadoras para os negócios, operações e cultura organizacional do Grupo BPCE em todo o mundo. Como parte da divisão internacional do Grupo BPCE, a Natixis em Portugal projeta e entrega soluções para suas duas áreas principais — Corporate & Investment Banking e Asset & Wealth Management — bem como serviços transversais que apoiam todas as entidades do Grupo. Com mais de 3.000 colaboradores representando 46 nacionalidades, as equipes atuam nas áreas de Tecnologia da Informação, Atividades de Apoio Bancário e Conformidade, de forma integrada, inclusiva e multifuncional, apoiando todas as linhas de negócio e plataformas do Grupo. Uma mentalidade disruptiva e uma cultura de proximidade e agilidade caracterizam a equipe da Natixis em Portugal e refletem a missão da empresa de transformar a banca tradicional em escala global: uma combinação perfeita com a dinâmica portuguesa e o ecossistema empreendedor. **Descrição da vaga** A Natixis em Portugal está atualmente procurando um Engenheiro de Dados Python/Google Cloud Platform (falante de francês) para integrar sua equipe BPCE SI (Soluções Informáticas). O candidato ideal projetará, construirá e manterá pipelines e plataformas de dados escaláveis para viabilizar a tomada de decisões orientadas por dados. **Principais responsabilidades** * Projetar, desenvolver e manter pipelines de dados ponta a ponta (ELT/ETL) para ingestão, processamento e armazenamento de grandes volumes de dados provenientes de fontes diversas. * Construir modelos e esquemas de dados robustos (data warehouse/data lake) na GCP utilizando BigQuery, Cloud Storage, Dataflow, Dataproc, Pub/Sub e serviços relacionados. * Desenvolver em Python para implementar transformações de dados, orquestração, tarefas de automação e verificações de qualidade de dados. * Integrar testes ao ciclo de vida da engenharia de dados, incluindo o planejamento e execução de atividades de teste (UAT/QA), validação da correção dos dados e garantia de pipelines prontos para lançamento. * Colaborar com engenheiros de dados, cientistas de dados, analistas e partes interessadas comerciais para compreender necessidades de dados e entregar soluções. * Utilizar e/ou implementar práticas de qualidade de dados, monitoramento, registro (logging) e alertas para garantir a confiabilidade dos dados. * Garantir o cumprimento dos requisitos de governança de dados, segurança, privacidade e conformidade (IAM, criptografia, controles de acesso). * Criar e manter documentação técnica, dicionários de dados, runbooks e planos de teste. * Participar de revisões de código, testes e cerimônias ágeis/Scrum. * Manter-se atualizado sobre as ofertas e melhores práticas da GCP; defender padrões nativos de nuvem para engenharia de dados. * Opcional, mas valorizado: experiência com Control-M ou outras ferramentas de orquestração de trabalhos; familiaridade com CI/CD para pipelines de dados. **Qualificações** Habilidades técnicas * Graduação em Ciência da Computação, Engenharia, Matemática ou área correlata (ou experiência prática equivalente). * 3+ anos de experiência profissional em engenharia de dados. * Fortes habilidades de desenvolvimento em Python (padrões de projeto, testes, empacotamento, considerações de desempenho). * Experiência prática com Google Cloud Platform (BigQuery, Cloud Storage, Dataflow/Beam, Dataproc, Pub/Sub, Cloud Composer/Airflow) e SQL. * Experiência prática na construção e manutenção de pipelines de dados, data lakes ou data warehouses. * Domínio dos conceitos ETL/ELT, modelagem de dados e projeto de esquemas (esquemas em estrela/esquemas em floco, normalização). * Familiaridade com ferramentas de orquestração de dados (Airflow/Cloud Composer) e CI/CD para pipelines de dados. * Experiência com controle de versão (Git) e ferramentas de colaboração. * Exposição a práticas de teste: UAT, testes QA, planejamento de testes, validações de dados e automação de testes é altamente desejável. * **Boa capacidade de comunicação em francês (nível B1 obrigatório)** e inglês. Habilidades interpessoais * Excelentes habilidades de resolução de problemas; * Atenção aos detalhes; * Capacidade de trabalhar de forma autônoma e em equipe; * Mentalidade colaborativa, com capacidade de explicar conceitos técnicos complexos a partes interessadas não técnicas; * Postura proativa, com fortes hábitos de documentação e capacidade de gerenciar múltiplas prioridades. **Somente serão considerados currículos em inglês.** **Informações adicionais** Nosso ambiente de trabalho reflete o espírito vibrante de nossos locais, com iniciativas como orçamento para transporte verde, bicicletas elétricas e política flexível de trabalho híbrido. Promovemos o bem-estar por meio do Honolulu Wellness Club, sala de orações, sala de amamentação e vilarejos temáticos que inspiram criatividade e colaboração. Por meio de nossas estratégias ESG e DEI, comprometemo-nos a ser inclusivos, solidários e justos, garantindo que todas as vozes sejam ouvidas e valorizadas.


