





O que vais fazer?* Utilizar conhecimentos especializados em serviços AWS como Lambda, Glue e Step Functions para desenhar, implementar e manter soluções de dados escaláveis; * Desenvolver arquiteturas de soluções robustas, considerando escalabilidade, performance, segurança e otimização de custos; * Demonstrar proficiência em redes na cloud, incluindo VPCs, sub\-redes, security groups e tabelas de routing; * Desenhar modelos de dados eficientes para otimizar a performance de queries; * Escrever e otimizar queries em SQL, identificando potenciais gargalos de performance; * Gerir processos ETL e integração de dados em Redshift, MySQL e PostgreSQL; * Criar documentação e formar os membros da equipa; * Configurar e gerir mecanismos de logging e tracing na AWS através de serviços como AWS CloudTrail e AWS X\-Ray; * Implementar soluções de orquestração com Apache Airflow e AWS Step Functions; * Utilizar o Athena para análise interativa de grandes volumes de dados no Amazon S3; * Fornecer liderança técnica e atuar como especialista em AWS e tecnologias de data engineering; * Elaborar documentação técnica e de soluções de forma completa; * Manter\-se atualizado sobre novas tecnologias e tendências de mercado; * Desafiar requisitos de negócio e propor soluções inovadoras para melhorar eficiência e performance. O que procuramos?* Especialização em AWS: Experiência sólida com serviços AWS, incluindo Lambda, Glue, Step Functions, CloudFormation e CloudWatch; * Conhecimentos de Arquitetura de Soluções: Capacidade de desenhar soluções de dados escaláveis e eficientes em AWS, seguindo boas práticas de arquitetura cloud; * Proeficiência em Python e Bases de Dados: Competências avançadas em programação Python e experiência com bases relacionais (MySQL, PostgreSQL, Redshift) e NoSQL; * Orquestração e Gestão de Workflows: Experiência com ferramentas de orquestração como Apache Airflow e AWS Step Functions para automação e gestão de pipelines de dados; * Ferramentas ETL e Big Data: Conhecimento em ferramentas ETL e experiência em lidar com grandes volumes de dados (valorizada experiência com Kafka); * Experiência com Tabelas Iceberg: Familiaridade com tabelas Iceberg para gestão eficiente de datasets de larga escala, garantindo consistência e suporte a transações ACID; * Consciência de Produção e Troubleshooting: Abordagem proativa à monitorização e resolução de problemas em produção, antecipando e mitigando riscos; * Liderança Técnica e Comunicação: Capacidade de evoluir para um papel de tech lead, com excelentes competências de comunicação e trabalho em equipa; * Competências Analíticas e de Resolução de Problemas: Capacidade de analisar requisitos, definir abordagens técnicas e propor soluções inovadoras para problemas complexos; * Documentação e Análise de Requisitos: Experiência na redação de documentação técnica e de soluções, com capacidade de questionar e refinar requisitos de negócio; * Conhecimentos de Azure Databricks: Familiaridade com Databricks para tarefas de data engineering e analytics.


