Experiência avançada em processos de ingestão e transformação de dados (ETL/ELT) utilizando ferramentas como Pentaho, DataStage, Apache NiFi, Sqoop e Apache Spark;
Conhecimento avançado em SQL, incluindo capacidade comprovada na criação, manutenção e otimização de consultas complexas, performance tuning e troubleshooting;
Sólida experiência em desenvolvimento e automação de pipelines de dados utilizando Python, com domínio em bibliotecas como PySpark, Pandas, NumPy e frameworks associados;
Experiência prática e avançada em ambientes de Databricks, incluindo clusters, gerenciamento de workspaces, notebooks e jobs automáticos;
Capacidade comprovada em gerenciar e sustentar infraestrutura de dados em nuvens públicas como Azure e AWS (Data Factory, Storage Accounts, S3, EC2, IAM, Lambda, entre outros
serviços);
Experiência com ferramentas e metodologias modernas de integração contínua e entrega contínua (CI/CD), versionamento de código (Git) e práticas de governança de dados;
Familiaridade com conceitos avançados de engenharia de dados, tais como modelagem dimensional (star schema, snowflake schema), data lakes, data lakehouse, arquitetura orientada a
eventos e streaming;
Desejável experiência em criação e manutenção de dashboards utilizando Power BI integrado ao Databricks;
Perfil analítico, capacidade de solução de problemas complexos, boa comunicação e autonomia para trabalhar com equipes técnicas e funcionais em múltiplas frentes simultâneas.