Será responsável por projetar, desenvolver e manter pipelines de dados eficientes para a extração, ingestão e transformação de dados provenientes de fontes como SAP S4, SAP ECC, APIs, flat files e outras fontes de dados comuns. O profissional trabalhará principalmente com Databricks e ferramentas de ETL, garantindo a integração e a qualidade dos dados dentro de um ambiente corporativo dinâmico. Foco em fontes, público e processosdas áreas de supply chain e industria.
Mandatório:
Databricks/Azure
ADF
Kafka (domínio mediano) trabalhando com medalia, armazenando em delta lake, unity catalog (participará da implementação)
SALÁRIO E BENEFÍCIOS
ESPECIFICAÇÕES
Área: Dados Cargo: Engenheiro Plataforma: Python Especialidade: ETL Nível: Senior