Concevoir et développer des pipelines de traitement de données (ETL/ELT) sur Databricks.
Intégrer et transformer des données issues de différentes sources (API, bases SQL/NoSQL, fichiers, data lakes, etc.).
Mettre en place des workflows automatisés et orchestrés (via Azure Data Factory, Airflow, ou Databricks Workflows).
Optimiser les performances des jobs Spark et la consommation des clusters.
Participer à la modélisation des données (Data Lake / Delta Lake / Data Warehouse).
Assurer la qualité, la sécurité et la gouvernance des données (contrôles, documentation, catalogage).
Collaborer avec les Data Scientists, Analysts et Architectes pour garantir la cohérence et la fiabilité des environnements data.
Surveiller et maintenir la plateforme Databricks en production (monitoring, troubleshooting, coûts).
Profil candidat:
Formation Bac +5 (école d?ingénieurs ou université) en informatique, data engineering ou équivalent.
Expérience confirmée (2 à 5 ans minimum) en développement de pipelines data sur Databricks.
Bonne compréhension des architectures cloud (Azure, AWS ou GCP).
Esprit d?équipe, rigueur, sens de la documentation et de la performance.
Le poste est soumis à l'obtention d'une habilitation.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.