Description du poste
* Concevoir et développer de pipelines de données, en créant des systèmes robustes afin de collecter, traiter et stocker les données.
* Optimiser les flux de données pour améliorer l'efficacité et la performance
* Gérer les infrastructures de base données SQL et NoSQL dans des environnement Cloud GCP ou AWS selon les principes CI/CD
* Intégrer les données en développant des processus ETL et en s’assurant de l’interopérabilité entre différents systèmes et sources de données.
* Être garant de la qualité des données : implémenter des contrôles de qualité et de cohérence des données, des processus de nettoyage et de validation des données
* Echanger avec l’ensemble de l’équipe Data (Scientist et Analyst) pour accompagner et répondre aux besoins des métiers
* Environnement technique : SQL/NoSQL, ETL, GCP ou AWS, Bigquery, Looker Studio, PowerBI, Spark, Terraform, Github, Docker et Kubernetes
Qualifications
* Vous possédez déjà une solide expérience de 4 ans en Data dans des environnements cloud GCP/AWS et DevOps
* Orienté solution vous êtes également bon communiquant et pédagogue envers les équipes
* Maîtrisez des compétences en programmation (Python, SQL, etc.), en gestion de bases de données et en ingénierie logicielle.
* La connaissance des architectures Big Data est essentielle.
* Vous êtes curieux et faites de la veille sur les méthodes de développement, technologies et architectures
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.