Vous êtes habitué à travailler aussi bien avec des méta-données qu’avec des données non-structurées. À cet effet, vous maîtrisez un ou plusieurs des concepts suivants : l’ETL, le Data mining, le Machine learning, les Big Data ou encore la Théorie des graphes.
Vous maîtrisez les bases de l’analyse statistique.
Vous êtes apte à rédiger des scripts en Python et/ou R, et une connaissance d'autres langages de programmation comme Java, Scala ou SAS est un plus.
Vous êtes familiarisé avec l’environnement Linux.
Une expérience avec les outils de stockage de fichiers volumineux (HDFS, Data Lake, S3, stockage Blob), la connaissance des infrastructures cloud AWS ou GCP, et des bases en streaming temps réel seront aussi de réels atouts.
Voici les responsabilités principales :
* Participer à la définition des besoins et à la rédaction des User Stories.
* Collaborer avec les Data Scientists au développement des modules d’analyse de données.
* Concevoir et construire des architectures de données.
* Intégrer des sources de données.
* Assurer que les données sont facilement accessibles et que leur exploitation fonctionne comme demandé, même dans des circonstances hautement évolutives.
* Exécuter des processus ETL (extraire / transformer / charger) à partir d'ensembles de données complexes et/ou volumineux.
#J-18808-Ljbffr
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.