Votre rôle s'articulera autour des responsabilités suivantes, dans un environnement Big Data riche :
-Mettre en place la collecte et la mise à disposition des données au sein de l'entreprise.
-Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent.
-Maîtriser l'utilisation avancée des données et réaliser des projets décisionnels, datamining, et data management.
-Assurer le développement et l'industrialisation des applications utilisant une grosse volumétrie.
-Analyser les besoins clients.
-Avoir une approche analytique, statistique ou encore en "Machine Learning".
-Concevoir et réaliser des solutions Big Data (Collecter, transformer, analyser et visualiser des données sur une large volumétrie avec un niveau de performance élevé).
-Acheminement de la donnée et mise à disposition aux équipes utilisatrices.
-Mise en production de modèles statistiques et suivi de projet de développement.
-Développement de job Spark.
-Traitement et ingestion de plusieurs formats de données.
-Développement des scripts.
-Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données.
-Développement des moyens de restitution via génération de fichier et/ou API & Dashboarding.
-Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers.
-Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs de prétraitement des données et de calcul des indicateurs de performance (KPI).
-Développer des API génériques d'ingestion et de traitement de données dans un environnement HDP.
-Participer à la conception, mise en place et administration de solutions Big Data.
-Participation à l'installation, administration et configuration des Hadoop clusters.
-Mise en place en Spring Boot des services d'extraction de data du système legacy (TeraData), la data sera par la suite envoyée au data lake via des topics Kafka.
-Normalisation et agrégation des données afin de produire les rapports sous forme de Business View.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.