Au sein de notre équipe, vous serez amené à travailler avec des technologies comme Hadoop, Spark et Java et serez impliqué dans la gestion et l'analyse de grandes quantités de données.
La Surveillance des performances : Suivre les performances des traitements, ajuster les configurations du cluster Hadoop ou Spark, et optimiser les jobs pour réduire les temps de traitement et les coûts.
La Scalabilité : Assurer que les solutions Big Data peuvent évoluer au fur et à mesure que les volumes de données augmentent.
Assurer la sécurité des données et la conformité aux réglementations (comme le RGPD en Europe) est également crucial pour :
La Gestion des accès : Implémenter des mécanismes de sécurité pour contrôler l'accès aux données et garantir que les utilisateurs autorisés peuvent accéder à certaines ressources dans l'écosystème Hadoop ou Spark.
Le Chiffrement et protection des données sensibles.
avez une bonne connaissance de l'environnement GCP et la réalisation d'une migration Hadoop / Spark dans GCP
avez un diplôme d'ingénieur (niveau BAC+5) ;
maîtrisez l'anglais de manière courante ;
avez une expérience de minimum 5 années.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.