Poste :
Au sein de notre équipe, vous serez amené à travailler avec des technologies comme Hadoop, Spark et Java et serez impliqué dans la gestion et l'analyse de grandes quantités de données.
* La Surveillance des performances : Suivre les performances des traitements, ajuster les configurations du cluster Hadoop ou Spark, et optimiser les jobs pour réduire les temps de traitement et les coûts.
* La Scalabilité : Assurer que les solutions Big Data peuvent évoluer au fur et à mesure que les volumes de données augmentent.
Assurer la sécurité des données et la conformité aux réglementations (comme le RGPD en Europe) est également crucial pour :
* La Gestion des accès : Implémenter des mécanismes de sécurité pour contrôler l'accès aux données et garantir que les utilisateurs autorisés peuvent accéder à certaines ressources dans l'écosystème Hadoop ou Spark.
* Le Chiffrement et protection des données sensibles.
Profil :
* avez une bonne connaissance de l’environnement GCP et la réalisation d’une migration Hadoop / Spark dans GCP
* avez un diplôme d'ingénieur (niveau BAC+5) ;
* maîtrisez l'anglais de manière courante ;
* avez une expérience de minimum 5 années.
Entreprise : Depuis 1988, nous intervenons au cœur des grandes transformations numériques mondiales et accompagnons nos clients avec le même niveau d’expertise et de valeur ajoutée partout où ils se trouvent. Jour après jour, nous nous appuyons sur un business-model agile et sur l’expertise technique approfondie de nos consultants et ingénieurs. Guidés par des valeurs fortes telles que l’audace, l’agilité, l’excellence, la fiabilité et l’esprit d’équipe, nous sommes tous animés par le même objectif : tirer le meilleur de la technologie pour construire un avenir durable.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.