Créer une alerte emploi pour cette recherche
Dernière mise à jour: il y a 23 heures
Description de poste :
Au sein d'une Data Factory, vous êtes pleinement impliqué(e) dans toutes les phases de nos projets pour le compte de grands clients, contribuant ainsi à leur succès.
Vous avez l'occasion de développer vos compétences techniques et fonctionnelles de manière approfondie tout en travaillant sur des projets exigeants et passionnants pour le compte de grands clients du secteur bancaire.
C'est tentant, non ? Alors embarquez pour une nouvelle aventure professionnelle !
Vos missions :
Rattaché(e) à la division Banque, vous évoluez dans un environnement challengeant et convivial, entouré(e) de passionnés dotés d'expertises dans leurs domaines.
En tant que Data Engineer, vous évoluez sur des projets IT à forte valeur ajoutée et avez pour rôle la mise en place de pipelines de données fiables, sécurisés et à l'échelle pour soutenir la mise à disposition des données aux cas d'usage métier qui en ont besoin.
Vos activités principales sont les suivantes :
* Vous travaillez avec le client pour évaluer, concevoir, déployer, améliorer et maintenir les pipelines de données.
* Vous vous assurez que les pipelines de données créés sont résilients, sécurisés et accessibles.
* Vous définissez le modèle opérationnel pour monitorer et supporter les pipelines de données.
* Vous fournissez une expertise à nos clients sur leurs données pour assurer leur optimisation et leur sécurité par rapport à leurs besoins.
* Vous apportez un savoir en gestion de la qualité et la gouvernance de la donnée pour assurer le suivi de la conformité à la gouvernance de la donnée.
* Vous faites de la veille technologique dans le domaine afin d'enrichir les roadmaps technologiques et fournir des solutions modernes à nos clients.
Qualifications :
Diplômé(e) d'une formation supérieure en informatique (type Bac +5, école d'ingénieur, université ou équivalent), vous avez déjà acquis une expérience significative en data engineering.
Vous avez au moins l'une de ces compétences requises :
* Maîtrise des technologies de bases de données relationnelles et NoSQL.
* Maîtrise d'au moins un outil d'ETL / ELT (Stambia, Informatica, Datastage, etc.).
* Maîtrise des technologies de traitement distribué de données (Spark, Hadoop).
* Maîtrise d'au moins un framework de streaming de données (Kafka, RabbitMQ, etc.).
* Maîtrise de chaînes CI / CD et des bonnes pratiques de DataOps.
* Maîtrise de solutions de virtualisation de données (Denodo, Dremio, etc.).
* Maîtrise d'au moins un environnement cloud public ou privé (Azure, AWS, Outscale, etc.).
* Vous avez développé de solides compétences en matière d'autonomie, d'adaptabilité et de communication.
Informations supplémentaires :
* Un accord de télétravail pour télétravailler jusqu'à 2 jours par semaine selon vos missions.
* Un package avantages intéressant : une mutuelle, un CSE, des titres restaurants, un accord d'intéressement, des primes vacances et cooptation.
* Des opportunités de carrières multiples : plus de 30 familles de métiers, autant de passerelles à imaginer ensemble.
* Plusieurs centaines de formations accessibles en toute autonomie avec Sopra Steria Academy.
* La possibilité de s'engager auprès de notre fondation ou de notre partenaire Vendredi.
* L'opportunité de rejoindre le collectif TechMe UP (formations, conférences, veille et bien plus encore).
LIHYBRID#TASKFORCE
Employeur inclusif et engagé, notre société œuvre chaque jour pour lutter contre toute forme de discrimination et favoriser un environnement de travail respectueux. C'est pourquoi, attachés à la mixité et la diversité, nous encourageons toutes les candidatures et tous les profils.
Work : Employment Type :
Fulltime
Key Skills : Apache Hive, S3, Hadoop, Redshift, Spark, AWS, Apache Pig, NoSQL, Big Data, Data Warehouse, Kafka, Scala
Experience : years
Vacancy : 1
#J-18808-Ljbffr
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.