Description du poste
LEntreprise CAL&F et la Direction des Systèmes dInformation et de la Digitalisation (DSID)
Au sein de CAL&F, vous rejoindrez les 130 collaborateurs passionnés de la DSID qui travaillent ensemble à un plan de transformation de lIT pour digitaliser notre organisation et les services que nous offrons. Dès 3 ans, nous offrons des opportunités de mobilité, au sein de la DSID ou du groupe Crédit Agricole.
Nous croyons en la force du collectif, chaque jour rassemblés autour de nos valeurs, de simplicité, d'optimisme et d'engagement, encourageant chacun à oser, essayer, accepter d'échouer et rebondir.
Si vous aussi vous souhaitez évoluer dans un environnement stimulant et bienveillant, vous sentir utile au quotidien, renforcer votre expertise et ouvrir le champ des possibles, nous sommes faits pour nous rencontrer !
Afin daccompagner et de contribuer à la réalisation des ambitions de développement de Crédit Agricole Leasing et Factoring (CAL&F) et de modernisation de nos systèmes dinformation au service des clients et du Groupe Crédit Agricole, la Direction des Systèmes dInformation et de la Digitalisation (DSID) recherche un(e) Tech Lead Data.
Le Data Tech Lead est le référent technique de la Data Factory.
Il conçoit, industrialise et optimise les solutions data de lentreprise, encadre techniquement les data engineers et garantit la qualité, la performance et la maintenabilité des produits livrés.
Il joue un rôle clé dans la transformation data, notamment dans le cadre de la migration des usages historiques (SAS, traitements batch) vers des solutions cloud et modernes.
Vos missions principales sont les suivantes :
1.Pilotage technique
· Définir et faire respecter les bonnes pratiques de développement, de versioning et dindustrialisation des flux data.
· Réaliser les revues de code, assurer la cohérence et la robustesse technique des traitements.
· Participer à la conception des architectures cibles en lien avec les architectes data et les équipes DSI.
· Contribuer à lamélioration continue des performances et de la stabilité des pipelines.
2. Conception et industrialisation
· Concevoir, développer et maintenir des pipelines de collecte, de transformation et de diffusion des données (ETL/ELT).
· Mettre en œuvre les solutions dorchestration et dautomatisation .
· Participer à la migration des flux SAS vers des solutions cloud modernes (ex. Snowflake).
· Veiller à la documentation, à la supervision et au monitoring des traitements.
3. Encadrement et accompagnement
· Accompagner techniquement les data engineers dans leurs développements et leur montée en compétence.
· Promouvoir les bonnes pratiques DataOps (CI/CD, tests, observabilité, monitoring).
· Faciliter les échanges entre les équipes Data, Architecture, Sécurité et Métier.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.