Depuis 25 ans, ALFI apporte son expertise aux institutions financières, à leurs DSI et Directions Métiers pour mener à bien leurs projets de transformation. Spécialistes des enjeux financiers et technologiques, nous aidons nos clients à repenser leurs modèles, optimiser leurs processus et intégrer des solutions innovantes adaptées aux évolutions du secteur.
Nous nous distinguons par notre double compétence technique et fonctionnelle, qui nous permet d’intervenir auprès des Banques de Financement et d’Investissement (BFI), Asset Managers, Banques de Détail et Compagnies d’Assurance, sur des projets exigeants de digitalisation et d’optimisation de la performance.
Nos expertises
Nos 200 consultants apportent leur savoir-faire sur trois grands piliers :
· Pilotage de projet : Direction de programme, chefferie de projet, maîtrise d’ouvrage…
· IT : Développement Full-Stack (Java, C#, Angular, React), DevOps, Infrastructure réseau et système, Architecture Cloud (AWS, Azure), Data science…
· Finance & Risques : Finance de marché, Corporate Banking, Risk Management…
Pourquoi nous rejoindre ?
Au sein de la communauté ALFI, l’humain est au cœur de notre réussite. Nous croyons en l’ingéniosité, l’initiative et le partage des connaissances pour accompagner nos talents vers l’excellence. Un suivi personnalisé et une politique de formation exigeante permettent à chacun de monter en compétences et d’évoluer sur des missions stimulantes et structurantes.
Un secteur en mutation, des défis à relever
Pour répondre aux défis du marché et accompagner nos clients dans leurs ambitions, nous renforçons nos équipes de Data Engineer en CDI, prêts à s’investir sur des projets innovants et à fort impact.
Vos missions
Au sein de l’équipe Data, vous interviendrez sur l’ensemble de la chaîne de traitement des données :
* Concevoir, développer et maintenir des pipelines de données robustes (ETL/ELT)
* Développer des traitements data en Python, SQL, Spark / PySpark
* Optimiser les performances des flux de données (volumétrie, latence, coûts)
* Intégrer des données provenant de sources multiples (bases relationnelles, APIs, fichiers, etc.)
* Garantir la qualité, la fiabilité et la traçabilité des données
* Participer à la définition de l’architecture data et aux choix technologiques
* Collaborer étroitement avec les équipes Data Science, BI et Métiers
* Documenter les développements et partager les bonnes pratiques
Votre profil
* A partir de 5 ans d’expérience
* Excellente maîtrise de Python et SQL
* Expérience solide sur Spark / PySpark
* Très bonne connaissance des flux ETL/ELT et de leur industrialisation
* À l’aise avec les environnements Big Data et les traitements distribués
* Sensibilité aux enjeux de performance, de qualité et de sécurité des données
* Autonomie, rigueur et esprit d’équipe
* Capacité à comprendre les besoins métiers et à les traduire en solutions techniques
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.