A PROPOS DU POSTE
Vous intégrerez notre practice Data & IA, qui intervient sur des projets de transformation data dans plusieurs secteurs : banque, assurance, industrie et life sciences. Dans le cadre de cette annonce, nous sommes spécifiquement sollicités par un client grand compte du secteur banque et finance, auprès de plusieurs de ses entités.
Référencé auprès de ce client, nous intervenons déjà sur des sujets comme la refonte de plateformes Big Data, la mise en place de pipelines temps réel ou la modernisation d'environnements distribués en contexte réglementaire.
Ce poste est ouvert en CDI uniquement — aucun statut freelance ne pourra être considéré.
Il s'agit d'un recrutement sur mission : un entretien avec le client fait partie du processus de sélection.
Disponibilité idéale sous un mois, à discuter selon votre situation et les délais du projet.
VOS MISSIONS PRINCIPALES
* Développer et maintenir des pipelines de données batch et streaming sur des environnements distribués à forte volumétrie
* Optimiser les traitements Spark en production : performance, fiabilité, coût
* Intégrer des flux temps réel via Kafka sur des cas d'usage métier (conformité, reporting, alimentation de datamarts)
* Contribuer à l'évolution technique de la plateforme data : composants, architecture, bonnes pratiques
* Travailler en mode Agile au sein d'équipes pluridisciplinaires IT et métiers
* Documenter les développements et assurer la continuité opérationnelle avec les équipes run
CE DONT VOUS AVEZ BESOIN POUR ETRE RETENU(E)
Formation et expérience
* Bac+5 ingénieur ou université (informatique, data, mathématiques appliquées)
* 6 à 10 ans d'expérience en ingénierie data, hors stages et alternance
Compétences techniques
* Traitement et pipelines : Spark (PySpark / Scala), Python, Kafka, SQL
* Environnements distribués : Hadoop (HDFS, YARN, Hive)
* Bases de données : NoSQL (Cassandra, MongoDB ou équivalent)
* Cloud : Azure (ADLS, Synapse, ADF) ou AWS (S3, Glue, EMR)
* Outils : Databricks, Airflow ou équivalent
Rôle et posture
* Autonomie sur les sujets techniques confiés
* Anglais opérationnel requis — l'équipe client est mixte et internationale
CE QUI FERA LA DIFFERENCE
* Expérience sur des projets en secteur bancaire ou financier (conformité, reporting réglementaire, datamarts).
* Connaissance de Snowflake ou Databricks
* Certifications cloud ou data (Azure, AWS, Databricks, Cloudera)
* Pratique des outils CI/CD : Git, Jenkins ou Azure DevOps
Vous ne répondez pas à l'ensemble des critères ? Postulez quand même. Ce qui compte : une maîtrise technique solide des environnements distribués et la capacité à produire en autonomie.
MODELE DE TRAVAIL
Chez Cognizant, nous privilégions le modèle hybride et nous nous efforçons d'offrir autant de flexibilité que possible. Ce poste requiert une présence de 3 jours par semaine dans les locaux du client ou de Cognizant en Ile-de-France. Quel que soit votre mode de travail, nous soutenons un équilibre vie professionnelle / vie personnelle.
Les modalités de travail sont exactes à la date de publication et peuvent évoluer selon le projet et les besoins du client. Nous restons transparents sur les attentes liées au poste.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.