A PROPOS DU POSTE Vous intégrerez notre practice Data & IA, qui intervient sur des projets de transformation data dans plusieurs secteurs : banque, assurance, industrie et life sciences. Dans le cadre de cette annonce, nous sommes spécifiquement sollicités par un client grand compte du secteur banque et finance, auprès de plusieurs de ses entités. Référencé auprès de ce client, nous intervenons déjà sur des sujets comme la refonte de plateformes Big Data, la mise en place de pipelines temps réel ou la modernisation d'environnements distribués en contexte réglementaire. Ce poste est ouvert en CDI uniquement — aucun statut freelance ne pourra être considéré. Il s'agit d'un recrutement sur mission : un entretien avec le client fait partie du processus de sélection. Disponibilité idéale sous un mois, à discuter selon votre situation et les délais du projet. VOS MISSIONS PRINCIPALES Développer et maintenir des pipelines de données batch et streaming sur des environnements distribués à forte volumétrie Optimiser les traitements Spark en production : performance, fiabilité, coût Intégrer des flux temps réel via Kafka sur des cas d'usage métier (conformité, reporting, alimentation de datamarts) Contribuer à l'évolution technique de la plateforme data : composants, architecture, bonnes pratiques Travailler en mode Agile au sein d'équipes pluridisciplinaires IT et métiers Documenter les développements et assurer la continuité opérationnelle avec les équipes run CE DONT VOUS AVEZ BESOIN POUR ETRE RETENU(E) Formation et expérience Bac5 ingénieur ou université (informatique, data, mathématiques appliquées) 6 à 10 ans d'expérience en ingénierie data, hors stages et alternance Compétences techniques Traitement et pipelines : Spark (PySpark / Scala), Python, Kafka, SQL Environnements distribués : Hadoop (HDFS, YARN, Hive) Bases de données : NoSQL (Cassandra, MongoDB ou équivalent) Cloud : Azure (ADLS, Synapse, ADF) ou AWS (S3, Glue, EMR) Outils : Databricks, Airflow ou équivalent Rôle et posture Autonomie sur les sujets techniques confiés Anglais opérationnel requis — l'équipe client est mixte et internationale CE QUI FERA LA DIFFERENCE Expérience sur des projets en secteur bancaire ou financier (conformité, reporting réglementaire, datamarts). Connaissance de Snowflake ou Databricks Certifications cloud ou data (Azure, AWS, Databricks, Cloudera) Pratique des outils CI/CD : Git, Jenkins ou Azure DevOps Vous ne répondez pas à l'ensemble des critères ? Postulez quand même. Ce qui compte : une maîtrise technique solide des environnements distribués et la capacité à produire en autonomie. MODELE DE TRAVAIL Chez Cognizant, nous privilégions le modèle hybride et nous nous efforçons d'offrir autant de flexibilité que possible. Ce poste requiert une présence de 3 jours par semaine dans les locaux du client ou de Cognizant en Ile-de-France. Quel que soit votre mode de travail, nous soutenons un équilibre vie professionnelle / vie personnelle. Les modalités de travail sont exactes à la date de publication et peuvent évoluer selon le projet et les besoins du client. Nous restons transparents sur les attentes liées au poste.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.