Cognizant (NASDAQ-100 : CTSH) est l’une des principales sociétés de conseil et de services dans le monde. Elle accompagne les entreprises dans leur transformation stratégique, opérationnelle et technologique à l’ère du digital. Avec son approche unique par le métier et le conseil, Cognizant aide ses clients à envisager, concevoir et opérer leurs activités d’une façon plus innovante et efficace. Son siège social se trouve aux Etats-Unis. Cognizant est 230ème au classement du Fortune 500 et fait partie du « Fortune Magazine’s World’s Most Admired Companies ». Plus d’informations sur la façon dont Cognizant aide ses clients à devenir des leaders de leurs marchés grâce au digital sur http://cognizantcareers.eu/fr_fr A PROPOS DU POSTE
Vous intégrerez notre practice Data & IA, qui intervient sur des projets de transformation data dans plusieurs secteurs : banque, assurance, industrie et life sciences. Dans le cadre de cette annonce, nous sommes spécifiquement sollicités par un client grand compte du secteur banque et finance, auprès de plusieurs de ses entités.
Référencé auprès de ce client, nous intervenons déjà sur des sujets comme la refonte de plateformes Big Data, la mise en place de pipelines temps réel ou la modernisation d'environnements distribués en contexte réglementaire.
Ce poste est ouvert en CDI uniquement — aucun statut freelance ne pourra être considéré.
Il s'agit d'un recrutement sur mission : un entretien avec le client fait partie du processus de sélection.
Disponibilité idéale sous un mois, à discuter selon votre situation et les délais du projet.
VOS MISSIONS PRINCIPALES
* Développer et maintenir des pipelines de données batch et streaming sur des environnements distribués à forte volumétrie
* Optimiser les traitements Spark en production : performance, fiabilité, coût
* Intégrer des flux temps réel via Kafka sur des cas d'usage métier (conformité, reporting, alimentation de datamarts)
* Contribuer à l'évolution technique de la plateforme data : composants, architecture, bonnes pratiques
* Travailler en mode Agile au sein d'équipes pluridisciplinaires IT et métiers
* Documenter les développements et assurer la continuité opérationnelle avec les équipes run
CE DONT VOUS AVEZ BESOIN POUR ETRE RETENU(E)
Formation et expérience
* Bac+5 ingénieur ou université (informatique, data, mathématiques appliquées)
* 6 à 10 ans d'expérience en ingénierie data, hors stages et alternance
Compétences techniques
* Traitement et pipelines : Spark (PySpark / Scala), Python, Kafka, SQL
* Environnements distribués : Hadoop (HDFS, YARN, Hive)
* Bases de données : NoSQL (Cassandra, MongoDB ou équivalent)
* Cloud : Azure (ADLS, Synapse, ADF) ou AWS (S3, Glue, EMR)
* Outils : Databricks, Airflow ou équivalent
Rôle et posture
* Autonomie sur les sujets techniques confiés
* Anglais opérationnel requis — l'équipe client est mixte et internationale
CE QUI FERA LA DIFFERENCE
* Expérience sur des projets en secteur bancaire ou financier (conformité, reporting réglementaire, datamarts).
* Connaissance de Snowflake ou Databricks
* Certifications cloud ou data (Azure, AWS, Databricks, Cloudera)
* Pratique des outils CI/CD : Git, Jenkins ou Azure DevOps
Vous ne répondez pas à l'ensemble des critères ? Postulez quand même. Ce qui compte : une maîtrise technique solide des environnements distribués et la capacité à produire en autonomie.
MODELE DE TRAVAIL
Chez Cognizant, nous privilégions le modèle hybride et nous nous efforçons d'offrir autant de flexibilité que possible. Ce poste requiert une présence de 3 jours par semaine dans les locaux du client ou de Cognizant en Ile-de-France. Quel que soit votre mode de travail, nous soutenons un équilibre vie professionnelle / vie personnelle.
Les modalités de travail sont exactes à la date de publication et peuvent évoluer selon le projet et les besoins du client. Nous restons transparents sur les attentes liées au poste.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.