Titre du poste : Développeur/Développeur senior (Mainframe Spark/Scala)
Expérience requise : 4 à 30 ans d’expérience
Lieu : Paris, France
Langue : Français natif ou équivalent
Description du poste
Nous recherchons un ingénieur principal mainframe et Spark/Scala expérimenté, possédant entre 4 et 30 ans d'expertise dans les technologies mainframe (COBOL, CICS, JCL, DB2, etc.) et Apache Spark avec Scala. Ce poste d’ingénieur comprend la conception et l'optimisation de solutions de traitement de données, l'intégration de systèmes mainframe aux plateformes Big Data modernes, l'encadrement d'équipes d'ingénierie et la fourniture d'applications robustes et évolutives.
Principales responsabilités
Leadership technique : Guider la conception et la mise en œuvre de solutions de données reliant les systèmes mainframe et les plateformes Big Data modernes grâce à Spark et Scala.
Conception système : Concevoir des solutions hybrides combinant le traitement mainframe (par exemple, COBOL, CICS, JCL) avec des pipelines de données distribués basés sur Apache Spark et Scala.
Développement mainframe : Développer et optimiser des applications mainframe, garantissant fiabilité et performances dans des environnements à fort trafic.
Big Data Pipelines : Créer et optimiser des pipelines de données à grande échelle grâce à Apache Spark et Scala pour le traitement par lots et en temps réel.
Intégration : Mettre en œuvre des intégrations entre les systèmes mainframe (par exemple : DB2) et les écosystèmes de données modernes, garantissant un flux de données fluide.
Optimisation des performances : Améliorer les performances, l’évolutivité et l’efficacité des flux de données mainframe et Spark.
Mentorat : Encadrer des ingénieurs juniors et intermédiaires, favoriser leur expertise dans les technologies mainframe et Big Data et promouvoir les meilleures pratiques.
Collaboration : Travailler en étroite collaboration avec les parties prenantes de l'entreprise, les architectes de données et les équipes informatiques pour aligner les solutions techniques sur les objectifs de l'organisation.
Qualité du code : Appliquer des normes élevées de qualité, de sécurité et de maintenabilité du code grâce à des revues, des tests et une gouvernance du code.
Fiabilité du système : Surveiller et résoudre les problèmes de production sur les systèmes mainframe et distribués afin de garantir la disponibilité et les performances.
Qualifications requises
Formation : License en informatique, en ingénierie ou dans un domaine équivalent (ou expérience équivalente).
Expérience
Expérience professionnelle en ingénierie logicielle, avec au moins 4 ans d'expérience en développement mainframe (par exemple, COBOL, CICS, JCL, DB2).
Expérience pratique avec Apache Spark et Scala pour le traitement de données à grande échelle.
Expérience en intégration de systèmes mainframe avec des plateformes de données modernes.
Compétences techniques
Excellente maîtrise des technologies mainframe, notamment COBOL, CICS, JCL et DB2.
Expertise avec Apache Spark et Scala pour le traitement et l'analyse de données distribuées.
Connaissance des techniques d'intégration mainframe, notamment des transferts de fichiers, des API et des middleware (par exemple : IBM WebSphere, MQ).
Bonne compréhension des architectures de pipeline de données, du traitement par lots et du streaming en temps réel.
Maîtrise des systèmes de contrôle de version (par exemple : Git) et des pratiques CI/CD.
Compréhension de l'architecture d'entreprise et des concepts d'entreposage de données.
Compétences générales
Compétences avérées en leadership et en mentorat.
Solides compétences en résolution de problèmes et en analyse.
Excellentes capacités de communication et de gestion des parties prenantes.
Capacité à travailler efficacement dans un environnement collaboratif et dynamique.
Qualifications souhaitées
Certifications en technologies mainframe (par exemple : IBM Certified System Administrator) ou en plateformes Big Data (par exemple, Databricks Certified Associate).
Expérience avec d'autres outils Big Data (par exemple : Hadoop, Kafka ou Hive).
Maîtrise des plateformes de données cloud (par exemple : AWS EMR, Azure Databricks).
Connaissance des méthodologies Agile/Scrum et expérience en planification de sprints.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.