Titre du poste : Développeur/Développeur senior (Mainframe Spark/Scala) Expérience requise : 4 à 30 ans d'expérience
Langue : Français natif ou équivalent
Nous recherchons un ingénieur principal mainframe et Spark/Scala expérimenté, possédant entre 4 et 30 ans d'expertise dans les technologies mainframe (COBOL, CICS, JCL, DB2, etc.) Ce poste d'ingénieur comprend la conception et l'optimisation de solutions de traitement de données, l'intégration de systèmes mainframe aux plateformes Big Data modernes, l'encadrement d'équipes d'ingénierie et la fourniture d'applications robustes et évolutives.
Leadership technique : Guider la conception et la mise en œuvre de solutions de données reliant les systèmes mainframe et les plateformes Big Data modernes grâce à Spark et Scala.
Conception système : Concevoir des solutions hybrides combinant le traitement mainframe (par exemple, COBOL, CICS, JCL) avec des pipelines de données distribués basés sur Apache Spark et Scala.
Big Data Pipelines : Créer et optimiser des pipelines de données à grande échelle grâce à Apache Spark et Scala pour le traitement par lots et en temps réel.
Intégration : Mettre en œuvre des intégrations entre les systèmes mainframe (par exemple : DB2) et les écosystèmes de données modernes, garantissant un flux de données fluide.
Optimisation des performances : Améliorer les performances, l'évolutivité et l'efficacité des flux de données mainframe et Spark.
Mentorat : Encadrer des ingénieurs juniors et intermédiaires, favoriser leur expertise dans les technologies mainframe et Big Data et promouvoir les meilleures pratiques.
Collaboration : Travailler en étroite collaboration avec les parties prenantes de l'entreprise, les architectes de données et les équipes informatiques pour aligner les solutions techniques sur les objectifs de l'organisation.
Formation : License en informatique, en ingénierie ou dans un domaine équivalent (ou expérience équivalente).
Expérience professionnelle en ingénierie logicielle, avec au moins 4 ans d'expérience en développement mainframe (par exemple, COBOL, CICS, JCL, DB2).
Expérience pratique avec Apache Spark et Scala pour le traitement de données à grande échelle.
Expérience en intégration de systèmes mainframe avec des plateformes de données modernes.
Compétences techniques
Excellente maîtrise des technologies mainframe, notamment COBOL, CICS, JCL et DB2.
Expertise avec Apache Spark et Scala pour le traitement et l'analyse de données distribuées.
Connaissance des techniques d'intégration mainframe, notamment des transferts de fichiers, des API et des middleware (par exemple : IBM WebSphere, MQ).
Bonne compréhension des architectures de pipeline de données, du traitement par lots et du streaming en temps réel.
Maîtrise des systèmes de contrôle de version (par exemple : Git) et des pratiques CI/CD.
Compréhension de l'architecture d'entreprise et des concepts d'entreposage de données.
Certifications en technologies mainframe (par exemple : IBM Certified System Administrator) ou en plateformes Big Data (par exemple, Databricks Certified Associate).
Expérience avec d'autres outils Big Data (par exemple : Hadoop, Kafka ou Hive).
Maîtrise des plateformes de données cloud (par exemple : AWS EMR, Azure Databricks).
Connaissance des méthodologies Agile/Scrum et expérience en planification de sprints.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.