Description du poste
Contexte
Intégration au sein de l'IA Factory en qualité de Data Ingénieur spécialisé ODM, avec pour objectif de renforcer les capacités de modélisation et d'automatisation des règles métier.
Dans le cadre de l'accélération de l'intelligence artificielle au sein de la banque commerciale en France d'une grande banque internationale.
Missions
* Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée.
* Responsable de la mise en œuvre du pipeline d’ingestion des données brutes (Data Lake ou autre).
* Assurer l'industrialisation, la supervision et l'intégration des solutions ou des données en garantissant l'engagement de service de l'environnement de production.
* Rédaction et formalisation des règles métier.
* Test, recette et validation des règles métier développées.
* Maintenance et évolution des règles au sein des outils de Rule Designer et Décision Center.
* Analyse des besoins fonctionnels et modélisation des processus décisionnels.
* Assistance au PO proxy (aide pour planifier les ateliers, rédaction de certains documents projets…).
* Animation et structuration des ateliers de travail, rédaction des comptes rendus et livrables associés.
Outils & Environnement
* Expertise SQL / NO SQL.
* Gestion des flux de données en temps réel pour alimenter les modèles IA.
* Expertise Ecosystem zoo Hadoop.
* Connaissance / Maîtrise Data.
* Connaissance / Maîtrise technique de l’environnement DevOps.
* Maîtrise technique de l'environnement Data.
* Expertise couche d'accès et d’échange (Kafka, Nifi, …).
* Expertise Java, Scala, Python, Hive, Spark.
* Expertise ETL, Bash.
* Expertise confirmée en développement Java / ODM (IBM ODM).
* Connaissance de Apache SPARK est un atout supplémentaire.
Profil recherché
1. 6 ans et plus d'expérience dans l'environnement de la prestation
2. Expertise confirmée en développement Java / ODM (IBM ODM)
3. Polyvalence fonctionnelle : capacité à animer et structurer des ateliers de travail, rédiger les comptes rendus et livrables associés
4. Assistance au PO proxy (aide pour planifier les ateliers, rédaction de certains documents projets…)
5. Connaissance de Apache SPARK est un atout supplémentaire
6. Expertise SQL / NO SQL
7. Expertise Ecosystem zoo Hadoop
8. Maîtrise technique de l'environnement Data
9. Expertise Couche d'accès et d‘échange (Kafka, Nifi, …)
10. Expertise Java, Scala, Python, Hive, Spark
11. Expertise ETL, Bash
12. Connaissance / Maîtrise technique de l’environnement DevOps
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.