Description du poste
Taux journalier (TJM): 500
Contexte
La prestation doit permettre un appui externe d’un PPO qui devra être capable de piloter la refonte du projet selon ce nouveau mode de delivery.
Missions
* Piloter avec la méthode Agile la refonte du projet faisant intervenir une équipe composée d’interlocuteurs métiers (key user), UX/UI, Data Ingénieur, Ingénieur Data Viz, OPS
* Piloter le projet évolution et maintien en condition opérationnelle de l’application en production
* Animer les différentes cérémonies Agile
* Coordonner les différentes équipes (architecte, core team de la zone silver, urbaniste, UX/UI, exploitation, etc.)
* Animer des ateliers de conception technico-fonctionnels
* Suivre les charges du projet dans le respect des budgets
* Remonter des informations aux équipes de pilotage et sponsor
* Proposer des choix stratégiques
* Gérer les priorités des évolutions et du MCO
* Gérer l’obsolescence des composants de l’application
* Animer les stand-up daily et autres cérémonies agiles
* Chiffrer le backlog et ré-estimer le reste à faire
* Superviser les tests automatisés (TU/TI) et fonctionnels
* Participer aux différentes instances de pilotage de la tribu
Outils & Environnement
* Méthode Agile
* Outil JIRA pour pilotage des sprints et backlog
* Écosystème Microsoft Azure Data Factory, Azure Data Lake Store
* Technologies data : Power BI, Spark, Python, Scala
* Architecture en couche de traitement du Big Data
* Base de données : SQL et modélisation de la donnée
* Systèmes de traitement Data : Databricks
* Outils de déploiement : Jenkins, Git, Maven, Ansible
Conditions de travail
* Expérience : plus de 7 ans
* Localisation : Paris
* Démarrage : ASAP
Profil recherché
1. Plus de 7 ans d'expérience en gestion de projet
2. Maîtrise du pilotage de projet avec la méthode Agile
3. Compétences en analyse des besoins et rédaction des users stories
4. Expérience dans le pilotage des sprints et gestion des backlog avec l’outil JIRA
5. Maîtrise de l’écosystème Microsoft Azure Data Factory et Azure Data Lake Store
6. Maîtrise des technologies autour de la data : Power BI, Spark, Python, Scala
7. Connaissance des bonnes pratiques de développement et des méthodes agiles
8. Maîtrise de l’architecture en couche de traitement du Big Data
9. Compétences en base de données SQL et modélisation de la donnée
10. Connaissance des systèmes de traitement Data comme Databricks
11. Connaissance des outils de déploiement : Jenkins, Git, Maven, Ansible
12. Qualités relationnelles et capacité à gérer de nombreuses interactions
13. Dynamisme, leadership, autonomie et envie de découvrir des manières différentes/innovantes de faire
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.