Job details
Job Type
Full-time
Permanent
Full Job DescriptionCDI
Temps plein
27-31 avenue du Général Leclerc, 94710 MAISONS ALFORT CEDEX
Bpifrance, une banque pas comme les autres engagée comme jamais
Bpifrance, Banque publique d'investissement, accompagne les entreprises, de l'amorçage jusqu'à la cotation en bourse, du crédit aux fonds propres.
Interlocuteur privilégié, Bpifrance propose dans chaque région des solutions de financement ou d’investissement adaptées à chaque étape de la vie des entreprises.
Bpifrance est une banque citoyenne dotée d’un code de déontologie et d’une politique anti-corruption.
Banque partenaire des entrepreneurs, Bpifrance les accompagne durablement pour soutenir leur croissance et leur compétitivité. Les équipes sont au cœur des régions, sur l’ensemble du territoire, à travers plus de 52 implantations régionales.
Rattaché directement à la direction Data au sein de Bpifrance, le profil recherché intègrera le programme de transformation autour des données et de l’Intelligence Artificielle dans un contexte de transformation globale de la DSI.
Le programme est piloté par le Chief Data Officer (CDO) sous le sponsoring de la direction Générale.
Vos missions
Le programme de transformation comporte plusieurs objectifs, dont celui de la mise en place de la plateforme Data & IA, qui a vocation à devenir le cœur du SI de Bpifrance.
En parallèle, le chantier de transformation Cloud en cours induit d’importantes adhérences avec les travaux d’industrialisation de la plateforme Data & IA.
La Domaine Plateforme Data & IA, au sein de la Direction Data a la responsabilité de l’industrialisation de la Plateforme Data & IA ainsi que la réalisation de « Comptoirs de Données » pour les différents métiers Bpifrance.
Depuis juin 2020, Bpifrance a lancé une transformation agile à l’échelle en passant tous les projets de la DSI sur le framework SAFe. Les équipes agiles sont maintenant embarquées dans des trains, qui sont cadencés par des Programme Increment (PI).
Votre mission a pour objet la réalisation de développements et traitements de données de bout en bout et la production des livrables attenus, notamment :
1. Un Backlog priorisé avec les Product Owner et les Proxy Product Owner
2. Program Increment Planning qui permet de garder la cohérence entre les différents besoins
3. Supports des cérémonies agiles
4. Documentation :
Rédaction du dossier d’architecture technique
Documentation de l’ensemble des travaux effectués
5. Automatisation de l’intégration et déploiement :
PV de recette du Pipeline CI/CD et amélioration continue du processus
PV de recette d’automatisation du déploiement des mécanismes d'alerting sur les environnements Préproduction et Production
6. Intégration avec le SI Bpifrance :
PV de recette des Tests d’intégration avec le réseau Bpifrance
PV de recette des Tests d’intégration avec le CRM
PV de recette des Tests d’intégration avec les applications priorisées
Profil de candidat recherché
Et si nous parlions de votre profil ? Vous :
Le profil recherché est un expert technique ayant des compétences pointues et une expérience significative en matière de traitement de la donnée.
Compétences transverses attendues :
Les compétences transverses suivantes doivent être acquises à un niveau avancé :
Orientation client : interagir avec le client pour reformuler et approfondir son besoin afin de le spécifier et de proposer une solution adéquate
Travail en équipe : collaborer avec les membres de l’équipe de façon ouverte en communiquant ses retours et impressions sur les travaux
Communication orale et écrite : exposer efficacement à l’écrit comme à l’oral un raisonnement de façon logique et argumentée
Compétences techniques et linguistiques attendues :
Pour répondre aux attentes et aux objectifs du poste, les compétences techniques et linguistiques doivent être acquises au niveau suivant :
Bonnes pratiques DevOps :
- Manipulation des technologies et des ressources as-a-service par programmation (*-as-code)
- Utilisation collaborative d’un même code source
Outils DevOps (Git, Jenkins, Gitlab-CI, Docker, Kubernetes, Ansible, Terraform, Helm…)
Langage SQL
Connaissance sur les environnements et les problématiques Data (Data Engineer et Data Science) :
- Orchestration et scheduling de tâches (Control/M, Apache Airflow, Ooozie, Kubeflow, EMR)
- API (OpenAPI swagger, Jason web token, API management
- Data cleansing (Matillion, AWS Glue, AWS Lambda, EMR…)
- Data streaming (AWS Kinesis, Kafka…)
- Bases analytiques et bases NoSQL (Redshift, ElasticSearch, AWS Athena, AWS RDS)
- Stockage objet (AWS S3)
- Gestion des droits et habilitation sur des supports de données variés (SGBDR, AWS IAM, AWS KMS, Apache Ranger, Sentry)
- Gouvernance de la donnée (datalineage, cataloging, Apache Atlas…)
- Machine learning (Spark, services ML AWS, ElasticSearch)
Formation / certification au framework SAFe
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.