Description du poste
Au sein du pôle Direction de la Transformation Technologique, la Direction Data & IA a pour ambition de maximiser la contribution de la Data et de l'Intelligence Artificielle au fonctionnement du Crédit Agricole. Elle s'appuie pour cela sur la fonction de Chief Data Officer Groupe et le DataLab Groupe & AI Factory Group, pôles de référence en conception interne de solutions Data & IA innovantes et industrielles en partenariat avec les entités du Groupe.
Le DataLab Groupe & AI Factori Group disposent de toutes les compétences Data coopérant au sein de Squads pluridisciplinaires selon une méthode interne d'inspiration Agile :
* Data & AI Engineering visant à préparer les données, définir les architectures, infrastructures et « packager » les solutions qui y seront déployées pour intégration dans le SI,
* Data Science Analytique et Sémantique pour concevoir des algorithmes d'Intelligence Artificielle basés sur l'open source exploitant respectivement des données structurées (tabulaires) et des données non structurée (texte, image, voix, vidéos) afin de répondre aux besoins exprimés par les métiers des entités du Groupe,
* Gestion de projets qui avec l'ensemble des partenaires et équipes techniques du DataLab Groupe, permet d'identifier et étudier les opportunités, cadrer les projets et en coordonner la réalisation.
Rattaché hiérarchiquement au Responsable Technique du service technologies Data&IA, vos missions (non exhaustives) seront :
* Architecture Cloud & Infrastructure :
o Concevoir des architectures Cloud-Native (AWS ou GCP) répondant aux exigences de disponibilité, performance, sécurité et coûts, en lien avec les enjeux métiers et SI.
o Accompagner les projets dans le choix, la mise en œuvre et l'urbanisation des services cloud, CI/CD, conteneurisation et automatisation.
o Assurer la cohérence des architectures avec les standards et les normes du groupe Crédit Agricole (urbanisation, conformité, sécurité, interopérabilité).
o Intégrer des services cloud managés et/ou containerisés selon les besoins (EKS, ECS, Lambda, App Services…).
* Architecture Data & Plateforme
o Définir et faire évoluer les architectures de données (Data Lake, Data Warehouse, Data Mesh) en cohérence avec la stratégie Data du Groupe.
o Concevoir des pipelines de données scalables et résilients pour l'ingestion, la transformation et la mise à disposition des données (batch et streaming).
o Sélectionner et intégrer les technologies adaptées aux cas d'usage : bases de données relationnelles et NoSQL, solutions de stockage objet, outils d'orchestration (Airflow, Step Functions…).
o Garantir la qualité, la traçabilité et la gouvernance des données tout au long de leur cycle de vie.
* Architecture IA & MLOps
o Concevoir des architectures pour le déploiement et l'industrialisation de modèles d'Intelligence Artificielle (ML, NLP, Computer Vision).
o Mettre en place des plateformes MLOps pe
Télétravail : occasionnel
* Critères de candidature
Poste avec management
Non
Cadre / Non Cadre
Cadre
Niveau d'étude minimum
Bac + 5 / M2 et plus
Formation / Spécialisation
* Outils de modélisation :, Visio, Lucidchart, Excalidraw.- Langages et scripts : Python, Shell / Bash, YAML / JSON, Go/TypeScript.- Cloud & API : AWS/GCP & maitrise des API, CLI et SDK.- Conteneurisation et orchestration : Docker, Kubernetes, OpenShift.- IaC : Terraform, Ansible, CloudFormation.- Supervision & observabilité : CloudWatch, ELK, Grafana, Prometheus, OpenTelemetry, Dynatrace.
Niveau d'expérience minimum
3 - 5 ans
Compétences recherchées
Cloud & Infrastructure : · Maitrise d'au moins un cloud public AWS ou GCP.· Capacité à modéliser des architectures cloud sécurisées, robustes, scalables, résilientes et optimisées, et à accompagner la mise en production.· Capacité à rédiger des dossiers d'architecture (DAT, HLD/LLD). Data & Analytics : · Connaissance approfondie des architectures de données modernes (Data Lake, Lakehouse, Data Mesh).· Maîtrise des technologies Big Data (Spark, Kafka, Flink) et des bases de données (PostgreSQL, MongoDB, Elasticsearch).· Expérience avec les outils d'orchestration de données (Airflow, Dagster, Step Functions).· Connaissance des principes de Data Governance et Data Quality. IA & MLOps : · Compréhension des cycles de vie des modèles de Machine Learning.· Connaissance des frameworks ML (TensorFlow, PyTorch, Scikit-learn) et des plateformes MLOps (MLflow, Kubeflow, SageMaker).· Sensibilité aux enjeux d'IA responsable et de conformité réglementaire. Au-delà des qualités techniques : · Excellente communication, force de proposition et sens de l'initiative· Capacité d'abstraction, d'écoute et d'animation,· Aisance dans la communication orale et écrite,
Outils informatiques
* Outils de modélisation :, Visio, Lucidchart, Excalidraw.
* Langages et scripts : Python, Shell / Bash, YAML / JSON, Go/TypeScript.
* Cloud & API : AWS/GCP & maitrise des API, CLI et SDK.
* DevOps & CI/CD : GitLab, GitLab CI, Jenkins, ArgoCD.
* Conteneurisation et orchestration : Docker, Kubernetes, OpenShift.
* IaC : Terraform, Ansible, CloudFormation.
* Supervision & observabilité CloudWatch, ELK, Grafana, Prometheus, OpenTelemetry, Dynatrace.
Langues
• Français (courant),
• Anglais (Professionnel)
- ## Entreprise Crédit Agricole S.A.
Rejoignez une entreprise au cœur des activités du groupe Crédit Agricole, de ses évolutions et de sa transformation. Holding et société cotée du Groupe, Crédit Agricole S.A assure la coordination, la cohérence et les synergies entre les entités pour porter les ambitions du Projet du Groupe. Les missions confiées à nos collaborateurs offrent une vision transversale des enjeux économiques et stratégiques du Groupe. En agissant chaque jour dans l'intérêt de la société, nous sommes un groupe engagé en faveur des diversités et de l'inclusion et plaçons l'humain au cœur de toutes nos transformations. Tous nos postes sont ouverts aux personnes en situation de handicap.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.