Votre rôle se décline en 4 missions.
Construction et alimentation de la Data Factory:
- Travailler avec les métiers pour bien comprendre les besoins et imaginer l'architecture correspondante,
- Proposer et développer les différents flux d'alimentation de la Data Factory sous GCP et Azure (real time, batch, API),
- Concevoir et construire les pipelines de données en s'assurant d'une qualité de données optimale,
Exploitation des données de la Data Factory et intégration des outils IA
- Contribuer à la transformation des Data de l'entreprise, à la définition et à l'implémentation des différents uses cases,
- Créer les datamarts correspondants aux besoins métiers,
- Diffuser les données issues des Datamarts via les API de la Data Factory vers les différentes applications du Club Med,
- Maintenir en condition opérationnel des modèles existants de Machine Learning (Tensorflow, Keras) et développer des nouveaux modèles en fonction des uses cases
- Concevoir des applications basées sur des modèles de langage LLMs pour répondre à des uses case IA métiers en utilisant des outils open source comme Flowise, N8N, Langfuse ou des infrastructures type GPT.
- Visualiser et diffuser des Dashboards via data studio
- Sensibiliser au FinOps/ GreenIT GCP et Azure
Industrialisation et automatisation des pipeline de données
- Assurer et améliorer le monitoring des différents flux déjà existants en mettant en place des processus d'automatisation et d'industrialisation.
- Utiliser des outils DevOps (GitLab CI, Terraform, Bash) pour automatiser et orchestrer les workflows de données.
Veille technologique et innovation IA
- Participer à l'innovation IA
- Explorer et implémenter des solutions open-source émergentes en IA, notamment Langfuse ou Flowise, pour capitaliser sur les avancées des modèles de langage (LLMs).
- Réaliser des POC sur des solutions innovantes du marché,
- Partager en interne les nouveautés notamment sur GCP et Azure
- Participer à l'amélioration continue du socle technologique de la Data Factory, avec un accent fort sur l'intégration IA/LLM et l'automatisation intelligente.
Le profil recherché
Expérience requise : minimum 2 ans sur un poste équivalant DATA et IA.
Diplôme : Bac +5 en école d'ingénieur/université spécialisée en Informatique et Gestion de la donnée et de la Data Science
Compétences requises :
- Architecture Cloud : Maîtrise des environnements GCP (BigQuery, Pub/Sub, Cloud Functions, Vertex AI, Cloud Storage), Azure (Data Factory, ML Studio). Certification GCP ou Azure est un atout,
- Traitement des données : Expérience confirmée dans la création et la gestion de pipelines de données, ETL/ELT (Airflow, Prefect),
- Langages : Excellente maîtrise de Python (notamment en POO) et SQL. Connaissances en Bash et Unix seraient un plus,
- Machine Learning & IA : Compréhension des bases du Machine Learning (classification, random forest, NLP) et capacité à déployer ou maintenir des modèles avec TensorFlow, PyTorch ou Keras,
- Intégration IA/LLM : Familiarité avec des outils open-source comme LangChain, N8N, Langfuse pour mettre en oeuvre des applications basées sur des LLMs,
- Visualisation : Capacités à créer des Dashboards interactifs sous Data Studio et/ou d'autres outils BI (QlikView, Kibana est un plus),
- Monitoring & Orchestration : Expérience avec des outils comme Airflow, Prometheus, Grafana, Jenkins pour superviser et automatiser les workflows.
- Méthodologie Agile : Expérience confirmée en méthodologies agiles (Scrum, sprint planning, rétrospective).
Soft Skills attendues :
- Sens de l'écoute pour comprendre les besoins métier complexes,
- Capacité à collaborer avec des équipes transverses,
- Rigueur et organisation pour évoluer au sein d'un environnement en constante évolution,
- Capacité d'innovation et de proposition de solutions techniques adaptées aux enjeux IA,
- Enthousiasme à partager des bonnes p
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.