Votre rôle se décline en 4 missions. Construction et alimentation de la Data Factory : - Travailler avec les métiers pour bien comprendre les besoins et imaginer l'architecture correspondante, - Proposer et développer les différents flux d'alimentation de la Data Factory sous GCP et Azure (real time, batch, API), - Concevoir et construire les pipelines de données en s'assurant d'une qualité de données optimale, Exploitation des données de la Data Factory et intégration des outils IA - Contribuer à la transformation des Data de l'entreprise, à la définition et à l'implémentation des différents uses cases, - Créer les datamarts correspondants aux besoins métiers, - Diffuser les données issues des Datamarts via les API de la Data Factory vers les différentes applications du Club Med, - Maintenir en condition opérationnel des modèles existants de Machine Learning (Tensorflow, Keras) et développer des nouveaux modèles en fonction des uses cases - Concevoir des applications basées sur des modèles de langage LLMs pour répondre à des uses case IA métiers en utilisant des outils open source comme Flowise, N8N, Langfuse ou des infrastructures type GPT. - Visualiser et diffuser des Dashboards via data studio - Sensibiliser au FinOps / GreenIT GCP et Azure Industrialisation et automatisation des pipeline de données - Assurer et améliorer le monitoring des différents flux déjà existants en mettant en place des processus d'automatisation et d'industrialisation. - Utiliser des outils DEVOPS (GitLab CI, Terraform, Bash) pour automatiser et orchestrer les workflows de données. Veille technologique et innovation IA - Participer à l'innovation IA - Explorer et implémenter des solutions open-source émergentes en IA, notamment Langfuse ou Flowise, pour capitaliser sur les avancées des modèles de langage (LLMs). - Réaliser des POC sur des solutions innovantes du marché, - Partager en interne les nouveautés notamment sur GCP et Azure - Participer à l'amélioration continue du socle technologique de la Data Factory, avec un accent fort sur l'intégration IA / LLM et l'automatisation intelligente.
Expérience requise : minimum 2 ans sur un poste équivalant DATA et IA. Diplôme : Bac +5 en école d'ingénieur / université spécialisée en Informatique et Gestion de la donnée et de la Data Science Compétences requises : - Architecture Cloud : Maîtrise des environnements GCP (BigQuery, Pub / Sub, Cloud Functions, Vertex AI, Cloud Storage), Azure (Data Factory, ML Studio). Certification GCP ou Azure est un atout, - Traitement des données : Expérience confirmée dans la création et la gestion de pipelines de données, ETL / ELT (Airflow, Prefect), - Langages : Excellente maîtrise de Python (notamment en POO) et SQL. Connaissances en Bash et Unix seraient un plus, - Machine Learning & IA : Compréhension des bases du Machine Learning (classification, random forest, NLP) et capacité à déployer ou maintenir des modèles avec TensorFlow, PyTorch ou Keras, - Intégration IA / LLM : Familiarité avec des outils open-source comme LangChain, N8N, Langfuse pour mettre en oeuvre des applications basées sur des LLMs, - Visualisation : Capacités à créer des Dashboards interactifs sous Data Studio et / ou d'autres outils BI (QlikView, Kibana est un plus), - Monitoring & Orchestration : Expérience avec des outils comme Airflow, Prometheus, Grafana, Jenkins pour superviser et automatiser les workflows. - Méthodologie Agile : Expérience confirmée en méthodologies agiles (Scrum, sprint planning, rétrospective). - Soft Skills attendues : - Sens de l'écoute pour comprendre les besoins métier complexes, - Capacité à collaborer avec des équipes transverses, - Rigueur et organisation pour évoluer au sein d'un environnement en constante évolution, - Capacité d'innovation et de proposition de solutions techniques adaptées aux enjeux IA, - Enthousiasme à partager des bonnes pratiques et à incarner la mission de la Data Factory auprès des collaborateurs. Technologies maîtrisées souhaitables : - GCP, Azure, Terraform, Airflow, SQL, BigQuery, Python, Vertex AI - Outils IA : TensorFlow, Keras, PyTorch, LangChain, Langfuse, API REST - Outils BI : Data Studio, QlikView, Tableau.
Créer une alerte emploi pour cette recherche
#J-18808-Ljbffr
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.