Au sein d'une plateforme data moderne reposant sur un écosystème Spark, Airflow et Superset, orchestré via Kubernetes (Helm/Helmfile) et déployé sur des infrastructures Cloud IaaS, vous interviendrez sur des enjeux à forte valeur ajoutée, à la croisée de la data engineering, de l'architecture et de l'innovation. Dans un contexte de transformation vers des environnements analytiques avancés et l'intégration progressive de l'IA et de l'automatisation intelligente, vos responsabilités s'articuleront autour des axes suivants : 1. Fiabilisation et performance des pipelines data - Concevoir, maintenir et faire évoluer des pipelines de données complexes (Spark, Airflow) - Garantir leur disponibilité, leur performance et leur passage à l'échelle - Assurer un haut niveau de qualité et de fiabilité des données 2. Contribution aux initiatives d'intelligence artificielle - Mettre en place les fondations techniques nécessaires au déploiement de cas d'usage IA - Intégrer des briques d'automatisation intelligente au sein de la plateforme - Participer à la structuration d'environnements compatibles avec des systèmes agentiques 3. Pilotage de l'architecture et de l'automatisation - Administrer et faire évoluer l'infrastructure Kubernetes - Industrialiser les déploiements via Helm et Helmfile - Structurer et optimiser les processus CI/CD - Contribuer à la trajectoire d'évolution de la plateforme analytics 4. Excellence opérationnelle et amélioration continue - Déployer et renforcer les dispositifs de monitoring (Prometheus, Grafana, Zabbix) - Optimiser les performances globales de la stack technique - Diagnostiquer et résoudre efficacement les incidents - Inscrire les pratiques dans une logique d'amélioration continue
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.