Dans le cadre du développement et de l'industrialisation d'une plateforme de streaming de données, nous recherchons pour notre client, un(e) Expert Kafka capable d'accompagner les équipes techniques dans la mise en place, l'automatisation et l'optimisation de la plateforme. Le consultant interviendra au sein d'une squad en collaboration étroite avec les équipes internes afin d'améliorer les pratiques d'exploitation, d'industrialisation et de supervision de l'environnement. A ce titre, vos principales missions seront les suivantes : -Accompagner les équipes dans le choix et l'utilisation des solutions techniques -Participer à l'industrialisation et l'automatisation de la plateforme Kafka -Contribuer aux études techniques et développements -Définir et faire appliquer les normes, méthodes et outils -Assurer une veille technologique et informer sur les évolutions Livrables attendus -Production de dossiers d'expertise -Mise à jour des dossiers d'architecture -Mise à jour des éléments de suivi dans JIRA -Production de livrables techniques et référentiels d'expertise Profil candidat: Nous recherchons un Expert Kafka / Data Platform disposant d'une solide expérience dans l'industrialisation et l'exploitation de plateformes de streaming de données dans des environnements cloud et conteneurisés. Niveau d'études : -Bac 5 en informatique (école d'ingénieurs, master en informatique, systèmes ou data engineering). -Un Bac 3 avec une forte expérience professionnelle sur des environnements similaires peut également être considéré. Niveau d'expérience : -5 à 8 ans d'expérience minimum en ingénierie systèmes, DevOps ou data platform. -3 à 5 ans d'expérience significative sur Kafka, idéalement dans un rôle d'expertise ou d'architecture technique. -Expérience confirmée dans des environnements Kubernetes / OpenShift et dans des démarches d'industrialisation et d'automatisation (Infrastructure as Code). Compétences techniques attendues : -Expertise sur Apache Kafka (Confluent) -Déploiement et exploitation sur Kubernetes / OpenShift - Infrastructure as Code (Git, Ansible) -Automatisation avec Python / Ansible -Mise en place de pipelines CI/CD (GitHub Actions) -Conteneurisation avec Docker -Supervision avec Prometheus / Grafana Compétences appréciées : -Connaissance de la stack Elastic -Utilisation d'outils de l'écosystème Kafka (AKHQ, KafkaGitOps) -Expérience dans un environnement Agile Qualités professionnelles : -Forte capacité d'analyse technique -Esprit d'expertise et de conseil -Capacité à documenter et structurer des référentiels techniques -Bon esprit d'équipe et collaboration avec des squads techniques
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.