Au sein de la DSI d’un grand groupe industriel international, vous intégrez une équipe Data & Streaming en charge de la conception et de l’exploitation de la plateforme de streaming de données temps réel. L’environnement technique est centré sur Apache Kafka (Confluent Platform) déployé sur Microsoft Azure.
Missions principales:
- Concevoir, développer et maintenir les pipelines de streaming de données basés sur Apache Kafka (Confluent Platform) sous Azure
- Assurer la mise en place et l’administration des clusters Kafka : topics, partitions, consumers, connecteurs (Kafka Connect)
- Développer des applications de traitement en temps réel avec Kafka Streams ou ksqlDB
- Implémenter et gérer les schémas de données via le Schema Registry (Avro, Protobuf, JSON Schema)
- Participer à la mise en place de patterns d’intégration événementielle (Event-Driven Architecture)
- Monitorer les performances et la fiabilité des flux Kafka (Confluent Control Center, Grafana, Azure Monitor)
- Collaborer avec les équipes Data Engineering, DevOps et Architecture dans un contexte Agile
- Rédiger la documentation technique en anglais
Profil candidat:
- 5 ans d’expérience minimum en développement / ingénierie data, dont au moins 2 ans sur des projets Kafka
- Maîtrise de Apache Kafka et de la Confluent Platform (Connect, Schema Registry, ksqlDB, Control Center)
- Expérience confirmée en développement sur environnement Microsoft Azure (Event Hubs, AKS, Azure Functions, Storage)
- Connaissance des langages de développement : Java, Python ou Scala
- Bonne compréhension des architectures événementielles et microservices
- Anglais courant impératif (documentation, réunions, interactions quotidiennes)
- Autonome, rigoureux(se) et force de proposition
- Capacité à évoluer dans un environnement international anglophone
- Bon relationnel et esprit d’équipe
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.