Description de la mission
1. Concevoir et développer des solutions d'intégration de données en utilisant Apache Kafka.
·Configurer et gérer les clusters Kafka pour assurer une haute disponibilité et une performance optimale.
·Gérer la synchronisation des données entre les clusters Kafka
·Collaborer avec les équipes de développement et d'architecture pour intégrer les flux de données dans les applications existantes.
·Surveiller et optimiser les performances des Topics de données.
·Assurer la qualité des données et la conformité aux normes de sécurité.
·Rédiger et maintenir la documentation technique
Profil
Compétences et connaissances requises :
·Expérience avérée avec Apache Kafka et ses composants (Kafka Streams, Kafka Connect, etc.).
·Connaissances de Kafka MirrorMaker
·Solides compétences en programmation (Java, Scala, Python, etc.).
·Connaissance des bases de données relationnelles et NoSQL.
·Expérience avec les outils de gestion de configuration et de déploiement (Docker, Kubernetes, etc.).
·Connaissance d'autres outils d'intégration de données tels que Talend, Tibco, etc.
·Connaissance des services AWS (Amazon Web Services).
·Connaissances en réseaux (TCP/IP, DNS, VPN, etc.).
·Capacité à résoudre des problèmes complexes et à travailler en équipe.
·Bonnes compétences en communication et en documentation.
Qualifications :
·Diplôme en informatique, en ingénierie ou dans un domaine connexe.
·Minimum de 3 ans d'expérience dans un rôle similaire.
·Certification Kafka (un atout).
Langue maitrisée :
·Compétences linguistiques en anglais (écrit et oral).
Informations complémentaires
Poste basé à L’Isle d’Abeau (38)
Déplacements ponctuels à l’international
Télétravail possible
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.