Tu rejoindra notre team Data ! Tu participeras à la réalisation de solutions, en collaboration étroite avec des machine learning engineer, software architect, designers, developers... Force de proposition en interne, tu interviendras pour être garant du développement d'architecture Data, de la collecte multi-source de données, du pilotage et de la pertinence de ces dernières.?Tu viendras compléter l'offre par tes connaissances techniques Activités principales : Compréhension des conceptions d'architecture data et des systèmes distribués Conception et modélisation des pipelines de données en assurant un stockage et une interrogation efficace Développement des traitements de données et de leur exploitation Maîtrise l'ensemble des techniques, technologies et concepts utilisés Responsable de la qualité technique sur le périmètre confié Contribuer à la CI/CD avec TechLead et Ops Accompagnement des juniors dans leur montée en compétence (pair programming, présentation sur des sujets techs, management...) Tu auras la chance d'arriver à un moment charnière pour les équipes Datas, tu pourras ainsi participer aux différents changements qui s'opérent et batir avec eux le nouveau socle Data de Fabernovel en s'appropriant des nouveaux sujets : Datawarehouse, Big Data ... Chez Fabernovel nous sommes des chimistes, nous experimentons et créons !
Nous recherchons avant tout une personne avec des compétences en développement logiciel ayant au moins 7 ans d'expérience et qui a un attrait pour les problématiques data. Notre futur talent est : En plus de tes compétences techniques, nous recherchons une personne curieuse, bienveillante, qui soit autonome et force de proposition. Tu as un bon niveau en programmation fonctionnelle (ex : Scala, Rust) Tu as déjà collaboré en workflows Git (One flow, Trunk based) Tu es expert en base données SQL / NoSQL Tu maitrise les systèmes et calcul distribués Tu as une expérience significative sur plusieurs projets de stream processing sur une ou plusieurs des technos suivantes : Akka, Kafka, Spark Tu as déjà travaillé sur un Cloud Provider: AWS, GCP, Azure, IBM Bonus : tu connais l'untilisation de Kubernetes, Docker ou Airflow. Tu sais communiquer de façon claire et précise et fait preuve d'un esprit de synthèse.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.