Rejoindre une équipe de professionnels en Data Engineering
Mission
L'objectif est de concevoir et développer des pipelines de données robustes afin de collecter, traiter et stocker les informations essentielles. Vous devrez également optimiser les flux de données pour améliorer l'efficacité et la performance.
Compétences requises
Pour réussir dans ce poste, vous devrez maîtriser les compétences suivantes :
* Connaissances solides en SQL/NoSQL et en gestion de bases de données
* Expérience avérée en développement d'applications basées sur des pipelines de données
* Maîtrise des outils tels que GCP ou AWS, Bigquery, Looker Studio, PowerBI, Spark, Terraform, Github, Docker et Kubernetes
Avantages
L'entreprise offre un environnement de travail dynamique avec possibilité de télétravail 2 à 3 jours par semaine. Vous serez intégré au sein d'une équipe motivée et curieuse.
Demandes spécifiques
Ce poste nécessite expérience de 4 ans minimum en Data Engineering dans des environnements cloud GCP/AWS et DevOps. La connaissance des architectures Big Data est indispensable. Vous devez être capable de communiquer efficacement avec les équipes et avoir une approche orientée solution.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.