Ingénieur de données pour GCP BigQuery
Ce poste nécessite une expérience significative dans la conception et l'optimisation des pipelines de données. Vous aurez la responsabilité d'analyser les besoins, de concevoir les modèles de données, de développer et de maintenir les flux de données.
L'objectif principal est de garantir l'acquisition, la transformation, le stockage et la mise à disposition des données. Pour ce faire, vous utiliserez SQL, Python et Shell, ainsi que des outils tels que GCP (BigQuery, DataForm, PubSub, Dataflow, Cloud Composer, Cloud Run, Compute Engine), Gitlab et Terraform.
Réalisations attendues :
* Concevoir et développer des pipelines de données efficaces.
* Analyser les performances et identifier les problèmes potentiels.
* Mettre en œuvre des solutions optimisées pour améliorer la disponibilité et la fiabilité.
Exigences techniques :
* Langages/Framework : SQL, BigQuery, Python, Shell.
* Outils : GCP (BigQuery, DataForm, PubSub, Dataflow, Cloud Composer, Cloud Run, Compute Engine), Gitlab, Terraform, Talend.
* Base de données : BigQuery, Teradata, SQL Server, IBM DB2.
Nous offrons :
* Un environnement technique innovant et adaptatif.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.