Join to apply for the Data Engineer GCP BigQuery F/H role at Fnac Darty
Fnac Darty, un leader européen de la distribution omnicanal. Acteur omnicanal et européen, spécialisé dans la distribution de produits techniques et d'électroménager, de biens culturels et de loisirs, et leader du service après-vente présent dans 13 pays, avec 1005 magasins dans le monde, 11 millions d'abonnés/adhérents et 29 millions de visiteurs uniques cumulés par mois sur nos sites marchands. Nos 25 000 collaborateurs sont notre meilleur atout. Ils font vivre la raison d'être du Groupe au quotidien, qui consiste à « s'engager pour un choix éclairé et une consommation durable », auprès de nos clients. Fnac Darty recrute partout en France des talents aux profils, formations et expériences très diverses, que ce soit pour ses magasins, mais aussi dans les domaines de la logistique, de la réparation et service après-vente, de la livraison, de la relation client ou encore pour ses fonctions support. Chez Fnac Darty, nous recrutons sur les compétences, en accordant de l'attention à toutes les candidatures. Nous nous engageons à promouvoir la diversité, sans distinction d'origine, d'âge, de handicap, de genre ou d'orientation sexuelle, … dans un environnement respectueux de chaque personne. Votre prochain emploi vous attend chez Fnac Darty !
Description De La Mission
Analyse et Conception
* Participer à l’analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux.
* Utiliser l’analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets.
* Être force de proposition sur l’amélioration de notre stack Data.
Développement et Intégration
* Concevoir, développer et maintenir les pipelines de données pour l’acquisition, la transformation, le stockage et la mise à disposition des données.
* Optimiser les performances des développements pour assurer une disponibilité et une fiabilité maximale.
* Identifier et résoudre les goulots d’étranglement et les problèmes de performances dans les flux de données.
Qualité, Maintenance et Supervision
* Mettre en place des processus et des contrôles pour garantir la qualité des données.
* Concevoir et mettre en œuvre des systèmes d’alerte, de monitoring et de reprise automatique efficaces.
* Assurer la maintenance corrective ou évolutive.
* S’assurer de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe.
Documentation, Support, Pilotage
* Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d’exploitation).
* Réaliser la recette technique et participer à animer la recette fonctionnelle avec les utilisateurs et le PO.
* Faire le reporting d’avancement des travaux.
* Supporter le déploiement.
Environnement Technique
Langages/Framework : SQL, BigQuery, Python, Shell.
Outils : GCP (BigQuery, DataForm, PubSub, Dataflow, Cloud Composer, Cloud Run, Compute Engine), Gitlab, Terraform, Talend.
Base de données : BigQuery, Teradata, SQL Server, IBM DB2.
#J-18808-Ljbffr
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.