Contrat à durée indéterminée
Qui sommes-nous ?
Depuis plus de 30 ans, Prosol est le spécialiste du produit frais en France, avec une offre large, diversifiée et accessible dans plus de 450 magasins (Grand Frais, fresh., Mon-Marché.fr, La Boulangerie du Marché, BioFrais …). Mais derrière cette performance terrain, il y a la Data qui est au cœur de la transformation des usages métiers et de la prise de décision.
Dans le cadre du développement de notre pôle Plateforme de données, nous recrutons un Data Engineer Cloud GCP pour renforcer notre équipe et devenir un référent technique sur cet environnement.
Votre rôle
Vous intervenez au cœur de la plateforme Data pour garantir sa performance, sa fiabilité et son évolution. Vous évoluez dans un environnement Cloud et Data structuré, en lien direct avec les équipes Data et IT, sur les sujets de plateforme, d’industrialisation et de gouvernance de données.
Vos missions
Plateforme Data GCP
1. Administrer et optimiser les services GCP Data (BigQuery, Dataflow, Pub/Sub, Cloud Storage…).
2. Garantir la performance, la sécurité et la disponibilité des données.
3. Participer aux règles de gouvernance et aux bonnes pratiques de développement.
Data Engineering & industrialisation
4. Participer à la construction et à l’optimisation des pipelines de données.
5. Contribuer à l’industrialisation des traitements (DataOps, automatisation, CI/CD).
6. Améliorer la qualité et la fiabilité des flux de données.
Support & collaboration
7. Accompagner les équipes Data et IT dans l’usage des outils GCP.
8. Assurer un support technique sur la plateforme.
Administration Power BI
9. Gérer les accès, Workspaces et datasets.
10. Participer à la gouvernance de la plateforme
Projets & amélioration continue
11. Participer aux évolutions de la plateforme Data (migration, nouveaux outils, architecture).
12. Assurer une veille technologique et proposer des optimisations.
Votre profil
13. 5 années d’expérience significative sur des environnements Cloud (Azure ou GCP) et des plateformes de données (Snowflake, Databricks, Azure, Fabric, etc…).
14. Maîtrise des solutions de stockage et d’intégration de données
15. Bonne connaissance des services Data GCP : BigQuery, Dataflow, Pub/Sub, Cloud storage…
16. Connaissances des architectures Data Lake / Data Warehouse et des solutions ETL / ELT.
17. Bonne maîtrise de SQL et compétences en scripting Python.
18. Sensibilité aux enjeux de gouvernance et sécurité de données
Ce qui fera la différence :
19. Capacité à collaborer dans les équipes IT, Data et métiers.
20. Rigueur, autonomie et esprit d’analyse.
21. Curiosité technique et envie d’évoluer sur des environnements Cloud modernes.
Parce que vous ne comptez pas pour du beurre, nous vous proposons :
22. Un contrat en CDI à pourvoir dès que possible, basé à Chaponnay (69),
23. Une prime individuelle annuelle,
24. Un statut cadre avec 9 jours de RTT,
25. 520€ de bon d’achat par an,
26. Des tickets restaurants de 9€ (prise en charge à 60%),
27. Des primes de cooptation jusqu’à 1 000€ brut par recrutement,
28. La possibilité de télétravailler jusqu’à 2 jours par semaine,
29. Un organisme de formation interne qui accompagne votre développement,
30. Une mutuelle familiale avantageuse.
Processus de recrutement :
31. Premier échange en visioconférence avec un Chargé de recrutement.
32. Si ça colle, vous rencontrez votre futur Responsable technique dans nos locaux.
33. Un dernier entretien avec notre Chief Data Officer.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.