Dans le cadre d’un projet stratégique de transformation numérique et de la montée en puissance des activités Data, une organisation en forte croissance recherche un Consultant / Data Engineer Big Data en CDI.
Vous évoluerez au sein d’un écosystème Cloud moderne centré sur Google Cloud Platform (GCP) et contribuerez à la conception, l’industrialisation et l’optimisation de solutions Big Data à grande échelle.
Vos missions :
Conception, Développement et Industrialisation
* Concevoir, développer et déployer des solutions Big Data sur GCP (BigQuery, Cloud Run, etc.).
* Développer, maintenir et industrialiser des traitements de données en Python, en particulier dans un environnement orchestré (Airflow / Cloud Composer).
* Construire des pipelines robustes, résilients, monitorés et scalables dans un écosystème Cloud.
Analyse et Qualité de la Donnée
* Participer à la qualification métier des nouvelles fonctionnalités et réaliser des tests associés.
* Conduire des analyses de données en amont et en aval des traitements pour garantir leur pertinence, qualité et performance.
* Collaborer étroitement avec les équipes métier pour traduire les besoins en solutions concrètes.
Intégration et Collaboration Projet
* Assurer l’intégration des solutions dans l’écosystème existant, en veillant au respect des normes et standards établis.
* Travailler en étroite coordination avec les équipes projet, scientifiques et métiers.
* Utiliser les méthodologies Agile (Scrum) et contribuer aux rituels d’équipe via des outils de gestion (Jira).
Documentation, Gouvernance et Sécurité
* Rédiger et maintenir la documentation technique (architectures, procédures, guides utilisateurs).
* Garantir la traçabilité, la maintenabilité et la conformité des traitements.
* Respecter les règles internes en matière de sécurité et de sécurité de l’information.
* Participer à la veille technologique continue sur les technologies Big Data et Cloud.
Environnement technique
Technologies Cloud & Big Data
* Google Cloud Platform (BigQuery, Cloud Run, Cloud Storage, Cloud Composer).
* Architecture Cloud, traitement distribué, optimisation des requêtes SQL sur BigQuery.
Langages & Développement
* Python
* SQL / BigQuery SQL
* MySQL (apprécié)
DevOps & Industrialisation
* Git / GitLab
* CI/CD (GitLab CI)
* Infrastructure as Code (Terraform)
* Orchestration : Airflow / Composer
Méthodologies
* Scrum / Agile
* Travail en équipe pluridisciplinaire (développeurs, data scientists, métiers)
Profil recherché :
* Expérience : 5 ans minimum sur des projets Big Data ou Cloud.
* Compétences techniques :
* Python, SQL, MySQL
* Google Cloud Platform (BigQuery, CloudRun)
* Architecture Cloud et pratiques DevOps
* Méthodologie Agile (Scrum)
* Capacité à travailler de manière autonome, esprit d'analyse et de synthèse.
* Une expérience en Data Science serait un plus.
Un processus en 3 semaines et transparent :
* 1ᵉʳ contact téléphonique de 5 minutes pour faire connaissance.
* 1 entretien RH, de 45 minutes - en présentiel ou en visio - avec un de nos ingénieurs d'affaires pour vous présenter evoteo et comprendre votre parcours ainsi que votre projet professionnel
* Recherche de missions : selon votre projet et votre disponibilité, nos équipes RH et commerciales s’emploieront à vous trouver la mission idéale
* 1 rencontre en présentiel d’1 h avec notre CEO
* 1 échange de 30 minutes avec un de nos Leads Data afin de comprendre le quotidien chez evoteo
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.