Votre futur collectif :
* Un collectif de 120 talents, résolument conseil & tech autour du Cloud, Data, IA, Dev et test.
* Un lieu d’échanges et de convivialité en plein cœur de la ville, face au métro Capitole.
* Une vie de communauté dynamique :
o Des live communauté pour se rassembler
o Des animations régulières pour partager et célébrer.
o Du sport pour bouger ensemble et garder l’énergie.
Pourquoi c’est différent
* Un ancrage local fort, au plus près de l’écosystème toulousain.
* Une culture du partage, de l'innovation et de l’apprentissage continu.
* Une ambiance conviviale, propice aux projets ambitieux et à l'épanouissement de chacun.
* Un lien fort avec les hubs du groupe, créateurs d'opportunités et à la pointe des tendances de notre marché
Vos nouveaux challenges pour ce poste :
Pour accompagner notre croissance au sein du collectif Sud-Ouest, nous recrutons unData Engineer F/Hafin d'accompagner nos clients actuels.
Vous intervenez entre autres sur les missions suivantes :
* L’audit de configuration cloud de client et des préconisations d’amélioration.
* Proposition d’architectures data cloud native (GCP)
* La mise en place d’entrepôts de données massivement scalable avec BigQuery, Redshift, MongoDB, Athena, CloudSQL, Firestore…
* Le développement de pipelines de traitement de données avec Spark, Dataflow, PubSub, SQS…
* L’analyse des données et leur mise à disposition de processus de Data science (Machine Learning)
* L’onboarding de clients sur les bonnes pratiques et la philosophie cloud et devops.
* La mise en place des bonnes pratiques d’automatisation (CI/CD, GitOps)
* La conduite du déploiement, de l’intégration et du passage en opération de la solution
Notre écosystème technique (indicatif, variable en fonction des missions) :
* Architecture Data : ETL, ELT, Dataflow, Spark, Airflow, GCP Workflows
* Big Data: BigQuery, Firestore, Redshift, Athena, MongoDB
* Containers & microservices : Docker, Kubernetes, Istio,…
* Architectures orientées messages : Kafka, PubSub,..
* Automatisation & Infrastructure as Code (IaC) : Terraform, CloudFormation, Ansible, GitLab, GitHub,…
* Public Cloud : GCP
* Langages de développement : Python, Go, Java…
Votre profil et les expertises que vous souhaitez développer :
Vous disposez de plusieurs expériences en tant que Data Engineer, notamment dans la mise en place de pipelines et le traitement automatisé des données. Vous avez une vraie appétence pour les technologies Cloud notamment, et de l’expérience sur GCP. Moteur au sein des équipes, vous êtes naturellement tourné(e) vers la proactivité, le partage et la bienveillance.
Notre processus de recrutement :
* 1er échange avecVanessa ouChloé : échange sur vos souhaits et motivations, et présentation de l'entreprise (durée : 1 heure, Teams ou présentiel)
* 2ème échange avecun expert ou une experte technique: questions techniques et descriptif de nos projets (durée : 1 heure, Teams ou présentiel)
* 3e échange avec un ou unepartneren fonction du poste : projection sur votre rôle au sein de Onepoint (durée : 1 heure, Teams ou présentiel)
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.