À propos d’iPepper
iPepper est une société de conseil et de solutions logicielles. Nous sommes une communauté experte et humaniste qui accompagne les meilleurs Talents de la Data Tech dans leurs missions auprès de clients impactants.
Nous soutenons nos clients, qu'il s'agisse de start-ups, PME ou grandes entreprises, dans leurs projets stratégiques, en valorisant les talents dans un cadre où l’intelligence collective et le bien-être sont prioritaires. Nous croyons que c'est en créant une communauté soudée, épanouie et en évolution constante que nous releverons les grands défis de la DataTech.
En rejoignant iPepper en tant que consultant, vous intégrerez un réseau dynamique, humain et bienveillant, avec un accompagnement personnalisé tout au long de votre mission.
Le contexte de la mission
Dans le cadre d’un projet stratégique chez l’un de nos clients, nous recherchons un(e) Data Engineer pour contribuer à la scalabilité, à la performance et à l’industrialisation des traitements de données.
Vous évoluerez dans un environnement multi-cloud (Azure, GCP & AWS) et manipulerez des outils modernes tels que DBT, Snowflake, Airflow, MLflow, Kubeflow, etc.
Vos missions
1. Architecture & Déploiement Cloud
2. Participer à la définition de l’architecture technique en lien avec le backlog produit.
3. Collaborer avec le PO, les DevSecOps et les architectes de la plateforme Cloud.
4. Automatiser et sécuriser les environnements (IaC, DevOps, monitoring, etc.).
Coaching & Transmission
1. Accompagner les équipes dans la montée en compétences.
2. Vulgariser les enjeux techniques auprès d’interlocuteurs non techniques.
3. Promouvoir les bonnes pratiques DevSecOps.
Exploitation & Data Engineering
1. Garantir la stabilité et la performance des environnements de production.
2. Concevoir des pipelines de données robustes et optimisés.
3. Participer à la création d’algorithmes de transformation et à la valorisation des données (visualisation, ML).
Compétences clés
* Maîtrise des environnements Cloud (Azure, GCP, AWS).
* Expertise en DBT, Snowflake, Airflow, Prefect.
* Expérience en MLOps (Kubeflow, MLflow, Vertex AI, SageMaker, etc.).
* Très bon niveau en Python, SQL, Spark.
* Sens de l’optimisation technique et économique des infrastructures data & ML.
Profil recherché
* Diplôme d’ingénieur informatique ou Master avec spécialisation en data.
* 3 à 4 ans d’expérience minimum sur un poste similaire en environnement cloud.
* Expertise avec Spark, Python, Scala, et solide compréhension des processus ETL.
* Maîtrise des services cloud (Azure, GCP, AWS) et plateformes de données comme Snowflake ou Databricks.
* Maîtrise du français et de l’anglais, à l’écrit comme à l’oral.
* Capacité d’analyse et résolution de problèmes comme atouts majeurs.
Conditions & Collaboration
Mission en freelance de 6 mois renouvelable, avec démarrage rapide.
#J-18808-Ljbffr
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.