À propos de nous
Chez TALEXIM, nous accompagnons les entreprises à taille humaine dans leurs recrutements clés.
Nous accompagnons un acteur majeur du secteur logistique dans sa transformation data.
Nous recherchons un(e) Lead data engineer.
Localité : Levallois-Perret (92)
Type de contrat : 6 mois renouvelable ou CDI
Rémunération : 65k€ selon profil
Télétravail : 2 jours/semaine
Démarrage : ASAP
Mission
Ce que nous vous proposons :
Contexte : La mission s’inscrit dans une dynamique d’industrialisation et de montée en maturité des flux data, avec un fort objectif de performance, de robustesse et de standardisation.
Vos missions :
* Architecture & Développement :
o Concevoir, développer et industrialiser des pipelines Big Data à forte volumétrie.
o Garantir la performance, la fiabilité et la scalabilité des flux d’ingestion.
o Superviser l’implémentation et l’évolution des solutions techniques autour de Databricks, Spark, NiFi et Kafka.
* Leadership & Standards :
o Définir et faire respecter les standards de développement, bonnes pratiques et guidelines internes.
o Accompagner les Data Engineers dans leur montée en compétence et leurs choix technologiques.
o Participer activement à la communauté des Tech Leads et aux échanges avec les différentes Lines of Business.
* Orchestration & Cloud :
o Mettre en place et optimiser les orchestrations via Airflow.
o Collaborer avec les équipes Cloud sur l’infrastructure Azure, notamment Databricks, Azure DevOps et les modules CI/CD.
o Automatiser les processus d’ingestion et d’exploitation des données.
* Projets & Coordination :
o Piloter techniquement les projets data et garantir la cohérence des solutions déployées.
o Collaborer avec les équipes Data Science, Data Management et Métiers.
o Contribuer à la construction et l'évolution du Datalake d’entreprise.
Profil
Et vous ?
Vous êtes issu(e) d'une formation en communication et vous avez au moins 2 ans d'expérience dans une expérience :
* +5 ans d’expérience en tant que Data Engineer ou Lead Data Engineer.
* Expérience solide en conception, développement et industrialisation de pipelines Big Data.
Expertises techniques indispensables :
* Spark (expert)
* Databricks
* Apache NiFi
* Kafka (ingestion & streaming)
* Azure Cloud
Langages :
* Scala ou Java
* Python
* SQL
ETL & Orchestration :
* Apache Spark
* Apache NiFi
* Dataiku (atout apprécié)
* Apache Airflow
* Ansible
CI/CD & DevOps :
* Azure DevOps
* Git
Soft skills & leadership :
* Capacité à porter une vision technique long terme.
* Leadership et mentoring d’équipe.
* Excellente communication.
* Esprit analytique, rigueur et autonomie.
Vous vous reconnaissez dans cette annonce ? On vous attend ! Et dans tous les cas, on vous donne des nouvelles :)
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.