En tant que Data Engineer, vous interviendrez sur des missions variées chez nos clients (ETI et grands groupes), en collaboration avec des équipes pluridisciplinaires.
Votre rôle consistera à concevoir, développer et optimiser des pipelines de données robustes, scalables et sécurisés, tout en accompagnant les métiers dans la définition de leurs besoins et la valorisation de leurs données.
Vous serez à la fois faiseur et conseil: capable de construire des architectures techniques fiables, mais aussi d'animer des ateliers métiers pour transformer les besoins fonctionnels en solutions data concrètes
Vos principales responsabilités :
Data Engineering
- Concevoir, développer et maintenir des pipelines de données robustes et automatisés.
- Mettre en place des flux d'intégration et de traitement de données, y compris dans des contextes de migration vers le Cloud.
- Définir et implémenter de nouvelles architectures data (data warehouse, data lake, lakehouse).
- Assurer la qualité, la sécurité, la conformité (RGPD) et la performance des données.
- Industrialiser les traitements et mettre en œuvre les bonnes pratiques DevOps (CI/CD, monitoring).
Data Consulting
- Animer des ateliers métiers pour comprendre les besoins utilisateurs et les traduire en solutions data adaptées.
- Participer à la conception, l'implémentation et l'automatisation des flux de données répondant aux enjeux métiers.
- Produire et restituer des analyses et visualisations claires pour accompagner la prise de décision.
Innovation & veille
- Expérimenter et industrialiser des modèles de Machine Learning (LLMs, NLP, RAG, etc.).
- Contribuer à la veille technologique, tester et intégrer de nouvelles solutions innovantes dans les projets.
Profil recherché :
- Diplômé(e) d'une école d'ingénieur ou d'un cursus en informatique (une thèse serait un plus).
- Expérience significative avec plusieurs mises en production de pipelines ou projets data.
Compétences techniques :
- Langages : SQL, Python, Java.
- Bases de données / DWH : PostgreSQL, SQL Server, Oracle.
- Orchestration & Big Data : Airflow, Spark, Monitoring, MLOps.
- DevOps : Docker, Kubernetes, CI/CD (GitLab, GitHub Actions).
- Cloud : AWS.
- Data Viz : Plotly/Dash (idéalement Power BI ou Tableau en complément).
- IA / ML : GPT, BERT, HuggingFace, LangChain, Pinecone.
- Gestion du code : Git (GitFlow standard), GitHub.
Serait un plus : DBT, Snowflake, Terraform, Dataiku, Databricks.
Soft skills :
- Vous avez l'esprit analytique et aimez résoudre des problèmes complexes.
- Vous savez vulgariser les concepts techniques auprès des clients (IT / métiers / CDO).
- Vous êtes curieux(se) et disposez d'une réelle appétence pour l'innovation et les nouvelles technologies.
- Vous êtes autonome, rigoureux(se) et proactif(ve).
- Vous aimez travailler en équipe.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.