Notre client dans le secteur Énergie et ressources naturelles recherche un Senior Data Engineer Python ? Environnement AWS Cloud H/F
Descriptif de la mission:
Objectifs et livrables
L?entreprise recherche une prestation de Senior Data Engineer externe, curieux(se) et engagé(e), pour rejoindre une équipe data.
Le profil externe sera responsable de :
- Construire des data pipelines scalables
- Concevoir des modèles de données robustes
- Délivrer des solutions data de haute qualité dans un environnement collaboratif
Missions / Responsabilités principales
? Collaboration métier
- Travailler en étroite collaboration avec les parties prenantes métier pour comprendre les besoins
- S?assurer que les produits data répondent aux objectifs de l?organisation
? Modélisation et architecture de données
- Concevoir et implémenter des modèles de données robustes, scalables, maintenables et facilement consommables par d?autres produits et par les data analysts
- Optimiser l?architecture data et les solutions de stockage pour la performance, le coût et l?accessibilité
- Maintenir des formules de calcul de données complexes
? Pipelines et traitements de données
- Construire et maintenir des pipelines de données scalables pour des processus ETL/ELT
- Assurer un flux de données fiable et efficient à travers les systèmes
- Développer des solutions data en Python pour manipuler, transformer et préparer les workflows d?ingestion de données
? Environnement Cloud et outillage
- Utiliser les services cloud AWS (ex. Lambdas, Step Functions, S3, RDS, etc.) pour l?orchestration, le traitement et la livraison de données
- Exploiter Databricks et pySpark (Unity Catalog?) pour les traitements distribués
- Collaborer avec les équipes backend pour aligner les intégrations de services et les implémentations techniques
? Qualité, performance et industrialisation
- Participer aux revues de code, discussions de design et activités de planification logicielle
- Mettre en place, monitorer et tester les standards de qualité des données pour garantir précision, cohérence, fiabilité et performance optimale des actifs data
- Prendre en charge et faire preuve d?initiative sur la qualité des données, la performance des systèmes et l?amélioration continue de l?infrastructure data
Profil et compétences recherchées
Compétences techniques requises
- Python (pandas, pydantic, tests unitaires, linting, formatting?) : niveau 4/4
- GitHub (GitHub Actions ? workflows CI/CD) : niveau 2/4
- Plateforme AWS Cloud (Lambdas, Step Functions, S3, RDS?) : niveau 3/4
- Databricks / pySpark (Unity Catalog?) : niveau 2/4
- Connaissances de base en Terraform ou forte appétence pour l?apprendre : niveau 1/4
- Bases de données SQL : PostgreSQL, clients SQL et outils d?administration (ex. DBeaver) : niveau 4/4
- Compétences linguistiques anglais et français : niveau 4/4 (bilingue / courant dans les deux langues)
Mindset / état d?esprit
- Agilité
- Envie de comprendre le business et ses valeurs fondamentales
- Curiosité technique et implication dans des solutions transverses
- Forte orientation résolution de problèmes
- Engagement dans l?apprentissage continu et l?adaptation aux technologies en évolution
- Participation et contribution aux activités et projets du chapitre data engineering
Soft skills
- Communication claire en français et en anglais
- Attention au détail
- Capacité à travailler de manière autonome et en équipe
- Forte exigence sur la qualité du code, la documentation et la collaboration
- Idéalement, capacité à vulgariser la technique pour communiquer avec les équipes métier sur des sujets technologiques
Détails de la mission
- Date de démarrage souhaitée : 16/02/2026 (au plus tard)
- Localisation : Paris
- Modalités de travail :
? 2 jours par semaine en télétravail
? 3 jours par semaine sur site à Paris
Planning et étapes de sélection
- Clôture de la consultation / date limite des propositions : 18/01/2026
- Envoi des tests techniques (codingame avec proctoring) : 19/01/2026
? À compléter par les profils dans les 72h après réception, avant le vendredi 23/01/2026
- Soutenances techniques : entre le 27/01/2026 et le 02/02/2026
Compétences demandées :
- AWS Cloud platform : niveau Confirmé
- SQL Databases : niveau Expert
- PySpark : niveau Avancé
- Databricks : niveau Avancé
- GitHub : niveau Avancé
- Terraform : niveau Élémentaire
- Python : niveau Expert
Langue
- Anglais : niveau Bilingue
- Français : niveau avancé (équivalent bilingue, requis pour la communication et la documentation)
Compétences / Qualités indispensables: Français et anglais courants,
Python : niveau Expert
AWS Cloud platform : niveau Confirmé,
SQL Databases : niveau Expert,
PySpark : niveau Avancé,
Databricks : niveau Avancé,
GitHub : niveau Avancé,
Terraform : niveau Élémentaire,
Profil candidat:
Langue
- Anglais : niveau Bilingue
- Français : niveau avancé (équivalent bilingue, requis pour la communication et la documentation)
Compétences / Qualités indispensables: Français et anglais courants,
Python : niveau Expert
AWS Cloud platform : niveau Confirmé,
SQL Databases : niveau Expert,
PySpark : niveau Avancé,
Databricks : niveau Avancé,
GitHub : niveau Avancé,
Terraform : niveau Élémentaire,
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.