Description du poste Paris (hybride) | Démarrage 2 mois | Temps plein Contexte de la mission Vous intervenez au sein d’un fonds d’investissement français de premier plan, engagé dans une transformation ambitieuse autour de la Data et de l’Intelligence Artificielle. L’organisation structure actuellement le passage : de cas d’usage IA exploratoires à une mise à l’échelle de solutions déployées et utilisées L’objectif est de développer et industrialiser plusieurs dizaines de use cases IA à fort impact métier.Vous serez rattaché au Lead Data Engineer. Vos missions Pipelines d'ingestion Concevoir, développer et maintenir les pipelines depuis des sources hétérogènes (Salesforce, SAP BO, SharePoint, MSSQL, SFTP) vers le Data Warehouse Snowflake, via un Data Lake S3. Architecture Medallion Alimenter et faire évoluer l'architecture Landing → Bronze → Silver → Gold dans Snowflake. Orchestration Développer et superviser les DAGs Airflow (Astronomer) pour ordonnancer les flux, gérer les dépendances et assurer la reprise sur erreur. Qualité & observabilité Mettre en place et maintenir les contrôles de qualité avec Elementary et les tests dbt, monitorer la fraîcheur et la volumétrie des données en collaboration avec les data stewards et le responsable de la gouvernance data. Infrastructure as Code Gérer les stages externes Snowflake (S3, SharePoint), les intégrations de stockage, les rôles RBAC et les ressources cloud AWS via Terraform ou scripts CI/CD. Intégration IA Contribuer aux pipelines de traitement documentaire exploitant Snowflake Cortex (AI_PARSE_DOCUMENT, AI_COMPLETE) et AWS Bedrock pour l'extraction d'informations à partir de documents non structurés. CI/CD & DevOps Maintenir les pipelines GitLab CI/CD, les environnements Docker et les pratiques de versioning pour l'ensemble des composants data. Documentation & collaboration Documenter les pipelines, participer aux revues de code et contribuer à la montée en compétences de l'équipe. Stack technique Cloud : AWS (S3, IAM Identity Center, Bedrock) Data Warehouse : Snowflake (stages, Cortex, RBAC, External OAuth) Transformation : dbt Core (architecture Medallion) Orchestration : Apache Airflow (Astronomer) Observabilité : Elementary Langages : Python (uv, Pydantic), SQL CI/CD & Infra : GitLab CI/CD, Docker, Terraform BI : Power BI / Sigma / SAP BO IA / LLM : Snowflake Cortex, AWS Bedrock (Claude), Claude Code Connecteurs : Salesforce API, SAP BO, Microsoft Graph API Profil recherché Profil recherché Formation Bac5 en informatique, data engineering ou équivalent 5 à 10 ans d'expérience en ingénierie de données, idéalement en environnement cloud AWS / Snowflake Solide maîtrise de SQL et Python Maîtrise de dbt et des bonnes pratiques Expérience confirmée sur Airflow Bonne compréhension des architectures data modernes (Lakehouse, Medallion, ELT) Familiarité avec les bonnes pratiques DevOps (Git, CI/CD, conteneurisation) Connaissance des problématiques réglementaires (RGPD, DORA, AMF) appréciée Curiosité pour l'IA générative et les cas d'usage LLM appliqués à la donnée Autonomie, rigueur, capacité à travailler en équipe dans un contexte exigeant Français courant, anglais professionnel
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.