Mission
Venez développer et mettre en place des traitements de collecte, d'organisation et de mise à disposition des données (internes et externes).Votre objectif : faciliter le travail des équipes d'analystes et de valorisation des données.
Et si être « Data Engineer » chez APRIL vous permettait …
1. de choisir un métier dont vous pourrez être fier : «accompagner et protéger à chaque moment qui compte, simplement» telle est la mission et la raison d’être partagée par l’ensemble de nos collaborateurs,
2. de développer votre expertise dans un environnement en pleine transformation, au carrefour de l’innovation et de l’expérience client : notre ambition, être un acteur digital, omnicanal et agile, champion de l'expérience client,
3. de vous engager au sein d'une entreprise engagée : nous rejoindre, c’est faire partie d’un Groupe responsable qui agit en entreprise citoyenne en étant mobilisé autour de 4 axes (santé, aidants, éducation et environnement) avec un impact sociétal positif et réel.
Nous nous engageons à promouvoir des emplois respectant la diversité et la différence, ouverts à chacun.
Dans un contexte d’accélération de sa stratégie Data, le groupe renforce ses capacités pour répondre à des enjeux métiers majeurs : lutte contre la fraude, accompagnement des équipes commerciales, fidélisation des assurés et optimisation continue de la performance grâce à l’intelligence artificielle.
Nous recrutons un(e) Data Engineer confirmé(e) pour rejoindre notre équipe Data. Vous interviendrez à la fois sur le développement et la maintenance des pipelines métiers (environ 60 % de votre activité) et sur l’évolution de notre plateforme d’orchestration Dagster (environ 40 %), au cœur de notre écosystème data.
VOS FUTURES MISSIONS :
1. Data Engineering
Conception et industrialisation des pipelines de données
4. Concevoir, développer et maintenir des pipelines ELT robustes et scalables dans un environnement Snowflake / dbt
5. Garantir la disponibilité, la sécurité et la qualité des flux de données
6. Intégrer et fiabiliser des sources de données hétérogènes (bases de données, APIs, fichiers plats)
Valorisation et exploitation de la donnée métier
7. Concevoir des visualisations à forte valeur ajoutée via Qlik Sense ou Streamlit
8. Réaliser des analyses approfondies pour éclairer la prise de décision des équipes métiers
9. Participer à la conception et à l’évolution de datamarts transverses
Innovation et amélioration continue
10. Contribuer aux projets structurants de la roadmap Data 2025 (Fraude, GENIA, KPI transverses, etc.)
11. Proposer et mettre en œuvre des optimisations sur les processus de transformation et de modélisation des données
12. Participer aux choix technologiques et à la définition des standards et bonnes pratiques Data
Documentation et partage des connaissances
13. Rédiger et maintenir la documentation technique
14. Accompagner et former les équipes métiers et techniques sur les nouveaux flux et usages data
2. Exploitation et évolution de notre plateforme analytique & orchestration
15. Superviser le bon fonctionnement de la plateforme d’orchestration
16. Administrer les jobs, schedules et sensors
17. Diagnostiquer, analyser et résoudre les incidents d’exécution
18. Participer aux déploiements et mises à jour de Dagster sur Azure Kubernetes Service (AKS)
19. Optimiser les performances de la plateforme (gestion des ressources, métadonnées, fiabilité)
20. Contribuer aux pipelines CI/CD (GitLab CI, Azure Key Vault)
21. Mettre en œuvre et faire évoluer les starter kits à destination des équipes Data
22. Accompagner les équipes dans l’adoption et l’utilisation de Dagster
23. Documenter et diffuser les bonnes pratiques d’orchestration
24. Contribuer à la définition et à l’évolution de la stratégie DataOps
Notre stack technique :
25. Orchestration : Dagster (que vous apprendrez avec nous), VTOM
26. ELT/Transformation : Talend et Data Build Tool (essentiel), Data Load Tool
27. Stockage : Snowflake (alimenté via BDD, API, fichiers plats...)
28. Versioning : Git / GitLab
29. BI et Dataviz : Qlik Sense, Streamlit
30. Développement : Python (maîtrise requise), SQL
31. Infrastructure : Azure (AKS), Docker, Kubernetes, Helm
32. DevOps : GitLab CI, Azure KeyVault, Terraform
Notre roadmap 2025 comprend :
33. Amélioration de la performance opérationnelle grâce à l’IA
34. Lutte contre la fraude
35. Fidélisation de nos assurés
36. Industrialisation de notre écosystème Data
Cette opportunité est à pourvoir dans le cadre d'une création de poste.
Directement rattaché.e à une équipe Data groupe, vous rejoindrez notre équipe Lyonnaise.
Dès votre arrivée, vous bénéficierez d'un parcours d'intégration pour favoriser votre prise de poste.
Profil
Vous disposez de 5 à 10 ans d’expérience en Data Engineering et d’une expertise solide dans la conception de pipelines de données, les transformations et la qualité des données. Vous avez évolué dans des environnements data modernes (cloud, orchestration, data warehouse) et souhaitez élargir votre périmètre vers des enjeux de plateforme et d’industrialisation.
Compétences clés
37. Python et SQL avancés (modélisation, performance, data processing)
38. Conception de pipelines ELT robustes et monitorés
39. Expérience avec dbt, Snowflake (ou équivalent)
40. Maîtrise des bonnes pratiques Git
41. Utilisation d’un outil d’orchestration (Dagster, Airflow…)
Atouts appréciés
42. Environnements cloud et notions Kubernetes / Docker
43. Sensibilité DevOps / CI-CD / IaC
44. Appétence pour les sujets DataOps et Platform Engineering
Cette opportunité est faite pour vous ? N'attendez plus pour postuler en nous adressant votre CV accompagné de quelques lignes sur votre projet professionnel et ce qui pourrait vous épanouir aujourd'hui. Ce sera la première étape de notre processus de recrutement.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.