L'objectif de ce poste est de contribuer à la stratégie de développement de l'entreprise dans le domaine de l'assurance pour animaux de compagnie, en préparant les données nécessaires aux projets métiers. Vous jouerez un rôle clé dans la conception et la gestion de notre infrastructure de données sophistiquée, essentielle à nos besoins analytiques et opérationnels. Vos missions quotidiennes incluront le développement de pipelines ETL, le soutien au développement de data lakes et de data warehouses, ainsi qu'une collaboration étroite avec les parties prenantes pour préparer les données nécessaires à la production d'analyses exploitables par nos analystes et data scientists. Vous serez également responsable du bon fonctionnement du moteur de tarification des assurances pour animaux, un élément critique pour le succès de l'activité. Vous aurez l'opportunité de collaborer à la fois avec l'équipe locale basée à Paris et les autres membres de la communauté data en Europe. Vous bénéficierez de l'utilisation des dernières technologies data, notamment l'infrastructure cloud Azure, ADF, ADLS Gen2, Databricks, Power BI, etc., tout en participant à la migration d'anciennes technologies vers des solutions modernes. Ce poste offre un équilibre unique entre missions locales et exposition internationale, constituant un environnement idéal pour le développement personnel et professionnel.
Responsabilités principales :
Développer et maintenir des solutions de données de bout en bout, de haute qualité, en collaboration avec les équipes d'analystes, de data scientists et de gouvernance.
Travailler avec les experts métiers (SME) et les Product Owners pour comprendre les besoins business et les traduire en architectures de données robustes.
Améliorer les modèles et processus de données, en garantissant leur évolutivité et leur pérennité.
Promouvoir l'automatisation et l'amélioration continue des plateformes de données.
Maintenir les plus hauts standards de gestion et de sécurité des données, en restant à jour sur les technologies et méthodes les plus récentes.
Identifier des pistes d'amélioration en matière de fiabilité, d'efficacité et de qualité des données et de l'environnement technique de l'équipe data.
Partager les connaissances, tenir à jour la documentation technique et appliquer les bonnes pratiques (gestion de versions, durées de rétention des données, conformité RGPD, etc.).
Gérer le processus complet du moteur de tarification, incluant la mise en œuvre des tarifs, sa maintenance et son amélioration.
Maintenir une documentation complète des processus de tarification, des méthodologies, ainsi que la gestion des référentiels de données tarifaires.
Compétences clés :
Excellente maîtrise de la manipulation de données avec SQL, SAS, Python et/ou R.
Expérience souhaitée dans la conception et le développement de solutions data sur la plateforme Microsoft Azure (ADF, ADLS, Databricks).
Solide expertise dans le traitement de gros volumes de données complexes.
Connaissance des outils de reporting et de BI comme Power BI ou Tableau.
Capacité à respecter des délais courts et longs, et à travailler sous pression.
Autonomie, capacité d'adaptation, esprit d'initiative et sens de l'innovation.
Orientation résultats - implication et motivation à atteindre les objectifs.
Grande rigueur, excellentes compétences organisationnelles et d'analyse.
Capacité à acquérir de nouvelles compétences.
Maîtrise approfondie des outils et techniques ETL/ELT, y compris la conception et la mise en œuvre de frameworks de gestion de jobs.
Anglais (avancé +), français.
Formation :
Diplôme en informatique ou dans une discipline technique ou quantitative équivalente.
Formation - Atouts supplémentaires :
Expérience en développement logiciel avec des langages tels que C#, SQL, VBA, Python.
Expérience des processus informatiques et de la concept
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.