Description DSI, Distribution Services Industriels est une Entreprise Adaptée et inclusive qui a pour vocation la création d'emplois durables et qualifiants pour une majorité de personnes en situation de handicap. Notre métier premier : l'inclusion. Nous proposons du service aux entreprises (sous traitance et co traitance). DSI a été fondée en 1994 et elle est implantée au niveau national : Occitanie, Ile-de-France, Hauts-De-France, Nouvelle Aquitaine, PACA, Pays de la Loire et Auvergne Rhône-Alpes. Partenaires des grandes entreprises, nos activités sont regroupées en pôles : Projets numériques, Logistique, Services industriels, Multi-services et Bureautique. Nos valeurs : inclusion, performance économique et sociale, bienveillance. Pourquoi nous rejoindre ? Mission Au sein de notre équipe data, vous participerez à la conception, au développement et à la maintenance de solutions d’analyse de données et d’outils facilitant la prise de décision. Vos responsabilités : Participer à l’analyse des besoins métiers et techniques Concevoir, développer et maintenir des scripts et applications en Python dédiés à l’analyse, la transformation et la visualisation de données Mettre en place et optimiser des pipelines de données (ETL/ELT) Manipuler et exploiter des données issues de différentes sources (API, bases SQL/NoSQL, fichiers, data lakes…) Assurer la qualité des données : nettoyage, contrôle, automatisation des traitements Créer des dashboards et visualisations (Matplotlib, Plotly, Power BI, Tableau, selon votre stack) Rédiger de la documentation technique Collaborer avec les équipes produit, métier et infrastructure Communiquer en anglais avec certains interlocuteurs techniques ou clients Contraintes du poste : travail sur écran, gestion du stress Profile à compétences égales, priorité aux demandeurs d'emploi titulaires de la Reconnaissance de la Qualité de Travailleur Handicapé Minimum 3 ans d’expérience en développement Python ou en data analyse / data engineering Excellente maîtrise de Python et des librairies data : Pandas, NumPy, éventuellement scikit-learn Connaissances en SQL (PostgreSQL, MySQL, SQL Server…) Bonnes notions en architecture data, API REST, pipelines de données Expérience avec un ou plusieurs outils de visualisation : Matplotlib, Seaborn, Plotly, ou outils BI (Power BI, Tableau…) Connaissance appréciée d’environnements cloud (AWS, Azure, GCP) ou d’outils de workflow (Airflow, Prefect…) Expérience de travail en méthodologies agiles (Scrum / Kanban) Niveau d’anglais B2 minimum Rigueur, autonomie, bonnes capacités d’analyse et esprit d’initiative
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.