Architecture, maintenance et intégration de données :
* Concevoir, Développer et maintenir des pipelines ETL/ELT fiables, performants et documentés sur des application internes ou externes.
* Gérer les processus d’extraction, transformation et chargement des données entre systèmes hétérogènes.
* Intégration des données dans un data warehouse ou data lake (Azure, Snowflake ou autre).
* Maintenance des bases de données (SQL Server, PostgreSQL…).
* Surveillance des performances, gestion des volumes et nettoyage des données
Qualité et gouvernance des données :
* Mettre en œuvre des contrôles de qualité, de cohérence et de complétude des données.
* Participer à la mise en place d’une gouvernance des données en partenariat avec le data manager (référentiels, dictionnaire de données, règles métiers).
* Collaborer avec les métiers pour formaliser les besoins et structurer les jeux de données
Support à la BI et au reporting :
* Préparer les jeux de données pour les outils de reporting (Power BI, Excel, SQL…).
* Optimiser l’alimentation des dashboards de pilotage (ventes, logistique, achats, production…).
* Collaborer avec le data manager pour structurer les indicateurs.
Support aux projets SI :
* Appui technique pour les projets BI, applicatifs ou de transformation digitale ;
* Participation aux ateliers de cadrage data (besoins, volumétrie, exploitation).
* Documenter les schémas de données et les logiques d’intégration.
Innovation et amélioration continue :
* Participation à une veille technologique active sur les sujets data, IA, automatisation et architecture cloud.
* Proposition de nouvelles pratiques ou outils innovants (DataOps, automatisation des workflows, intégration low-code/no-code…).
* Contribution à l’amélioration continue de la performance du système d’information et de l’exploitation de la donnée dans l’entreprise.
Compétences opérationnelles
• Maîtrise du SQL avancé, gestion de bases relationnelles.
Expérience sur des outils ETL/ELT (Lobster,Talend, Azure Data Factory, etc.).
•Systèmes : SQL Server, Azure, Power BI, Snowflake.
•Maitrise du langage Python.
•Sensibilité à la gouvernance des données, RGPD, qualité des référentiels.
Connaissance
• Bac +5 en informatique, data engineering ou systèmes d’information.
• Une première expérience en environnement industriel ou de gestion de production est un plus
•Savoir mettre en œuvre les méthodes d’analyse et de formalisation des besoins des utilisateurs potentiels.
• Comprendre et être capable de traduire les besoins spécifiques des utilisateurs
• Savoir leur apporter une réponse adaptée.
• Savoir gérer la confidentialité des informations et des données.
• Qualités relationnelles, diplomatie, réactivité.
• Capacité à travailler en binôme, en équipe et en réseau.
•Pédagogie, capacité à vulgariser auprès de non-techniciens.
T2S, 150 collaborateurs, 54.7 Millions de chiffre d affaires, est l'un des plus gros fabricants français d'Equipements de Protection Individuelle haute visibilité (Fluo rétroréfléchissant), reconnu pour la qualité de ses produits !
T2S s'affirme également comme un intervenant majeur sur le marché de la signalisation complémentaire de véhicules.
Vous souhaitez rejoindre une société en plein développement ? Alors rejoignez-nous !
Le poste est basé à St Chamond (42)
T2S vous offre la possibilité d évoluer dans une PME familiale où il fait bon vivre ! Vous bénéficierez d'un environnement de travail agréable où il vous sera possible de télétravailler.
Découvrez T2S sur les réseaux LINKEDIN et INSTAGRAM !
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.