Notre groupe est au service de la transformation digitale des entreprises depuis 20 ans.
De l'étude à la réalisation en passant par le conseil, nous travaillons sur des projets de refonte d'infrastructure, de Cloud, d'Intelligence artificielle, de Cybersécurité, d'équipements « Endpoint », de Smartcity ou encore en développement web et applicatif.
Nous sommes convaincus qu'il ne suffit pas de transformer l'IT et qu'il faut aussi être capable de digitaliser les produits, les services et plus généralement les métiers
#DIGITALWAY
La complémentarité de nos différents pôles et de leurs expertises respectives permet aujourd'hui à REEL IT de se distinguer par son hyper-compétence, sa polyvalence et son dynamisme.
La cohésion entre nos différents pôles d'expertise constitue notre force pour faire face à la complexité et à l'ampleur de tous les projets que nous abordons. Dans le cadre du développement et de l'évolution d'une plateforme data, vous intervenez sur la conception, l'intégration et l'exploitation de solutions permettant de traiter de grands volumes de données en toute sécurité. Vous évoluez dans un environnement technique riche avec des enjeux de qualité, de performance et de gouvernance des données.
Missions principales
- Cartographier et documenter les sources de données
- Assurer la maintenance des applications data en production et des infrastructures associées
- Concevoir des solutions de traitement de flux de données à forte volumétrie
- Structurer les bases de données (sémantique, formats, modélisation)
- Contribuer à la gestion des référentiels de données
- Collecter, stocker et sécuriser les données issues de sources multiples (internes et externes)
- Superviser l'intégration des données et garantir leur qualité et leur sécurité
- Nettoyer, valider et préparer les données pour les usages aval
- Animer la communauté technique autour des pratiques data
- Assurer une veille technologique et proposer des évolutions des solutions en place
Compétences techniques
- Langages : SQL, Python, Java, Bash/Shell
- Bases de données : Data Warehouse, Data Lake, Data Platform / Lakehouse
- Traitement des données : frameworks Big Data (ex : Spark), pipelines ETL/ELT, streaming
- Cloud : Azure et concepts associés (stockage, calcul distribué)
- Modélisation : modèles relationnels et dimensionnels (étoile, flocon)
- Optimisation des performances des schémas de données
- Environnement DevOps : CI/CD, conteneurs, orchestration, Git/GitHub, monitoring et logging
- Gouvernance des données : qualité, sécurité, gestion des catalogues, RGPD
Livrables attendus
- Documentation d'exploitation des solutions de traitement de données
- Cartographie des données
- Mise en place d'éléments garantissant la qualité et la fiabilité des données
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.