Au sein de notre DataLab, tu travailles conjointement avec les Data Scientists, Data Engineers, MLE / MLOps engineers en poste, et tu es impliqué.e dans la prise de décisions liées aux solutions Data et à leur évolution.
À cet effet, tu es en charge de :
1. Contribuer au développement de notre offre Data et à l'industrialisation de plateformes data pour nos clients
2. Comprendre, analyser et proposer des solutions techniques répondant aux besoins des plateformes digitales et des projets internes
3. Définir l'architecture logicielle ETL / ELT en collaboration avec tes pairs
4. Travailler la donnée sous toutes ses formes (stockage, modélisation de modèles, structuration, nettoyage)
5. Rédiger la documentation technique (diagrammes UML, documentation d'API)
6. Partager ton savoir-faire entre les différents membres de l'équipe
7. Concevoir et développer des connecteurs entre les sources de données (internes et externes) et la plateforme
8. Concevoir et développer des pipelines de traitements de données (batch et en temps réel) dans un environnement Big Data
9. Assurer une veille technologique et mener à bien un projet de R&D
10. En autonomie, réaliser des missions en interne ou auprès de nos clients grands comptes :
* Cartographier des données et des flux de données
* Implémenter des algorithmes d'analyse de données pour l'industrialisation
* Collecter, consolider et modéliser de gros volumes de données (Big Data, Data Warehouses, Data Lakes)
* Développer et automatiser des flux de données et leurs visualisations en dashboards/reporting
* S'assurer de la scalabilité, sécurité, stabilité et disponibilité des données de la plateforme
* Analyser les données web pour répondre aux questions métier et participer à la construction de l'architecture Big Data
* Mettre en place du scheduling et de la supervision des flux, en gérant les cas limites
Compétences attendues :
* Bon niveau en développement : connaissance, conception et administration d'entrepos de données : Snowflake, BigQuery, PostgreSQL
* Compétences cloud : Kubernetes, conteneurisation, fournisseur cloud (AWS, GCP ou Azure), Infrastructure as Code (Terraform)
* Expérience en architecture et dimensionnement d'une architecture cloud via des services managés
* Cartographie des données
#J-18808-Ljbffr
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.