Ingénieur Data Science H/F (CDI), île-de-france
SoyHuCe - Le centre d’excellence opérationnel en Data / IA et Web de JAKALA. Nos équipes combinent les expertises nécessaires à la création de solutions data clé-en-main : collecte, traitement, analyse, algorithmie, exploitation, intégration et UX/UI. Elles répondent à des cas d’usage variés dans plusieurs secteurs : retail, énergie, loisirs, industrie, assurance, secteur public, santé, etc.
Le Data Lab : expertise en Algorithmie, Data Science & IA avec capacité d’industrialisation ; en lead sur les projets R&D.
La Digital Factory : intégration des innovations dans des solutions web / app et mise à l’échelle auprès des utilisateurs.
Le Customer Success : accompagnement fonctionnel et gestion de projets.
Chez SoyHuCe, toutes les initiatives sont valorisées : idées, avancées techniques, montée en compétences, dans une ambiance challengeante et bienveillante.
Vous aurez l’opportunité de travailler sur des projets innovants avec des experts reconnus, soutenus par des partenariats technologiques de premier plan.
Nous valorisons l’inclusion et le bien-être au travail, assurant un environnement respectueux et accessible à tous.
Au sein de notre Data Lab, vous collaborerez avec des Data Scientists, Data Engineers, MLE/MLOps engineers, et participerez aux décisions sur les solutions Data et leur évolution.
Vos missions principales :
* Contribuer au développement de notre offre Data et à l’industrialisation de plateformes data pour nos clients.
* Analyser et proposer des solutions techniques adaptées aux besoins des plateformes digitales et projets internes.
* Définir l’architecture logiciel ETL / ELT en collaboration avec l’équipe.
* Rédiger la documentation technique (diagrammes UML, API, etc.).
* Concevoir et développer des connecteurs entre sources de données et plateformes.
* Créer et maintenir des pipelines de traitement de données (batch et temps réel) dans un environnement Big Data.
* Assurer la veille technologique et mener des projets de R&D.
Vos responsabilités internes et pour nos clients :
* Cartographier des données et flux de données.
* Implémenter des algorithmes d’analyse pour l’industrialisation.
* Collecter, consolider et modéliser de gros volumes de données (Big Data, Data Warehouses, Data Lakes).
* Développer et automatiser des flux de données et visualisations (dashboards, reporting).
* Garantir la scalabilité, sécurité, stabilité et disponibilité des données.
* Analyser les données web pour répondre aux questions métiers et contribuer à l’architecture Big Data.
Compétences techniques requises :
* Script ETL : Python (Pandas, API Rest, FaaS), Java (Kafka Connect, SOAP), Spark (PySpark, Databricks, Delta Lake).
* Conception et administration d’entrepôts de données : Snowflake, Big Query, PostgreSQL.
Profil recherché :
* Diplômé·e en informatique, big data, ou équivalent, avec au moins 5 ans d’expérience en Data engineering.
* Expertise en pipelines de valorisation de données massives.
* Maîtrise de l’anglais appréciée.
* Certifications indispensables : GCP Professional Data Engineer, Azure Data Engineer Associate, ou AWS Solution Architect.
Avantages :
* Projets techniques variés.
* Bureaux à Paris et Caen.
* Télétravail jusqu’à 3 jours/semaine.
* Mutuelle d’entreprise, participation aux frais de transport, tickets restaurant.
#J-18808-Ljbffr
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.