EngIT est jeune société de passionnés de technologies et d'innovation en IT créée en avril 2017 à Sophia Antipolis spécialisée dans la transformation digitale et l'innovation.
Nos passions : objets connectés, IA, big data, deep learning, véhicule autonome, réalité augmentée, UX, logiciel embarqué, cyber sécurité, blockchain, cloud
Notre conviction : l'innovation IT n'a de sens que si elle contribue à rendre le mode meilleur, meilleur pour nos clients en contribuant à leur performance, meilleur pour chacun par des services et des matériels plus utiles, plus ergonomiques, plus intuitifs et plus pratiques a utiliser au quotidien.
engIT c'est aussi un modèle d'entreprise unique par la combinaison d'une société de service du numérique, d'une startup factory et de l'engIT'lab.
Nous fournissons de l'expertise technologique en IT à nos clients, grands comptes ou startups en les conseillant sur l'adoption de technologies innovantes, en les supportant dans leurs projets de R&D et en leur permettant de passer d'une idée à une mise en oeuvre opérationnelle efficiente.
Dans la startup factory nous développons des startups sur des solutions innovantes, des phases expérimentales jusqu'à la concrétisation d'une spinoff (deux projets portés sur le marché à ce jours, plusieurs encore en incubation).
Enfin l'engIT'lab est un lieu dédié à l'apprentissage, à l'expérimentation de solutions technologiques, à la contribution à des projets open-source, et l'éclosion de projets de nos salariés.
Envie de rejoindre l'aventure ? Dans le cadre du renforcement d'une équipe au sein d'une Data factory, structurée en deux équipes (ETL & Snowflake) nous recherchons un Data engineer confirmé pour accompagner les projets de transformation autour de Snowflake et des flux de données. (secteur retail).
Vos responsabilités :
Conception et développement de flux de données
Participer au développement de flux xDI autour de Snowflake
Mettre en oeuvre les pipelines d'intégration de données entre les différents systèmes sources et la plateforme Snowflake
Contribuer à l'optimisation des performances des traitements
Projet de transformation
Accompagner la migration de Snowflake GCP vers Snowflake Azure
Participer activement à la mise en place d'une architecture Data Mesh, en remplacement du Data Hub actuel
Collaborer avec les équipes Data & Métier pour garantir la bonne intégration des nouvelles solutions
Maintenance et évolution
Assurer le Run & Build sur les pipelines de données existants
Contribuer à la fiabilisation et l'automatisation des traitements
Suivre les évolutions techniques des outils utilisés (Snowflake, xDI, Semarchy)
Collaboration transverse
Travailler en étroite collaboration avec les équipes fonctionnelles Supply, Offre, Digital, Client & Finance
Participer aux rituels agiles de l'équipe et à l'amélioration continue des pratiques
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.