Société d’ingénierie informatique et de services du numérique créée en 2004, Qim info est
Appartenant au groupe MoOngy, l’entreprise bénéficie aussi d’un réseau de développement
international.
3ème entreprise informatique de Suisse romande (), Qim info c’est surtout un ensemble de consultant.e.s capables d’intervenir à tous les niveaux d’un système d’Information sur différents
métiers (Etudes & Développement, Fonctionnel, Infrastructures & Réseaux, Data, DevOps ...) et
différents secteurs d’activités (Banque, Finance, Assurance, Luxe, Retail, Aéronautique ...).
Dans le cadre de notre croissance en région Auvergne Rhône-Alpes, nous recrutons, pour nos clients un Ingénieur(e)s Data (H/F).
En tant que Data Engineer vous aurez pour mission de concevoir, développer, déployer et maintenir des solutions d’intégration et de gestion des données à l’échelle des projets. Vous travaillerez en étroite collaboration avec les équipes Data et DevOps pour garantir une architecture de données optimale et scalable.
#Concevoir et mettre en œuvre des pipelines de données avec T-SQL, SQL, Python, et Apache Spark pour l’intégration, le traitement et l'analyse de données.
Développer des solutions d’automatisation des flux de données en utilisant NiFi et les outils d’intégration associés.
Gérer l'optimisation des performances des bases de données SQL Server et PostgreSQL, et superviser l’utilisation des ressources dans un environnement AWS S3.
Maintenir et administrer les systèmes de gestion de bases de données (SQL Server, PostgreSQL).
Implémenter des solutions de CI/CD pour garantir une mise en production fluide des processus de traitement des données.
Assurer la mise en œuvre des bonnes pratiques et des normes de sécurité dans la gestion des données.
Rédiger la documentation technique et les procédures internes pour le suivi des projets.
Suivre les indicateurs de performance et de qualité des flux de données.
#3 à 6 ans d'expérience en tant qu'analyste / ingénieur data
~ Bac + 5
~ Data Engineering : Bonne maîtrise de la conception et du développement de pipelines de données complexes.
~ Langages de développement : Maîtrise de T-SQL, SQL et Python pour la manipulation des données et le développement d’automatisations.
~ Frameworks et outils : Connaissance approfondie d'Apache Spark pour le traitement de données massives, NiFi pour l’intégration de données, et des outils de gestion de versions comme GIT.
~ Environnement Cloud : Expérience avec AWS S3 pour la gestion et le stockage de données dans un environnement cloud.
~ Bases de données : Expertise sur SQL Server et PostgreSQL pour la gestion des bases de données relationnelles.
~ Systèmes Linux : Bonnes connaissances des environnements Linux pour la gestion des serveurs et des scripts de gestion.
~ Compétences supplémentaires : Connaissances en gestion des workflows de données et des bonnes pratiques en gestion de données massives.
Concepts à maitriser : Organisation Agile / DevOps
Langues : Anglais (technique)
#Postes en CDI #128196;
Télétravail (en moyenne) à hauteur de 2 jours / semaine #128187;
Rémunération en CDI entre 45 et 55K bruts annuels #128176;
#de votre projet de vie et de vos attentes afin de vous proposer des missions
technique avec l’un de nos collaborateurs.
✔️Contexte, constitution de l’équipe en place, objectifs, expertise technique demandée,
connaître en détail les missions ou projets sur lesquels nous pourrions être
Une proximité et un suivi RH & managérial de qualité avec nos consultants pour les accompagner dans leur montée en compétences et dans leur mission au quotidien.
#Les informations que vous fournissez au cours de la procédure de candidature seront utilisées conformément à la politique de confidentialité de Qim info.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.