Overview
CDI • Mulhouse • Publié il y a 1 an
RED TIC recherche un Senior Data DevOps pour renforcer nos équipes et participer activement à l’industrialisation et à la gestion des infrastructures Big Data. Vous serez un acteur clé dans l’intégration continue, le déploiement automatisé et la gestion des environnements de données.
Mission
* Mise en place d’Infrastructures de Données :
o Concevoir, déployer et maintenir des plateformes de données scalables et robustes.
o Automatiser la configuration des environnements de données à l’aide de scripts et d’outils DevOps (Terraform, Ansible, etc.).
* Intégration et Livraison Continue :
o Mettre en œuvre des pipelines CI/CD pour assurer un déploiement rapide et fiable des applications Big Data.
o Gérer et optimiser les processus d’intégration continue pour des solutions de données complexes.
* Supervision et Maintenance :
o Surveiller les performances des infrastructures Big Data et résoudre les incidents liés aux systèmes ou aux processus de données.
o Assurer la haute disponibilité et la sécurité des environnements de données.
* Collaboration Multidisciplinaire :
o Travailler en étroite collaboration avec les équipes Data Engineering et Data Science pour comprendre leurs besoins et proposer des solutions adaptées.
o Participer à la mise en œuvre de stratégies de stockage, traitement et gestion des données.
* Amélioration Continue :
o Identifier les points d’amélioration dans les systèmes existants et mettre en œuvre des solutions pour renforcer l’efficacité et la résilience.
o Proposer des initiatives pour adopter les meilleures pratiques DevOps.
Profil Recherché
* Formation : Bac+5 en informatique, ingénierie logicielle ou équivalent.
* Expérience :
o Minimum de 5 ans d’expérience en DevOps, idéalement dans un contexte Big Data.
o Expertise dans la gestion d’infrastructures cloud (AWS, Azure, GCP).
* Compétences Techniques :
o Solides connaissances des outils et technologies DevOps : Jenkins, Docker, Kubernetes, Terraform, etc.
o Expertise en gestion et optimisation de clusters Big Data (Hadoop, Spark, Kafka).
o Maîtrise des bases de données relationnelles et NoSQL (PostgreSQL, MongoDB, etc.).
o Connaissance des langages de scripting (Python, Bash, etc.) et des outils de versioning (Git).
* Compétences Interpersonnelles :
o Autonomie, rigueur et capacité à gérer des priorités.
o Esprit d’équipe et excellentes compétences en communication.
o Capacité d’analyse et de résolution de problèmes complexes.
* Langues : Maîtrise du français et de l’anglais.
#J-18808-Ljbffr
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.