Description du poste
Taux journalier (TJM): 500€/jour
Contexte
Au sein de la Business Unit Data, les équipes sont chargées des outils et des bonnes pratiques pour les différents profils des équipes data. Nous accompagnons au quotidien l’ensemble des acteurs de la Data au sein d’une grande entreprise de distribution et sommes responsables du maintien en condition opérationnelle de l'infrastructure de la DATA. Nous offrons également un accompagnement aux équipes techniques.
Vous êtes le référent technique sur l’offre de Bases de Données. Votre mission consiste à fournir une infrastructure agile et automatisée aux équipes Data, tout en garantissant une stabilité et une performance de niveau 3 sur des technologies de pointe (Druid, Aurora, ElasticSearch).
Missions
* Administration avancée d’Amazon Aurora (Postgres/MySQL) et DynamoDB. Optimisation des performances (indexation, requêtage) et gestion fine de la scalabilité.
* Responsable du déploiement, du maintien en condition opérationnelle (MCO) et de l’optimisation de nos clusters Apache Druid et Elasticsearch (ELS).
* Industrialisation du provisioning des bases de données via Terraform/Ansible pour permettre aux Data Engineers une autonomie totale en "Self-Service".
* Mise en place et maintien des dashboards de santé et des alertes critiques (latence, IOPS, taux de remplissage) pour garantir une proactivité totale.
* Gestion et évolution de la flotte de serveurs Amazon EC2 (patching de sécurité, durcissement d'OS, automatisation des images).
* Application des politiques de sécurité (IAM, chiffrement au repos et en transit) sur l'ensemble du parc de données.
* Monitoring et optimisation des coûts liés au compute et au stockage (instances réservées, nettoyage, cycle de vie).
* Développement de scripts et d'outils internes en Python pour automatiser les tâches récurrentes (clonage de bases, anonymisation de données, maintenance de Druid).
* Conception de modules Terraform réutilisables pour le déploiement industrialisé d'instances EC2, clusters Druid et bases RDS.
* Participation à la création d'une "Internal Developer Platform" permettant aux Data Engineers de provisionner leurs ressources en autonomie via des APIs ou des pipelines CI/CD.
Compétences demandées
* Compute (Amazon EC2)
* CloudWatch, Datadog
* Python
* AWS Aurora
* Réseau & Sécurité
* Terraform
* Notions GCP
* Support N3 & Troubleshooting
* Apache Druid
* Amazon DynamoDB
* Configuration Management
* Elasticsearch
* Approche Self-Service (documentation)
Conditions de travail
* TJM : 500€
* Localisation : Lille
Profil recherché
1. Compétences avancées en administration d’Amazon Aurora (Postgres/MySQL) et DynamoDB
2. Maîtrise de l’optimisation des performances (indexation, requêtage) et gestion de la scalabilité
3. Expérience en déploiement, maintien en condition opérationnelle et optimisation de clusters Apache Druid et Elasticsearch
4. Compétences en automatisation via Terraform et Ansible pour le provisioning des bases de données
5. Capacité à mettre en place et maintenir des dashboards de santé et alertes critiques (Latence, IOPS, taux de remplissage)
6. Gestion et évolution de serveurs Amazon EC2, incluant patching de sécurité et durcissement d’OS
7. Application des politiques de sécurité (IAM, chiffrement au repos et en transit)
8. Suivi et optimisation des coûts liés au compute et stockage
9. Développement de scripts et outils internes en Python pour automatiser les tâches récurrentes
10. Conception de modules Terraform réutilisables pour le déploiement industrialisé
11. Approche Self-Service avec documentation pour permettre l’autonomie des Data Engineers
12. Connaissances en CloudWatch, Datadog, Réseau & Sécurité, Configuration Management et notions de GCP
13. Capacité à assurer un support de niveau 3 (N3) et troubleshooting
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.