Du fait d'une activité importante ces dernières années, l'équipe a monté une infrastructure de gestion de données et de calcul ainsi que développé divers logiciels métier associés. Les missions de la personne recrutée seront de (1) spécifier puis développer et/ou suivre la sous-traitance de logiciels web, client-serveur, pour la gestion des données (volet "Dev") et (2) d'assurer la maintenance, la mise à jour et le monitoring de l'infrastructure qui stocke les données, fait tourner les logiciels, et sert au calcul intensif (4-5 serveurs ; volet "Ops").
Activités
Activités principales :
- Dev : spécification et développement d'applications métiers pour la gestion d'images (et leur traitement, dans une moindre mesure) et de métadonnées associées; codage et suivi de sous-traitants. Ces applications sont toutes basées sur des technologies web, avec un client et un serveur, connectés par une API.
- Ops : installation, mise à jour et suivi de systèmes d'exploitation et d'applications métier sous Linux
Autres activités : Discussions avec les membres de l'équipe et ses partenaires scientifiques pour l'identification des besoins. Formations possibles dans le cadre de la formation permanente pour la montée en compétence sur les domaines du poste non-maîtrisés.
Compétences
Connaissances transversales requises :
- Pilotage et réalisation de projets de développement d'applications métiers
- Méthodes de mise en production d'applications
- Diagnostic et résolution de problèmes applicatifs et du système d'exploitation
- Langage de programmation et d'administration système
- Principes de sécurité de l'information et de sauvegarde
- Anglais technique
Savoir-faire : (par ordre décroissant d'importance; il est improbable que tout soit maîtrisé par une seule personne)
- Programmation d'application (a priori web, en Python+JavaScript ou TypeScript) [maîtrise]
- Administration système sous Linux [maîtrise]
- Déploiement d'applications via Docker
- Diagnostic et maintenance de bases de données PostgreSQL
- Maintenance d'outils de calcul scientifique / data science (JupyterHub, RStudio; gestionnaires de packages)
- Utilisation de git (et GitHub)
Savoir-être :
- Attrait pour le travail en équipe réduite (2 autres développeur·ses dans l'équipe) ce qui implique un côté touche-à-tout et une prise de responsabilité
- Intérêt pour l'écologie (marine) et appétence pour les discussions avec des utilisateurs non-spécialisés dans les développements informatiques pour comprendre leurs besoins
Contexte de travail
Plus spécifiquement, la personne recrutée travaillera dans le contexte de deux projets : un projet européen, DTO-BioFlow, et un projet international, CALIPSO. DTO-BioFlow est axé sur le flux des données d'observations biologiques vers le jumeau numérique de l'océan européen (EDITO) et l'exploitation de ces données dans des cas d'étude scientifiques. CALIPSO, un projet financé par la Schmidt Foundation, vise à étudier le rôle des organismes, virus et particules dans l'export de carbone marin via l'amélioration et l'extension des modèles biogéochimiques.
Le Laboratoire d'Océanographie de Villefranche (LOV ; http://lov.obs-vlfr.fr/) est situé près de Nice, sur la Côte d'Azur, dans l'une des trois stations marines de Sorbonne Université. Avec environ 120 employés, le LOV génère et analyse une grande quantité de données marines, notamment des données d'imagerie, génomiques et satellitaires, pour étudier l'océan.
L'équipe COMPLEx (COMPutational PLAnkton Ecology) compte une cinquantaine de membres qui étudient le plancton marin en collectant des données avec des instruments d'imagerie quantitative et de la génomique à haut débit, qui viennent alimenter des méthodes d'analyse numérique (modélisation, statistiques, apprentissage automatique). Le plancton englobe tous les organismes dérivant avec les courants marins. Ces organismes produisent une partie de l'oxygène que nous respirons, stockent le carbone que nous émettons, nourrissent les poissons que nous mangeons ; le plancton est donc un élément constitutif majeur de l'écosystème terrestre. COMPLEx interagit fortement avec la Plateforme d'Imagerie Quantitative de Villefranche (PIQv ; https://sites.google.com/view/piqv), qui supervise l'opération des outils que l'équipe développe. Ces outils incluent des capteurs d'imagerie, tels que l'Underwater Vision Profiler (UVP) ou le ZooScan. L'UVP6 est notamment en cours d'intégration sur des plateformes autonomes (i.e. des robots sous-marins) qui permettent de collecter des données à une échelle sans précédent. Mais ces outils incluent également un nombre croissant de logiciels : ZooProcess et UVPapp pour traiter les données produites par les instruments, EcoTaxa (https://ecotaxa.obs-vlfr.fr/) qui utilise le machine learning pour aider les taxonomistes à trier de grandes quantités d'images de plancton (actuellement ~250 millions), EcoPart (https://ecopart.obs-vlfr.fr/) qui stocke et affiche les données collectées dans le monde entier par l'UVP (plus de 18,000 mises à l'eau de l'instrument), etc. Nous avons une longue expérience d'interaction avec des informaticiens et des ingénieurs, dans le monde universitaire mais aussi dans le secteur privé, pour développer ces outils.
Plus spécifiquement, la personne recrutée travaillera dans le contexte de deux projets : un projet européen, DTO-BioFlow, et un projet international, CALIPSO. DTO-BioFlow est axé sur le flux des données d'observations biologiques vers le jumeau numérique de l'océan européen (EDITO) et l'exploitation de ces données dans des cas d'étude scientifiques. CALIPSO, un projet financé par la Schmidt Foundation, vise à étudier le rôle des organismes, virus et particules dans l'export de carbone marin via l'amélioration et l'extension des modèles biogéochimiques.
Contraintes et risques
Des déplacements sont susceptibles d'être nécessaires, pour rencontrer les partenaires des projets.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.