Topic description
Pour de nombreuses personnes, les gestes quotidiens, comme boire un café, se font automatiquement. Pour les personnes souffrant de troubles moteurs — tels que ceux causés par un AVC ou une lésion médullaire —, ces tâches peuvent s'avérer beaucoup plus complexes. La rééducation des membres supérieurs est alors essentielle pour retrouver les fonctions motrices et améliorer la qualité de vie. Cependant, les méthodes d'évaluation actuelles, telles que les scores cliniques ou les évaluations de trajectoires articulaires, sont limitées par une utilisation peu fréquente, un manque de personnalisation et une dépendance à des données de référence génériques. Ces lacunes entravent le suivi efficace des progrès et la mise en place de soins personnalisés.
Cette thèse présente une approche novatrice : le jumeau humanoïde virtuel, un modèle biomécanique personnalisé du patient. S'appuyant sur la formulation et résolution de problèmes d'optimisation multi-objectifs prenant en compte l'ergonomie, ce jumeau a pour but de générer des mouvements de référence personnalisés en utilisant uniquement les mouvements propres du patient, éliminant ainsi le besoin de jeux de données de référence pré-collectés et permettant des évaluations sur mesure. Des approches cinématiques et dynamiques seront explorées, en utilisant des modèles cinématiques simples dans un premier temps, puis des modèles musculo-squelettiques plus détaillés dans un second temps. L'observabilité des mouvements de référence à partir des mouvements altérés sera également analysée, en fonction du niveau de handicap du patient.
La pertinence clinique et l'applicabilité pratique seront garanties grâce à des collaborations étroites avec des établissements cliniques (Institut de Formation des Professionnels de Santé – UGA, CHUGA, Institut Régional de Réadaptation de Nancy). Les résultats attendus permettront aux kinésithérapeutes d'accéder facilement à des mouvements de référence personnalisés pour leurs patients, facilitant ainsi le suivi tout au long de la rééducation. Pouvoir générer les mouvements de référence à partir de ceux du patient offrent également la possibilité d'accéder en temps réel à ces mouvements sans déficience, et de corriger ainsi le patient à l'aide de solutions de bio-feedback ou d'un dispositif robotique.
Ce projet de doctorat combine la biomécanique et l'optimisation. Outre le développement de nouvelles méthodes pertinentes pour la biomécanique, la robotique humanoïde et la modélisation du contrôle moteur, ces travaux bénéficieront également à la kinésithérapie et à la rééducation motrice. La multidisciplinarité de ce projet offrira un environnement stimulant à la/au doctorant.e, qui participera à la fois aux aspects techniques et expérimentaux.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
For many people, simple daily actions like drinking coffee are automatic, but for individuals with motor impairments—such as those caused by stroke or spinal cord injury—these tasks can be challenging. Upper-limb therapy is essential for regaining motor functions and improving quality of life. However, current assessment methods, such as clinical scores and joint trajectory evaluations, are limited by their infrequent use, lack of personalization, and reliance on generic reference data. These gaps hinder effective progress tracking and personalized care.
This PhD project introduces a groundbreaking approach: the Virtual Humanoid Twin, a personalized biomechanical model of the patient. Relying on the formulation and resolving of multi-objective optimization problems that take ergonomics into account, it will generate personalized reference motions using only the patient's own movements, eliminating the need for pre-collected reference datasets and enabling tailored assessments. Kinematic and dynamic approaches will be explored, using simple kinematic models in a first step and more detailed musculo-skeletal models in a second step. Observability of reference motions from impaired motions will also be analyzed, depending on the patient's motor functions.
Clinical relevance and practical applicability will be ensured through strong collaborations with clinical institutions (Institut de Formation des Professionnels de Santé – UGA, CHUGA, Institut Régional de Réadaptation de Nancy). Expected results will allow physiotherapists to seamlessly access customized reference motions for their patients, opening the door to an easier follow-up throughout the recovery. The generated reference motions brings the possibility to access unimpaired movement in real-time, which can be of great interest to correct movement with biofeedback solutions or with a robotic device.
This PhD project combines biomechanics and optimization theory and its impact will extend beyond academia. In addition to the development of novel methods relevant for biomechanics, humanoid robotics and motor control modeling, this work will also benefit physiotherapy and motor rehabilitation. The multidisciplinarity of this project will provide a stimulating environment for the PhD student, who will participate in both technical and experimental aspects.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Début de la thèse : 01/10/
Funding category
Public funding alone (i.e. government, region, European, international organization research grant)
Funding further details
Concours pour un contrat doctoral
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.