Résumé:
Les prothèses actives deviennent de plus en plus une option viable pour les amputés des membres inférieurs, car elles peuvent considérablement améliorer leur qualité de vie et leur mobilité. Cependant, pour garantir un contrôle robuste et efficace de ces prothèses, l'environnement du terrain doit être pris en compte. Dans cette thèse nous avons présenté deux méthodes innovantes pour la reconnaissance des modes de locomotion. La première est basée sur des algorithmes d’apprentissage automatique et l’exploitation des caractéristiques temporelles (MLTF), ce qui en fait une solution efficace en termes de consommation d’énergie et de ressources. Le système utilise un seul capteur IMU placé sur le tibia et comprend toutes les étapes d'un processus LMR, c'est-à-dire le prétraitement du signal, l'extraction des caractéristiques, réduction/sélection des caractéristiques selon la nécessité du modèle et enfin l'estimation des terrains pour classifier cinq terrains. Plusieurs modèles machine learning ont été proposés, pour trouver à la fin le meilleur modèle pour les tâches LMR. La seconde méthode s’appuie sur le Deep Learning et l’encodage d’images pour la reconnaissance des modes de locomotion (DLIE). Dans cette approche nous avons développé un système de reconnaissance des modes de locomotion mettant en œuvre des CNN et des LSTM avec un encodage d'images pour classifier sept types de terrains. Nous avons utilisé trois méthodes d'encodage d'images pour transformer les données des capteurs inertiels en images d'activités, incluant des images de signal, le champ angulaire de Gramian et le Mel spectrogramme. Différentes configurations de reconnaissance des modes de locomotion sont étudiées et comparées en combinant différents réseaux et représentations d'encodage d'images. Les résultats montrent que le LMR-Net proposé avec une entrée de spectrogramme est le meilleur modèle, capable de classer le mode de locomotion avec un score F1 moyen de 0,9744 et un temps de 30,59 ± 1,77 ms, qui est inférieur à 300 ms, la latence maximale autorisée pour éviter de causer un inconfort à l'utilisateur de la prothèse. Le système de reconnaissance des modes de locomotion a été ensuite implémenté en embarqué. En raison des contraintes de ressources inhérentes à notre carte SoC, l’approche MLTF a été privilégiée pour l’implémentation. La carte Xilinx Zynq SoC XC7Z020–1CLG400C a été utilisé pour développer le prototype sur du matériel. Pour obtenir une conception matérielle flexible et efficace, l'architecture système proposée a été optimisé en utilisant des techniques de parallélisme et d'optimisation de la quantification. Cette approche a conduit à une amélioration significative des performances, avec une vitesse de traitement 15 fois plus rapide que l'approche non optimisée dans la partie PL, et 4,3 fois plus rapide que l'implémentation optimisée PS(-O3) sur la même carte Zynq FPGA. L'architecture proposée a également été validée en temps réel.