Résumé:
L'objectif de cette thèse est d'atteindre la navigation de robot à suivi de mur à travers la classification. Plus précisément, prouver que l'algorithme des k plus proches voisins (KNN) est adapté à la navigation et au contrôle des robots en l'appliquant au problème de suivi de mur non linéaire, fondamental, simple à mettre en œuvre mais suffisamment complexe. Le KNN est reconnu comme étant très efficace, pratique et facile à mettre en œuvre avec des résultats de haute précision. De plus, il a le meilleur (plus bas) temps d'apprentissage ainsi que le meilleur temps d'apprentissage incrémental par rapport à toutes les autres méthodes. Cette dernière caractéristique est d'une importance capitale pour la capacité d'apprentissage dynamique nécessaire à la navigation autonome des robots. Cependant, il est connu pour son temps de classification élevé par rapport aux autres algorithmes d'apprentissage supervisé. Les robots sont également connus pour leur mémoire limitée, qui contient l'ensemble de données d'entraînement. L'objectif ici est de prouver qu'il est possible d'utiliser le KNN afin de tirer parti de ses points forts, tels que le temps d'apprentissage rapide, tout en minimisant ses faiblesses grâce au développement de plusieurs méthodes pour réduire le temps de classification et les surcharges importantes de l'ensemble de données d'entraînement. Cet objectif a été abordé à travers deux mécanismes qui contrôlent la taille des ensembles de données. Premièrement, une réduction initiale de l'ensemble de données d'entraînement est effectuée avant la phase d'apprentissage incrémental. Deuxièmement, un mécanisme est lancé pendant la phase d'apprentissage incrémental pour gérer dynamiquement la taille de l'ensemble de données d'entraînement et adapter de nouvelles connaissances. L'algorithme des k plus proches voisins a été combiné avec deux stratégies d'accélération bien connues : les voisins les plus proches condensés et les algorithmes génétiques axés sur la taille de l'ensemble de données d'entraînement. Ensuite, une contribution importante et réussie a été réalisée grâce à un algorithme génétique multi-étapes dédié au problème de sélection d'instances NP-difficile. Cet algorithme a été testé avec succès en utilisant des ensembles de données de navigation de robots à suivi de mur et comparé à d'autres travaux récents. Une réduction extrême a été observée dans le temps de classification, avec des pourcentages allant de 96% à 99% du temps d'origine. Les ensembles d'entraînement ont été intensément réduits, avec un pourcentage de réduction allant de 85% à 98% des fichiers d'origine. En conséquence, la vitesse de classification a été considérablement accélérée, atteignant 198 fois la vitesse d'origine. La prochaine étape a été d'adapter l'ensemble du système aux nouvelles situations grâce à l'apprentissage incrémental avec deux stratégies réussies et de multiples considérations de mémoire et de précision. Plus de 19 000 instances de test en direct ont été utilisées pour tester ce système hybride d'apprentissage en ligne "k plus proches voisins" (hoKNN). Le hoKNN est un système complet qui s'améliore progressivement chaque fois que de nouvelles connaissances émergent pendant son utilisation, basé sur un seuil flexible. La quantité de mémoire requise était 50% moins importante par rapport à la méthode d'apprentissage incrémental d'origine, entraînant une meilleure gestion des ressources. De plus, la qualité des fichiers d'entraînement a été préservée. Enfin, le hoKNN proposé a été implémenté aux côtés du KNN d'origine dans le simulateur de robot WEBOTs pour être testé dans le scénario de suivi de mur. Deux autres algorithmes populaires d'auto-apprentissage ont été implémentés en tant que contrôleurs : le perceptron multicouche et le Q-Learning. Ils ont été choisis pour leur réputation élevée et leurs performances robustes dans leurs catégories. L'algorithme incrémental KNN proposé (hoKNN) a surpassé tous les autres algorithmes dans la