Approches métaheuristiques et optimisation pour l’apprentissage automatique : Application à la résolution de problèmes complexes

Afficher la notice abrégée

dc.contributor.author Kali Ali, Selma
dc.date.accessioned 2025-01-07T13:59:58Z
dc.date.available 2025-01-07T13:59:58Z
dc.date.issued 2024-09-26
dc.identifier.uri http://repository.usthb.dz//xmlui/handle/123456789/10030
dc.description 136 p. : ill. ; 30 cm + (CD-Rom) en_US
dc.description.abstract L'apprentissage automatique (ML) et les métaheuristiques, deux domaines importants de l'intelligence artificielle, ont connu des progrès remarquables ces dernières années, ce qui leur a permis d'aborder un large éventail d'applications. Ces progrès ont donné naissance à une nouvelle discipline qui combine ces deux domaines, ouvrant la voie à des approches innovantes pour résoudre des problèmes complexes en tirant parti de leurs forces complémentaires. Les méthodes proposées dans le cadre de cette discipline émergente peuvent être classées en deux catégories : les approches qui utilisent les métaheuristiques pour améliorer les performances des modèles ML et les approches qui utilisent les techniques ML pour optimiser les processus de recherche des algorithmes métaheuristiques. Dans cette thèse, nous avons proposé des approches qui s'inscrivent dans les deux catégories d'utilisation de la synergie entre la ML et les métaheuristiques. Tout d'abord, nous avons introduit un nouvel algorithme d'optimisation hybride appelé GWO-MVO, qui combine les forces des métaheuristiques Grey Wolf Optimizer (GWO) et Multi-Verse Optimizer (MVO). Nous avons appliqué l'algorithme GWO-MVO pour optimiser les probabilités de dropout pour les réseaux neuronaux convolutifs (CNNs) et régler les hyperparamètres pour les Extreme Learning Machines (ELMs). Inspirés par le succès de ces approches, nous avons ensuite proposé une nouvelle approche d'optimisation appelée qGWO-CNN, qui intègre les principes de l'informatique quantique dans l'algorithme GWO pour l'optimisation des hyperparamètres des CNN. Par la suite, nous avons exploré les implications pratiques de l'intégration des techniques de ML dans les algorithmes métaheuristiques pour résoudre les problèmes d'optimisation combinatoire (COPs). Dans ce contexte, nous avons utilisé le modèle de régression logistique (LR) dans la phase d'initialisation de l'algorithme de recuit simulé (SA) pour améliorer le processus de recherche dans les problèmes d'optimisation binaires, en particulier le problème du sac à dos multidimensionnel et le problème de la somme de sous-ensembles. Dans notre dernière contribution, nous avons proposé deux nouveaux algorithmes, DGWO et NFP-DGWO, pour résoudre le problème de la détermination du gagnant (WDP). DGWO est une version adaptée de la métaheuristique GWO originale qui peut gérer la nature discrète et combinatoire du WDP. Par ailleurs, NFP-DGWO intègre un mécanisme d'apprentissage qui utilise des modèles peu fréquents via l'algorithme FP-max de ML afin d'améliorer la diversité des solutions et d'éviter la stagnation dans les optima locaux. en_US
dc.language.iso fr en_US
dc.subject Optimisation combinatoire ; Métaheuristique ; Apprentissage automatique ; Algorithmes en_US
dc.title Approches métaheuristiques et optimisation pour l’apprentissage automatique : Application à la résolution de problèmes complexes en_US
dc.type Thesis en_US


Fichier(s) constituant ce document

Ce document figure dans la(les) collection(s) suivante(s)

Afficher la notice abrégée

Chercher dans le dépôt


Parcourir

Mon compte