Informatique

Permanent URI for this communityhttp://192.168.16.104:4000/handle/123456789/9

Browse

Search Results

Now showing 1 - 10 of 530
  • Item
    MAC protocol for vehicular adhoc
    (2024-03-06) Zerrouki; Hayat
    Le protocole de contrôle d'accès au canal (MAC) pour les réseaux véhiculaires demeure un défi important pour la diffusion des messages de sécurité. En outre, les performances de réseau ne sont pas satisfaisantes en variant les conditions de traffic. Le groupement (clustering) est une technique efficace pour améliorer les performances du protocole MAC. Cependant, la latence et l'excédent générés par la formation et le maintient des groupes sont des obstacles courants à l'adoption massive de cette technique. À cette fin, nous proposons, comme première contribution, un système de regroupement des véhicules pour le reseau véhiculaire. En tirant parti de l'apprentissage par renforcement, notre système peut rapidement former des clusters conscients des conditions du réseau. En outre, notre système de regroupement basé sur l'apprentissage par renforcement assure une maintenance dynamique et coopérative pour les regroupements. L'efficacité de notre système est évaluée par des simulations approfondies, et les résultats de la simulation montrent l'efficacité de l'algorithme proposé. Les résultats de la simulation montrent que la proposition dépasse une approche précédemment développée et permet de séléctionner des chefs de cluster plus persistant avec des durées plus longues et des connexions plus stables avec leurs members. Avec l'augmentation du nombre d'utilisateurs, l'attention est accordée à la qualité de l'expérience (QoE) et à l'allocation des ressources de canal dans IoV. C'est pourquoi nous proposons, comme deuxième contribution, un schema MAC basé sur la qualité de l'expérience et le clustering pour les reseaux véhiculaires. La proposition a pour objectif d'améliorer l'efficacité du réseau et la qualité du service qu'il fournit. Dans cette contribution, les véhicules sont organisés en groupes dans lesquels il y a un chef dans chaque groupe. Le chef de groupe est responsable de l'attribution des slots de temps, de la transmission des messages envoyés par les membres de leur cluster et de la planification des communications entre les clusters et à l'intérieur du cluster. L'efficacité du système est évaluée à travers diverses simulations. Les résultats de la simulation montrent que le protocole obtient un taux de collision plus faible et un débit plus élevé que le standard. Le protocole MAC est souvent confronté au problème de la congestion du réseau. La congestion se produit généralement lorsque la capacité du réseau est inférieure à la charge du canal. Cela peut bloquer l'échange des messages et provoquer une latence supplémentaire. Pour atténuer cette situation, nous proposons comme troisième contribution un nouveau algorithm MAC d'évitement de congestion pour le reseau véhicullaire. L'objectif de cette étude est de réduire la congestion des réseaux. Sur la base de la technique d'apprentissage du renforcement profond, nous proposons un nouveau schéma qui utilise plusieurs paramètres MAC pour éviter ou gérer la congestion de réseau détectée. Le schema proposé ajuste périodiquement les paramètres MAC en supervisant le comportement de la communication à proximité de chaque véhicule. De cette façon, il peut réduire les retards et le taux de collision d’une part, et augmenter le debit de l’échange de données d’autre part. L’objectif principal de notre quatrième contribution est de minimizer la congestrion de reseau en minimisant la redundance des messages lors de la diffusion des messages d’accident. Nous avos utilize les message unicast au lieu des messages de diffusion (broadcast) permettant la communication multi-saut entre les véhicules et les serveurs. Les simulation de cette proposition ont montré l’éfficacité de cette contribution. Comme dernière contribution, nous avons propose un susteme de santé permettant de detecter des incidents relatifs aux état de santé des conducteur. Ce system permet la detection rapide des incident pour une prise en charge rapide. Il permet également de gérer de manière efficace la recherche des a
  • Item
    Carrier-based sensor coverage in wireless sensors and robots networks
    (2025-04-20) Belguerche; Nadia
    La technologie des réseaux de capteurs et de robots sans fil (RCRSF) permet de collecter, de traiter et de transmettre en temps réel des données critiques, facilitant ainsi la surveillance de zones hostiles, difficiles d'accès et éloignées. Essentielle pour le monitoring de zones sensibles, notamment dans des scénarios dangereux, cette technologie se heurte toutefois à un défi majeur : le déploiement efficace des capteurs. Les RCRSF, souvent constitués d'un grand nombre de capteurs et de robots, sont généralement déployés de manière aléatoire. Ce déploiement aléatoire, conduit les applications à déployer un nombre de capteurs bien supérieur à ce qui est nécessaire. L'objectif est double : couvrir les trous de couverture issus du déploiement initial et prévenir les défaillances de nœuds, prolongeant ainsi la durée de vie du réseau. La relocalisation de capteurs est une technique très utilisée dans RCRSF pour assurer la couverture de la ROI. Cette technique permet d'optimiser la couverture de la zone d'intérêt en déplaçant les capteurs redondants, c'est-à-dire ceux qui surveillent une zone déjà couverte par d'autres capteurs, vers des zones non couvertes. L'objectif de ces techniques est minimisé le temps de relocalisation, minimiser l'over Head dans le réseau tout en garantissant une couverture maximale de la ROI. Dans ce travail, nous proposons, d'abord, une taxonomie des protocoles de relocalisation de capteurs à l'aide de robots. Nous avons proposé deux grandes classes : les approches Centralisés et les approches coopérative. Les solutions centralisées visent généralement à proposer un chemin de réparation optimal en se basant sur les positions de tous les trous et capteurs redondants dans le réseau. Afin d'optimiser le chemin de réparation, ces techniques se basent sur des heuristiques tel que LKH ou bien utilisent des fonctions objectives d'optimisation. Dans les solutions coopératives par contre, le robot prend des décisions en se basant sur l'information locale. Ce type de solutions est plus réaliste et il vise à assurer une couverture maximale de la ROI mais le chemin de réparation ne peut pas être optimal. Pour son déplacement le robot utilise en générale la méthode LRV ou bien la méthode du nearest grid first. Deuxièmement, nous avons développé un nouvel algorithme appelé Simple Relocation Method (SRM), qui exploite les avantages de l'approche coopérative pour repositionner les capteurs redondants. SRM repose sur une stratégie innovante de partage d'information, où les capteurs échangent les positions des capteurs redondants et des trous dans leur voisinage afin de permettre aux robots de couvrir rapidement ces trous, minimisant ainsi le temps de relocalisation. En outre, SRM vise à maximiser la couverture de la région d'intérêt (ROI). Notre deuxième contribution ORDEC s'appuie sur les bénéfices des approches centralisées. ORDEC propose un chemin de réparation optimal basé sur l'heuristique LKH (Lin-Kernighan-Helsgaun). Cette dernière permet de générer un chemin qui lie les capteurs redondants et les trous de la ROI, optimisant ainsi les déplacements des robots et réduisant ainsi le temps nécessaire pour la relocation et la couverture des trous. La troisième contribution, intitulée Reflection Sensor Deployment (R-SR), propose un algorithme hybride combinant les avantages des approches centralisées et coopératives. Dans cette méthode, le robot explore la ROI de manière similaire à la propagation de la lumière et effectue des arrêts périodiques pour détecter les trous de couverture ainsi que les capteurs redondants dans son voisinage. À mesure qu'il identifie des trous, il les couvre en utilisant les capteurs redondants détectés localement, et l'heuristique LKH est utilisée à cette étape pour optimiser le processus de réparation. Cette stratégie permet au robot de réduire efficacement le temps de relocalisation tout en assurant une couverture maximale de la ROI. Enfin, notre dernière contribution est le développement d'
  • Item
    Multiple regions detection-based MSER
    (2025-07-08) Ait Mehdi; Mohamed
    L'imagerie médicale joue un rôle essentiel dans le diagnostic clinique moderne. Cependant, le volume et la complexité croissants des images médicales nécessitent des outils d'analyse plus intelligents et automatisés. Dans cette thèse, nous présentons un large éventail de systèmes de diagnostic assisté par ordinateur (DAO) qui améliorent la précision et l'efficacité du diagnostic en combinant l'apprentissage profond (AP), l'informatique quantique et des méthodes de traitement d'images optimisées. La première contribution aborde les limites du détecteur de régions extrémales maximales stables (REMS) dans l'analyse d'images médicales en introduisant un cadre d'amélioration de la REMS basé sur l'optimisation. En formulant la configuration des paramètres de la REMS comme un problème d'optimisation, nous appliquons quatre algorithmes récents, à savoir : l'algorithme des moisissures visqueuses (AMS), l'algorithme des prédateurs marins (APM), l'optimiseur basé sur le tas (HBO) et l'optimiseur basé sur le gradient (GBO), afin d'améliorer significativement les performances de localisation des régions. De plus, un nouveau pipeline d'extraction de caractéristiques combinant MSER optimisé, motifs binaires locaux (LBP), Bag-of-Visual-Words (BoVW) et caractéristiques profondes est proposé pour les tâches de classification CAO impliquant des images de cellules sanguines et de lésions cutanées. La deuxième contribution introduit une approche d'apprentissage profond exploitant le modèle Swin Transformer combiné aux K-Nearest Neighbors (KNN) pour une détection et un comptage précis des cellules sanguines dans les images microscopiques. Cette méthode surpasse les méthodes de référence existantes sur un jeu de données public en relevant efficacement des défis tels que le chevauchement cellulaire, la variabilité de taille et le déséquilibre de classe. Notre dernière contribution propose un nouveau modèle de diagnostic hybride qui intègre les réseaux de neurones convolutifs (CNN) classiques à des circuits quantiques pour la classification des lésions cutanées. En utilisant le simulateur PennyLane et le jeu de données ISIC, notre cadre quantique amélioré atteint une précision compétitive et une généralisation améliorée par rapport aux références d'apprentissage profond classiques. Dans l’ensemble, les contributions proposées font progresser l’état de l’art en matière d’analyse automatisée d’images médicales, offrant des approches robustes et diversifiées pour améliorer la précision et la fiabilité du diagnostic dans de multiples contextes d’imagerie.
  • Item
    Vers un modèle d’identité numérique sécurisée
    (2025-03-11) Berbar; Ahmed
    Les plateformes e-gouvernement sont des systèmes électroniques qui permettent aux citoyens d'interagir avec les services gouvernementaux en ligne. Elles offrent un accès pratique aux services tels que les demandes de documents, les paiements d'impôts et le suivi des dossiers. Ces plateformes offrent également des avantages pour les gouvernements en automatisant les processus, en améliorant la gestion des données et en réduisant les coûts. La gestion d'identité est un élément essentiel des plateformes e-gouvernement. Elle implique la création, la maintenance et l'utilisation d'informations d'identification pour authentifier les utilisateurs et contrôler leur accès aux services gouvernementaux en ligne. La gestion d'identité garantit que seules les personnes autorisées peuvent accéder aux services et aux données, renforçant ainsi la sécurité et la confidentialité des informations. Les plateformes e-gouvernement offrent des avantages potentiels en termes de sécurité et de confidentialité des données, mais elles comportent également des risques tels que les cyberattaques et les fuites de données. Il est donc crucial pour les gouvernements de mettre en place des mesures de sécurité robustes pour protéger les données d'identité des citoyens. Dans le cadre de cette thèse, une plateforme e-gouvernementale multi-domaines basée sur les technologies cloud computing et blockchain est proposée. Elle utilise un modèle de gestion des identités structuré et extensible, respectant la vie privée des utilisateurs et permettant un contrôle d'accès sécurisé aux services gouvernementaux. Notre modèle reste adaptable et applicable à tous les pays sans pour autant exiger la refonte des systèmes d’identification existants.
  • Item
    Routage dans les réseaux ad hoc véhiculaires (VANETs)
    (2023-12-10) Benaicha, Mehdi
    Dans les réseaux de véhicules ad hoc (VANETs), le routage joue un rôle essentiel pour assurer une transmission efficace des données. Les protocoles de routage géographique basés sur la position sont considérés comme les plus appropriés pour les VANETs, car ils utilisent les informations géographiques des nœuds sans nécessiter de découverte de route ni d'état des liens. Dans cette étude, nous présentons une enquête sur les protocoles de routage dans les VANETs, en classant les différentes solutions existantes en quatre catégories principales : les protocoles de routage basés sur : la topologie, les clusters, cloud computing, la position et les protocoles de routage Geocast. Nous examinons également les limites des protocoles existants et proposons trois nouvelles solutions de routage. La première solution est appelée " Local Traffic Density of Flow-oriented Routing Protocol for VANETs " (LTD-FOR) et améliore le protocole "traffic flow-oriented routing" (TFOR). LTD-FOR utilise la densité locale et la direction véhiculaire pour sélectionner la prochaine intersection, améliorant ainsi les performances de routage par rapport à TFOR. Etant donné que le protocole de routage géographique basé sur l'intersection souffre d'une autre lacune liée à la collecte de statistiques du trafic routier, cette opération n'est effectuée que sur les premières intersections candidates de premier pas, tandis que les statistiques des intersections de n-pas sont complètement ignorées et cela peut provoquer une erreur dans le calcul de l'itinéraire optimal dans certains scénarios. Pour cela, nous proposons une deuxième approche appelée "A Geographic Routing Based on Road Traffic and Multi-hop Intersections in VANETs (GRBRT-MI)". Cette approche utilise la connectivité du trafic collecté dans les intersections d'un et de deux-pas pour sélectionner la prochaine jonction, améliorant ainsi les performances de routage. Enfin, pour bénéficier des avantages fournis par l’idée proposée dans la solution GRBRT-MI, notre dernier document propose une approche nommée "A Geographic Routing Based on Local Traffic Density and Multi-Hop Intersections in VANETs" (GRBLTD-MI). Cette approche utilise la densité de trafic local, la vitesse des véhicules, la distance inter-véhiculaire et la direction des véhicules pour calculer le score de la meilleure intersection suivante, en prenant en compte la connectivité multi-jonction. Les simulations montrent que les nouvelles approches proposées (LTD-FOR, GRBRT-MI et GRBLTD-MI) surpassent les protocoles existants en termes de taux de livraison de paquets, de retard de bout en bout et de surcharge de paquets. Ces résultat contribuent à améliorer le routage dans les VANETs, en visant à réaliser une communication inter-véhiculaire fiable et efficace, tout en prenant en compte les spécificités des réseaux VANETs et en exploitant les avantages offerts par les technologies émergentes.
  • Item
    Vers des réseaux automatisés basés sur la technologie SDN (Software-Defined Networking)
    (2024-07-10) Nacef, Abdelhakim
    De nos jours, les réseaux de communication jouent un rôle vital dans la connectivité et la diffusion d'informations à travers une multitude d'applications et de services. Cependant, l'évolution rapide du paysage numérique engendre des demandes toujours plus exigeantes en matière de qualité de service (QoS), auxquelles les infrastructures réseau traditionnelles peinent à répondre efficacement. Cette thèse explore une approche originale intégrant le Software-Defined Networking (SDN) et le Machine Learning (ML). Son objectif principal est de concevoir une plateforme générique, dénommée DLO-SFC, pour un réseau intelligent et autonome, capable de s'auto-optimiser et de s'auto-orchestrer, en tenant compte des besoins évolutifs des utilisateurs. À cet effet, DLO-SFC utilise des techniques d'apprentissage profond et d'optimisation de réseau pour fournir des configurations optimales rapides pour tout problème de configuration et d'orchestration de réseau. Les résultats des expérimentations ont démontré la capacité de DLO-SFC à converger rapidement vers des configurations optimales, engendrant ainsi une réduction des coûts d'exploitation (OpEx) et une optimisation des temps de réponse.
  • Item
    Securing biometric systems by using perceptual hashing
    (2024-07-04) Hamadouche, Maamar
    Cette thèse de doctorat intitulée "Sécurisation des systèmes biométriques par l'utilisation du hachage perceptuel" se concentre sur le renforcement de la sécurité des systèmes biométriques grâce à l'utilisation de techniques de hachage perceptuel. Les systèmes biométriques sont de plus en plus répandus dans diverses applications, allant du contrôle d'accès à la vérification d'identité. Cependant, ces systèmes sont vulnérables aux attaques telles que les attaques de présentation et les attaques de rejeu, qui compromettent leur intégrité et leur précision. Pour relever ces défis, la thèse propose l'intégration de méthodes de hachage perceptuel, qui permettent une authentification robuste et efficace des données biométriques. La recherche explore différentes algorithmes de hachage perceptuel, évalue leurs performances et développe de nouvelles approches spécifiquement adaptées aux systèmes biométriques. Les techniques proposées visent à renforcer la sécurité et la fiabilité des systèmes biométriques, en fournissant une protection solide contre diverses attaques tout en maintenant l'utilisabilité et l'efficacité.
  • Item
    Approches métaheuristiques et optimisation pour l’apprentissage automatique : Application à la résolution de problèmes complexes
    (2024-09-26) Kali Ali, Selma
    L'apprentissage automatique (ML) et les métaheuristiques, deux domaines importants de l'intelligence artificielle, ont connu des progrès remarquables ces dernières années, ce qui leur a permis d'aborder un large éventail d'applications. Ces progrès ont donné naissance à une nouvelle discipline qui combine ces deux domaines, ouvrant la voie à des approches innovantes pour résoudre des problèmes complexes en tirant parti de leurs forces complémentaires. Les méthodes proposées dans le cadre de cette discipline émergente peuvent être classées en deux catégories : les approches qui utilisent les métaheuristiques pour améliorer les performances des modèles ML et les approches qui utilisent les techniques ML pour optimiser les processus de recherche des algorithmes métaheuristiques. Dans cette thèse, nous avons proposé des approches qui s'inscrivent dans les deux catégories d'utilisation de la synergie entre la ML et les métaheuristiques. Tout d'abord, nous avons introduit un nouvel algorithme d'optimisation hybride appelé GWO-MVO, qui combine les forces des métaheuristiques Grey Wolf Optimizer (GWO) et Multi-Verse Optimizer (MVO). Nous avons appliqué l'algorithme GWO-MVO pour optimiser les probabilités de dropout pour les réseaux neuronaux convolutifs (CNNs) et régler les hyperparamètres pour les Extreme Learning Machines (ELMs). Inspirés par le succès de ces approches, nous avons ensuite proposé une nouvelle approche d'optimisation appelée qGWO-CNN, qui intègre les principes de l'informatique quantique dans l'algorithme GWO pour l'optimisation des hyperparamètres des CNN. Par la suite, nous avons exploré les implications pratiques de l'intégration des techniques de ML dans les algorithmes métaheuristiques pour résoudre les problèmes d'optimisation combinatoire (COPs). Dans ce contexte, nous avons utilisé le modèle de régression logistique (LR) dans la phase d'initialisation de l'algorithme de recuit simulé (SA) pour améliorer le processus de recherche dans les problèmes d'optimisation binaires, en particulier le problème du sac à dos multidimensionnel et le problème de la somme de sous-ensembles. Dans notre dernière contribution, nous avons proposé deux nouveaux algorithmes, DGWO et NFP-DGWO, pour résoudre le problème de la détermination du gagnant (WDP). DGWO est une version adaptée de la métaheuristique GWO originale qui peut gérer la nature discrète et combinatoire du WDP. Par ailleurs, NFP-DGWO intègre un mécanisme d'apprentissage qui utilise des modèles peu fréquents via l'algorithme FP-max de ML afin d'améliorer la diversité des solutions et d'éviter la stagnation dans les optima locaux.
  • Item
    Approches métaheuristiques et optimisation pour l’apprentissage automatique : Application à la résolution de problèmes complexes
    (2024-09-26) Kali Ali, Selma
    L'apprentissage automatique (ML) et les métaheuristiques, deux domaines importants de l'intelligence artificielle, ont connu des progrès remarquables ces dernières années, ce qui leur a permis d'aborder un large éventail d'applications. Ces progrès ont donné naissance à une nouvelle discipline qui combine ces deux domaines, ouvrant la voie à des approches innovantes pour résoudre des problèmes complexes en tirant parti de leurs forces complémentaires. Les méthodes proposées dans le cadre de cette discipline émergente peuvent être classées en deux catégories : les approches qui utilisent les métaheuristiques pour améliorer les performances des modèles ML et les approches qui utilisent les techniques ML pour optimiser les processus de recherche des algorithmes métaheuristiques. Dans cette thèse, nous avons proposé des approches qui s'inscrivent dans les deux catégories d'utilisation de la synergie entre la ML et les métaheuristiques. Tout d'abord, nous avons introduit un nouvel algorithme d'optimisation hybride appelé GWO-MVO, qui combine les forces des métaheuristiques Grey Wolf Optimizer (GWO) et Multi-Verse Optimizer (MVO). Nous avons appliqué l'algorithme GWO-MVO pour optimiser les probabilités de dropout pour les réseaux neuronaux convolutifs (CNNs) et régler les hyperparamètres pour les Extreme Learning Machines (ELMs). Inspirés par le succès de ces approches, nous avons ensuite proposé une nouvelle approche d'optimisation appelée qGWO-CNN, qui intègre les principes de l'informatique quantique dans l'algorithme GWO pour l'optimisation des hyperparamètres des CNN. Par la suite, nous avons exploré les implications pratiques de l'intégration des techniques de ML dans les algorithmes métaheuristiques pour résoudre les problèmes d'optimisation combinatoire (COPs). Dans ce contexte, nous avons utilisé le modèle de régression logistique (LR) dans la phase d'initialisation de l'algorithme de recuit simulé (SA) pour améliorer le processus de recherche dans les problèmes d'optimisation binaires, en particulier le problème du sac à dos multidimensionnel et le problème de la somme de sous-ensembles. Dans notre dernière contribution, nous avons proposé deux nouveaux algorithmes, DGWO et NFP-DGWO, pour résoudre le problème de la détermination du gagnant (WDP). DGWO est une version adaptée de la métaheuristique GWO originale qui peut gérer la nature discrète et combinatoire du WDP. Par ailleurs, NFP-DGWO intègre un mécanisme d'apprentissage qui utilise des modèles peu fréquents via l'algorithme FP-max de ML afin d'améliorer la diversité des solutions et d'éviter la stagnation dans les optima locaux.
  • Item
    Conception et développement d’un environnement de rééducation fonctionnelle personnalisée basé sur la réalité virtuelle
    (2024-07-10) Bouatrous, Amal
    L’accident vasculaire cérébral (AVC) est une cause majeure de décès et d’invalidité, souvent suivie de séquelles telles que l’hémiparésie des membres supérieurs, qui a un impact négatif sur l’indépendance des personnes dans leurs activités quotidiennes. La rééducation classique est nécessaire pour retrouver la fonctionnalité perdue, mais elle peut être monotone. La réalité virtuelle (RV) offre une solution attrayante, motivante et efficace, répondant aux exigences nécessaires à une rééducation réussie. L’objectif de cette thèse est de concevoir et de développer un environnement virtuel pour la rééducation fonctionnelle personnalisée des membres supérieurs après un AVC. Plus précisément, nous nous sommes intéressés à la rééducation fonctionnelle de la main par le biais de jeux sérieux basés sur la RV. Ainsi, deux jeux sérieux visant à améliorer les mouvements grossiers et fins de la main ont été mis en place en simulant deux exercices cliniques, et en utilisant le capteur de mouvement Leap Motion. Nous avons incorporé des éléments de jeux vidéo pour motiver les patients et personnaliser la difficulté en fonction de leurs capacités motrices. Enfin, nous avons mis en œuvre une approche permettant d’adapter dynamiquement la difficulté des jeux. Une collaboration étroite avec les thérapeutes et les patients a été maintenue durant le processus de conception, afin de répondre aux spécifications cliniques. Le système a été évalué en termes de précision de mesure sur des individus sains, ce qui s’est avéré satisfaisant. En outre, une évaluation clinique subjective avec des patients réels a montré que le système était accepté et motivant, renforçant l’engagement des patients dans leur rééducation.