Informatique
Permanent URI for this communityhttp://192.168.16.104:4000/handle/123456789/9
Browse
536 results
Search Results
Item Surveillance intelligente basée sur la recherche d’image dans les villes intelligentes(2026-01-15) Khalfi; AliDans le cadre de ma thèse de doctorat, j’ai traité la problématique de la surveillance intelligente basée sur l’analyse d’images, avec un focus particulier sur le monitoring du trafic routier dans le contexte des villes intelligentes. L’objectif principal de cette recherche est la conception et le développement de solutions intelligentes pour la surveillance du trafic routier, en exploitant des techniques d’analyse d’images et d’intelligence artificielle. Le travail réalisé propose des modèles performants pour la catégorisation d’images dans les environnements de smart cities, dans le but de renforcer les systèmes de transport intelligents (ITS). Les solutions proposées visent notamment à améliorer la détection de la disponibilité des places de stationnement ainsi que l’identification des situations de congestion routière, en s’appuyant sur des données visuelles issues des systèmes de surveillance. Le manuscrit de la thèse est structuré en six (6) chapitres. Le premier chapitre présente le contexte général de la recherche, expose la problématique, les motivations scientifiques, les objectifs poursuivis, ainsi que les contributions et l’organisation globale du document. Le deuxième chapitre fournit les notions de base relatives à la classification et à la recherche d’images, ainsi qu’un état de l’art sur les approches existantes en matière de détection de places de stationnement et de prévision de la congestion routière. Le troisième chapitre propose deux architectures pour la classification des images de parkings : la première basée sur un réseau de neurones convolutif (CNN) personnalisé, et la seconde exploitant le transfer learning combiné à des techniques d’augmentation de données. Dans le quatrième chapitre nous avons introduit une approche innovante de détection de la congestion routière utilisant un Vision Transformer paramétré avec cartographie d’images, en transformant les flux vidéo en données exploitables par des méthodes de traitement d’images. Le cinquième chapitre détaille le système multi-modules intégrant traitement d’images, analyse de la vitesse des véhicules et logique floue pour une évaluation en temps réel de l’état du trafic. Le dernier chapitre conclut la thèse, récapitule les contributions majeures et propose des perspectives pour de futurs travaux. Les travaux de mes recherches peuvent être résumés comme suit : • Développement d’un système efficace basé sur les réseaux de neurones convolutifs (CNN) pour détecter l’occupation des places de stationnement [1]. Le modèle se distingue par une réduction des paramètres de calcul grâce à une paramétrisation spécifique des couches et à l’utilisation d’un taux de dilatation progressif, garantissant une robustesse face aux occlusions et aux variations d’éclairage. Validé sur le jeu de données PKLot, ce modèle présente une faible complexité computationnelle, le rendant adapté aux environnements embarqués. • Mise en œuvre d’une solution exploitant le transfer learning avec le modèle Inception V3, associé à l’augmentation de données, pour la classification des places de stationnement (PKLot dataset) [2]. Les résultats expérimentaux ont démontré une précision élevée et des performances computationnelles satisfaisantes. • Proposition d’un modèle innovant exploitant l’analyse vidéo de trafic via une cartographie d’images [3]. Les images extraites des vidéos sont traitées avec YOLOv8s pour la détection de véhicules, puis converties en images cartographiées et analysées par le Vision Transformer. Évaluée sur le jeu de données UCSD et testée dans diverses conditions météorologiques. • Conception du système [4] reposant sur l’algorithme SIFT pour l’analyse de la congestion sans nécessiter de suivi individuel des véhicules. La détection de la densité et de la vitesse des véhicules est réalisée à travers le traitement d’images, tandis que la logique floue assure une interprétation robuste des différents scénarios de trafic. Les expérimentations, menées sur le jeu de données UItem Spécification et vérification formelles des applications orientées services(2025-01-25) Salah Mansour; KhadidjaDans l'environnement en évolution rapide de l'informatique distribuée, les Architectures Orientées Services (SOA) sont devenues la norme pour construire des applications flexibles et interopérables. Cependant, la nature distribuée et concurrente des services Web introduit une complexité significative, rendant difficile la garantie de leur correction. Un défi critique réside dans le fossé sémantique entre les spécifications de conception de haut niveau (Chorégraphie) et les processus exécutables (Orchestration), où des erreurs structurelles et comportementales compromettent souvent la fiabilité et la Qualité de Service (QoS) du système. Pour répondre à ces défis, cette thèse présente une approche formelle pour la modélisation, la composition et la vérification des services Web. Le travail débute par un processus de raffinement rigoureux des chorégraphies WS-CDL vers les orchestrations BPEL à l'aide de transformations ATL, formellement validé par la sémantique CSP basée sur les traces, les échecs et la vérification de raffinement. Il introduit ensuite un cadre de vérification basé sur des automates pour les compositions BPEL et OWL-S, capable de modéliser avec précision des constructions parallèles complexes — telles que les motifs split et join, en séparant explicitement l'initiation de l'événement de sa complétion. Enfin, une approche de vérification pilotée par les propriétés est proposée en utilisant le model checker PRISM. Cette approche vise à garantir à la fois la correction fonctionnelle et les propriétés non-fonctionnelles (fiabilité, performance), en utilisant des modèles probabilistes dérivés automatiquement des spécifications WS-CDL. Les contributions de cette thèse démontrent l’apport des méthodes formelles pour garantir la fiabilité des compositions de services.Item Secure time synchronization in wireless wensor networks (WSNs)(2025-12-15) Saiah; AminLa plupart des applications de l'Internet des objets basées sur les réseaux de capteurs sans-fil nécessitent une synchronisation de temps précise pour assurer une exécution correcte. Dans un environnement hostile, la protection de la synchronisation de temps contre les attaques par injection d'informations de temps incorrectes est primordiale. Les nœuds malicieux peuvent diffuser des estampilles incorrectes afin de réduire la précision de l’ensemble du réseau. La méthodologie de synchronisation basée sur le principe seulement-récepteur (RO) permet d’obtenir une grande précision tout en réduisant le nombre de messages de synchronisation par rapport aux autres méthodes. Cependant, la méthode RO est vulnérable aux pannes de nœuds et ne prend en charge qu’une seule référence, ce qui la rend imprécise en présence de MNs. Nous apportons trois principales contributions: premièrement, nous proposons le protocole E-SPBS, une version améliorée du protocole SPBS précédemment proposé. SPBS est un protocole de synchronisation de temps sécurisée qui sécurise la méthodologie RO en utilisant la cryptographie asymétrique. E-SPBS permet un estampillage authentifié au niveau de la couche MAC sur des interfaces radio à haut débit. Les résultats expérimentaux montrent que l’erreur de synchronisation est plus élevée et instable. Deuxièmement, nous proposons un nouveau modèle de synchronisation de temps qui étend la méthodologie RO afin d’améliorer la robustesse contre les pannes de nœuds et les attaques malicieux. Les résultats de comparaison indiquent que le modèle proposé introduit un faible coût de communication. Enfin, nous proposons SRST, un nouveau protocole de synchronisation de temps sécurisé contre les attaques par injection d'informations de temps incorrectes. Les résultats de simulation démontrent que SRST offre de meilleures performances que les protocoles existants, atteignant une précision de synchronisation de moins de 1 µs et accélérant le temps de convergence d'un facteur 31,25 par rapport au meilleur protocole connu. SRST a également prouvé son efficacité contre les attaques par injection d'informations de temps incorrectes, détectant avec succès des erreurs de 6 µs avec un taux de réussite de 100 % et garantissant que les déviations entre les horloges des capteurs, causées par les attaques, ne dépassent pas 6 µs.Item Modeling and verification of reliable cyber-physical systems using SysML and the component-oriented approach(2025-10-30) Khelifati; AdelLes systèmes cyber-physiques (CPS) couplent étroitement logiciels, réseaux de communication et processus physiques dans des domaines critiques (transport autonome, bâtiments intelligents, automatisation industrielle). Leur fiabilité exige des techniques de modélisation et de vérification capables de traiter des architectures hétérogènes, des interactions concurrentes et des exigences parfois floues ou dépendantes du contexte. L’ingénierie des systèmes basée sur les modèles (MBSE) avec SysML offre des modèles multi-vues riches, mais les outils courants restent centrés sur des vérifications syntaxiques et apportent peu de support à l’analyse structurelle précoce, à la vérification formelle des interactions et au raisonnement sur les exigences floues. Cette thèse propose un flux de développement intégré, piloté par les modèles, qui renforce l’usage de SysML pour la conception de CPS selon trois axes complémentaires. (1) Nous formalisons la sémantique statique de diagrammes structurels SysML et dérivons des règles de consistance pour détecter tôt les incompatibilités architecturales et les ruptures de traçabilité exigences–blocs. (2) Nous définissons un mappage systématique des constructions d’interaction de SysML v2 vers le cadre Behavior–Interaction–Priority (BIP), produisant des modèles exécutables pour la simulation et l’analyse formelle des interblocages et des défauts de conception au niveau des interactions. (3) Nous introduisons une méthode de modélisation et de vérification des exigences floues dans SysML v2, combinant l’évaluation native d’expressions avec des simulations par scénarios en mode batch, afin de quantifier la satisfaction des exigences sous incertitude. L’approche est évaluée sur trois études de cas de CPS : une plateforme de transport autonome, un essaim de drones coordonnés et un système de chauffage–ventilation–climatisation (HVAC), et elle améliore la vérification structurelle, l’analyse des interactions et la prise en compte des exigences floues, tout en préservant la traçabilité au niveau des modèles SysML.Item Quantum deep learning for digital soil mapping and climate change prediction(2025-07-09) Belkadi; Widad HassinaLes ordinateurs quantiques promettent de relever des défis informatiques complexes qui sont actuellement hors de portée des systèmes classiques. Bien que l'avantage quantique à grande échelle reste insaisissable en raison des limitations matérielles, les algorithmes hybrides quantiques-classiques offrent une voie pratique, en particulier dans le domaine de l'apprentissage automatique (ML). L'apprentissage automatique quantique (QML), en tirant parti des propriétés uniques des systèmes quantiques, est apparu comme une voie prometteuse pour accélérer la prise de décision fondée sur les données et s'attaquer aux problèmes complexes du monde réel. Cette thèse explore l'application des techniques de pointe en ML et QML pour faire progresser la durabilité environnementale, avec un accent particulier sur la cartographie numérique des sols (DSM) et la surveillance des émissions de gaz à effet de serre (GHG), en particulier le méthane. Pour relever les défis de l'analyse des données sur les sols, nous avons développé SCORPAN, un entrepôt de données sur les sols structuré et évolutif intégrant de multiples facteurs environnementaux. Nous avons appliqué l'extraction de règles d'association pour découvrir des motifs cachés dans les ensembles de données sur les sols et nous avons introduit Quantum FP-growth, un nouvel algorithme quantique conçu pour améliorer l'efficacité de l'extraction de motifs fréquents. En outre, nous avons évalué divers modèles d'apprentissage automatique pour prédire les propriétés des sols dans le nord de l'Algérie, démontrant ainsi le potentiel des approches basées sur les données pour améliorer la gestion des terres et la durabilité de l'agriculture. Parallèlement, pour répondre au besoin urgent de surveillance du méthane, nous avons mis en œuvre une analyse des séries temporelles des données du satellite Sentinel-5P à l'aide de réseaux neuronaux récurrents profonds. En outre, nous avons proposé une architecture hybride quantique-classique U-Net, incorporant des couches convolutives quantiques pour améliorer la précision de la détection des fuites de méthane. Collectivement, nos résultats soulignent le potentiel transformateur de l'intégration des méthodologies quantiques et classiques pour accélérer les progrès vers l'agriculture durable et la résilience climatique.Item Codage sémantique d’actions par traitement d’images RGB-D pour l’interaction homme-scène(2025-07-09) Benhamida; LeylaCe travail vise à développer un système offrant l’accessibilité des performances théâtrales pour les personnes aveugles et malvoyantes, en traduisant les informations visuelles des gestes corporels des acteurs en un format accessible non visuel. Cela implique l’exploi- tation de techniques d’apprentissage automatique et d’apprentissage profond pour la re- connaissance d’actions humaines en temps réel. Ensuite, en se basant sur les principes de l’interaction homme-machine, un système de correspondance est conçu pour transmettre les actions reconnues aux spectateurs aveugles et malvoyants, dans le cadre de l’interaction homme-scène, leur offrant ainsi une expérience immersive. Le système de reconnaissance d’actions humaines proposé traite les données de profon- deur RGB-D, notamment les séquences de squelettes 3D acquises à l’aide d’un capteur de profondeur. Les séquences squelettes 3D sont traitées par une architecture de réseau de neurones convolutifs en graphes : ST-GCN (Spatio-Temporal Graph Convolution Net- work), afin d’extraire les informations necessaires pour reconnaitres l’action en cours. Ce système est aussi conçu pour fonctionner en temps réel en détectant les transitions entre différentes actions dans une vidéo en streaming. En outre, des séquences d’actions humaines ont été collectées dans un environnement théâtral afin d’évaluer l’architecture ST-GCN et d’améliorer davantage ses performances à l’aide de la technique d’apprentis- sage par transfert. Ensuite, une étude qualitative a été menée auprès de huit personnes aveugles et mal- voyantes afin de mieux comprendre leurs expériences avec les gestes humains, dans le but de collecter des données guidant le développement d’un système traduisant les gestes en format non visuel. Sur la base des enseignements tirés de cette étude et de la littérature, un système de représentation haptique, Hapstick-Figure, a été conçu pour transmettre les informations gestuelles via une surface tactile. Le prototype Hapstick-Figure, imprimé en 3D, a ensuite été évalué à travers des entretiens avec six participants aveugles et mal- voyants, recueillant leurs retours et leur engagement vis-à-vis du dispositif. Les résultats ont confirmé l’efficacité de la représentation haptique, tout en identifiant des axes d’amé- lioration.Item MAC protocol for vehicular adhoc(2024-03-06) Zerrouki; HayatLe protocole de contrôle d'accès au canal (MAC) pour les réseaux véhiculaires demeure un défi important pour la diffusion des messages de sécurité. En outre, les performances de réseau ne sont pas satisfaisantes en variant les conditions de traffic. Le groupement (clustering) est une technique efficace pour améliorer les performances du protocole MAC. Cependant, la latence et l'excédent générés par la formation et le maintient des groupes sont des obstacles courants à l'adoption massive de cette technique. À cette fin, nous proposons, comme première contribution, un système de regroupement des véhicules pour le reseau véhiculaire. En tirant parti de l'apprentissage par renforcement, notre système peut rapidement former des clusters conscients des conditions du réseau. En outre, notre système de regroupement basé sur l'apprentissage par renforcement assure une maintenance dynamique et coopérative pour les regroupements. L'efficacité de notre système est évaluée par des simulations approfondies, et les résultats de la simulation montrent l'efficacité de l'algorithme proposé. Les résultats de la simulation montrent que la proposition dépasse une approche précédemment développée et permet de séléctionner des chefs de cluster plus persistant avec des durées plus longues et des connexions plus stables avec leurs members. Avec l'augmentation du nombre d'utilisateurs, l'attention est accordée à la qualité de l'expérience (QoE) et à l'allocation des ressources de canal dans IoV. C'est pourquoi nous proposons, comme deuxième contribution, un schema MAC basé sur la qualité de l'expérience et le clustering pour les reseaux véhiculaires. La proposition a pour objectif d'améliorer l'efficacité du réseau et la qualité du service qu'il fournit. Dans cette contribution, les véhicules sont organisés en groupes dans lesquels il y a un chef dans chaque groupe. Le chef de groupe est responsable de l'attribution des slots de temps, de la transmission des messages envoyés par les membres de leur cluster et de la planification des communications entre les clusters et à l'intérieur du cluster. L'efficacité du système est évaluée à travers diverses simulations. Les résultats de la simulation montrent que le protocole obtient un taux de collision plus faible et un débit plus élevé que le standard. Le protocole MAC est souvent confronté au problème de la congestion du réseau. La congestion se produit généralement lorsque la capacité du réseau est inférieure à la charge du canal. Cela peut bloquer l'échange des messages et provoquer une latence supplémentaire. Pour atténuer cette situation, nous proposons comme troisième contribution un nouveau algorithm MAC d'évitement de congestion pour le reseau véhicullaire. L'objectif de cette étude est de réduire la congestion des réseaux. Sur la base de la technique d'apprentissage du renforcement profond, nous proposons un nouveau schéma qui utilise plusieurs paramètres MAC pour éviter ou gérer la congestion de réseau détectée. Le schema proposé ajuste périodiquement les paramètres MAC en supervisant le comportement de la communication à proximité de chaque véhicule. De cette façon, il peut réduire les retards et le taux de collision d’une part, et augmenter le debit de l’échange de données d’autre part. L’objectif principal de notre quatrième contribution est de minimizer la congestrion de reseau en minimisant la redundance des messages lors de la diffusion des messages d’accident. Nous avos utilize les message unicast au lieu des messages de diffusion (broadcast) permettant la communication multi-saut entre les véhicules et les serveurs. Les simulation de cette proposition ont montré l’éfficacité de cette contribution. Comme dernière contribution, nous avons propose un susteme de santé permettant de detecter des incidents relatifs aux état de santé des conducteur. Ce system permet la detection rapide des incident pour une prise en charge rapide. Il permet également de gérer de manière efficace la recherche des aItem Carrier-based sensor coverage in wireless sensors and robots networks(2025-04-20) Belguerche; NadiaLa technologie des réseaux de capteurs et de robots sans fil (RCRSF) permet de collecter, de traiter et de transmettre en temps réel des données critiques, facilitant ainsi la surveillance de zones hostiles, difficiles d'accès et éloignées. Essentielle pour le monitoring de zones sensibles, notamment dans des scénarios dangereux, cette technologie se heurte toutefois à un défi majeur : le déploiement efficace des capteurs. Les RCRSF, souvent constitués d'un grand nombre de capteurs et de robots, sont généralement déployés de manière aléatoire. Ce déploiement aléatoire, conduit les applications à déployer un nombre de capteurs bien supérieur à ce qui est nécessaire. L'objectif est double : couvrir les trous de couverture issus du déploiement initial et prévenir les défaillances de nœuds, prolongeant ainsi la durée de vie du réseau. La relocalisation de capteurs est une technique très utilisée dans RCRSF pour assurer la couverture de la ROI. Cette technique permet d'optimiser la couverture de la zone d'intérêt en déplaçant les capteurs redondants, c'est-à-dire ceux qui surveillent une zone déjà couverte par d'autres capteurs, vers des zones non couvertes. L'objectif de ces techniques est minimisé le temps de relocalisation, minimiser l'over Head dans le réseau tout en garantissant une couverture maximale de la ROI. Dans ce travail, nous proposons, d'abord, une taxonomie des protocoles de relocalisation de capteurs à l'aide de robots. Nous avons proposé deux grandes classes : les approches Centralisés et les approches coopérative. Les solutions centralisées visent généralement à proposer un chemin de réparation optimal en se basant sur les positions de tous les trous et capteurs redondants dans le réseau. Afin d'optimiser le chemin de réparation, ces techniques se basent sur des heuristiques tel que LKH ou bien utilisent des fonctions objectives d'optimisation. Dans les solutions coopératives par contre, le robot prend des décisions en se basant sur l'information locale. Ce type de solutions est plus réaliste et il vise à assurer une couverture maximale de la ROI mais le chemin de réparation ne peut pas être optimal. Pour son déplacement le robot utilise en générale la méthode LRV ou bien la méthode du nearest grid first. Deuxièmement, nous avons développé un nouvel algorithme appelé Simple Relocation Method (SRM), qui exploite les avantages de l'approche coopérative pour repositionner les capteurs redondants. SRM repose sur une stratégie innovante de partage d'information, où les capteurs échangent les positions des capteurs redondants et des trous dans leur voisinage afin de permettre aux robots de couvrir rapidement ces trous, minimisant ainsi le temps de relocalisation. En outre, SRM vise à maximiser la couverture de la région d'intérêt (ROI). Notre deuxième contribution ORDEC s'appuie sur les bénéfices des approches centralisées. ORDEC propose un chemin de réparation optimal basé sur l'heuristique LKH (Lin-Kernighan-Helsgaun). Cette dernière permet de générer un chemin qui lie les capteurs redondants et les trous de la ROI, optimisant ainsi les déplacements des robots et réduisant ainsi le temps nécessaire pour la relocation et la couverture des trous. La troisième contribution, intitulée Reflection Sensor Deployment (R-SR), propose un algorithme hybride combinant les avantages des approches centralisées et coopératives. Dans cette méthode, le robot explore la ROI de manière similaire à la propagation de la lumière et effectue des arrêts périodiques pour détecter les trous de couverture ainsi que les capteurs redondants dans son voisinage. À mesure qu'il identifie des trous, il les couvre en utilisant les capteurs redondants détectés localement, et l'heuristique LKH est utilisée à cette étape pour optimiser le processus de réparation. Cette stratégie permet au robot de réduire efficacement le temps de relocalisation tout en assurant une couverture maximale de la ROI. Enfin, notre dernière contribution est le développement d'Item Multiple regions detection-based MSER(2025-07-08) Ait Mehdi; MohamedL'imagerie médicale joue un rôle essentiel dans le diagnostic clinique moderne. Cependant, le volume et la complexité croissants des images médicales nécessitent des outils d'analyse plus intelligents et automatisés. Dans cette thèse, nous présentons un large éventail de systèmes de diagnostic assisté par ordinateur (DAO) qui améliorent la précision et l'efficacité du diagnostic en combinant l'apprentissage profond (AP), l'informatique quantique et des méthodes de traitement d'images optimisées. La première contribution aborde les limites du détecteur de régions extrémales maximales stables (REMS) dans l'analyse d'images médicales en introduisant un cadre d'amélioration de la REMS basé sur l'optimisation. En formulant la configuration des paramètres de la REMS comme un problème d'optimisation, nous appliquons quatre algorithmes récents, à savoir : l'algorithme des moisissures visqueuses (AMS), l'algorithme des prédateurs marins (APM), l'optimiseur basé sur le tas (HBO) et l'optimiseur basé sur le gradient (GBO), afin d'améliorer significativement les performances de localisation des régions. De plus, un nouveau pipeline d'extraction de caractéristiques combinant MSER optimisé, motifs binaires locaux (LBP), Bag-of-Visual-Words (BoVW) et caractéristiques profondes est proposé pour les tâches de classification CAO impliquant des images de cellules sanguines et de lésions cutanées. La deuxième contribution introduit une approche d'apprentissage profond exploitant le modèle Swin Transformer combiné aux K-Nearest Neighbors (KNN) pour une détection et un comptage précis des cellules sanguines dans les images microscopiques. Cette méthode surpasse les méthodes de référence existantes sur un jeu de données public en relevant efficacement des défis tels que le chevauchement cellulaire, la variabilité de taille et le déséquilibre de classe. Notre dernière contribution propose un nouveau modèle de diagnostic hybride qui intègre les réseaux de neurones convolutifs (CNN) classiques à des circuits quantiques pour la classification des lésions cutanées. En utilisant le simulateur PennyLane et le jeu de données ISIC, notre cadre quantique amélioré atteint une précision compétitive et une généralisation améliorée par rapport aux références d'apprentissage profond classiques. Dans l’ensemble, les contributions proposées font progresser l’état de l’art en matière d’analyse automatisée d’images médicales, offrant des approches robustes et diversifiées pour améliorer la précision et la fiabilité du diagnostic dans de multiples contextes d’imagerie.Item Vers un modèle d’identité numérique sécurisée(2025-03-11) Berbar; AhmedLes plateformes e-gouvernement sont des systèmes électroniques qui permettent aux citoyens d'interagir avec les services gouvernementaux en ligne. Elles offrent un accès pratique aux services tels que les demandes de documents, les paiements d'impôts et le suivi des dossiers. Ces plateformes offrent également des avantages pour les gouvernements en automatisant les processus, en améliorant la gestion des données et en réduisant les coûts. La gestion d'identité est un élément essentiel des plateformes e-gouvernement. Elle implique la création, la maintenance et l'utilisation d'informations d'identification pour authentifier les utilisateurs et contrôler leur accès aux services gouvernementaux en ligne. La gestion d'identité garantit que seules les personnes autorisées peuvent accéder aux services et aux données, renforçant ainsi la sécurité et la confidentialité des informations. Les plateformes e-gouvernement offrent des avantages potentiels en termes de sécurité et de confidentialité des données, mais elles comportent également des risques tels que les cyberattaques et les fuites de données. Il est donc crucial pour les gouvernements de mettre en place des mesures de sécurité robustes pour protéger les données d'identité des citoyens. Dans le cadre de cette thèse, une plateforme e-gouvernementale multi-domaines basée sur les technologies cloud computing et blockchain est proposée. Elle utilise un modèle de gestion des identités structuré et extensible, respectant la vie privée des utilisateurs et permettant un contrôle d'accès sécurisé aux services gouvernementaux. Notre modèle reste adaptable et applicable à tous les pays sans pour autant exiger la refonte des systèmes d’identification existants.