Titre du mémoire :

Alignement D’ontologies Hétérogènes Basé Sur Les Raisonneurs

Résumé :

La construction d’ontologies se base sur la réutilisation d’ontologies déjà existantes, car la conception d’ontologies à partir de zéro (from scratch) est un processus long, couteux et très laborieux, parallèlement, elle accentue le phénomène de l’hétérogénéité des ontologies. Dans ce contexte, l’alignement des ontologies est la solution pour réaliser plusieurs applications telles que l’intégration et le rapprochement de ces différentes structures. Cette thèse présente une approche d'appariement d'ontologies appelée ONTMAT1, vise à fournir automatiquement des relations de correspondance entre les deux ontologies hétérogènes à travers divers calculs de similarité entre leurs entités en utilisant des règles d'inférence basées sur la logique de description. Tout d'abord, le problème de recherche des alignements les plus pertinents, cohérents et significatifs est abordé. Ensuite, une stratégie qui garantit la flexibilité et l'évolutivité de l'application grâce à une combinaison de différents appariements est suggérée. De plus, un raisonneur et un dictionnaire WordNet ont été utilisés pour résoudre les problèmes de correspondance habituels rencontrés avec les synonymes. Des exemples illustratifs sont ensuite présentés pour expliquer l'approche développée. L'approche a été simulée et testée en ligne dans le cadre de la tâche de conférence de Ontology Alignment Evaluation Initiative (OAEI) 2019. Les résultats obtenus sont détaillés ici avec des remarques sur les résultats.

Etudiant (e) : Gharbi Saida
Niveau : Doctorat en sciences
Co-encadreur :
Date de soutenance : 2020
Titre du mémoire :

Classification et Modélisation Multi-Termes de la consommation de Gaz Naturel en utilisant les paradigmes de l'Intelligence Artificielle

Résumé :

Le gaz naturel est l'une des principales sources d'énergie électrique en Algérie et dans le monde. Il est donc impératif d'étudier de comprendre de modéliser et de prédire cette demande. Cette thèse présente trois contributions distinctes traitant les problèmes de prévision de la consommation de gaz naturel à court et à long terme. En premier lieu, l'approche de prévision à deux étapes est étudiée et implém-entée. Elle consiste en deux phases principales : 1) classer les séquences de schémas quotidiens de consommation de gaz naturel en Algérie en différents groupes aux attributs similaires (classes). 2) la conception et la formation de modèles de types processus gaussiens auto-régressifs multiples est réalisée en utilisant les données du marché Algérien du gaz naturel ainsi que les intrants exogènes constitues de la météo (temperature) et du calendrier (jour de la semaine, indicateur d'heure). La principale nouveauté de ce travail consiste en l'investigation de multiples techniques de clustering différentes pour une meilleure analyse et clustering des données de consommation de gaz naturel. L'impact des clusters obtenus, par chaque technique est résumé et évalué en fonction de la précision de la prédiction. En deuxième lieu, une nouvelle approche de prévision hybride est introduite pour résoudre les déficiences de la méthode en deux étapes, en concevant un perceptron multicouche (MLP) réseaux de neurones en tant que moniteur de prévision non linéaire. Ce modèle estime le profil de consommation journalière de gaz et choisit l'un des modèles locaux pour effectuer la prévision. L'étude porte tout d'abord sur une analyse et une classification des profils de consommation quotidienne de gaz naturel, et ensuite sur la construction d'un modèle récurrent complet de la mémoire à long terme (LSTM) en fonction du comportement de la charge. Les résultats sont comparés à quatre approches de référence : le MLP, LSTM, série temporelle saisonnière avec variables exogènes et modèle de régression linéaire multiple. Finalement, la dernière contribution consiste à développer une approche de réseaux de neurones pour prédire la consommation annuelle de gaz naturel en Algérie pour les trois secteur de pression (basse pression, moyenne pression et haute pression) à moyen et long termes.

Etudiant (e) : Laib Oussama
Niveau : Doctorat 3ème cycle
Co-encadreur :
Date de soutenance : 07/02/2020
Titre du mémoire :

Conception de Multi-modèles Non Linéaires Basée sur les RNA pour la Commande Prédictive de Procédés Industriels

Résumé :

Sur la base du modèle original IAWQ, un modèle réduit est içi élaboré pour le procédé du bioréacteur à boues activées en bassin unique avec aération de surface (ASM1). Les simplications considérées reposent principalement sur l'analyse des composantes du modèle, à savoir, l'oxygènedissous, la matière organique, l'azote et les micro-organismes. La modélisation des systèmes non linéaires ASM1 utilise des expressions complexes basées sur laconnaissance des phénomènes physiques et chimiques, d'où la difficulté de leurs exploitations à des ns de diagnostic ou de commande. Pour surmonter cette difficulté, l'approche multi-modèle (TS) est exploitée, obtenant ainsi, un ensemble de modèles linéaires associés à une fonction non linéaireµ obtenue en utilisant une approche Quasi-Linéaire à Paramètres Variables (Quasi-LPV). L'approche proposée généralise l'approche par secteur non linéaire an de modéliser notre système, ce qui va nous permettre d'utiliser les atouts des systèmes linéaires et de les exploiter pour notre système non linéaire. Le poids de la non-linéarité du système ou du modèle va être exprimé dans les fonctions de pondération µ. Plusieurs formes multi-modèles équivalentes au modèle initial peuvent être obtenues, en raison des diérentes formes Quasi-LPV. Ainsi certains critères sont spéci- és notamment l'observabilité/contrôlabilité du système, en utilisant l'Inégalité Matricielle Linéaire (LMI), an de choisir le multi-modèle le plus approprié à des ns d'analyse ou de contrôle. Ces dernières années, l'exigence de plus de performances, de meilleures qualités ainsi qu'une réduction des coûts de production de la part des industriels ne cesse de croître. L'objectif principal de la commande d'un système de production est de maintenir les sorties proches d'une valeur désirée ou alors de poursuivre une référence, donnée par la température d'un produit, le débit d'une vanne, lecourant d'une machine électrique, etc. Bien que la commande classique PID (Proportional Integrate Derivative) suffise à répondre aux exigences de la plupart des systèmes régulés en industrie, malgré sa simplicité d'utilisation et de compréhension, et qui se résume en majorité à la régulation d'undébit. Toutefois, le fonctionnement toujours plus proche des contraintes de production, les temps morts et les systèmes à phases non minimales ou oscillatoires ne sont respectivement pas pris en charge par le PID. La commande prédictive MPC (Model Predictive Control) est alors apparue et a permis de réglerune partie de ces problèmes. Grâce à son aspect prédictif, basée sur un modèle interne embarqué qui permet d'évaluer la dynamique future du système, elle permet de prendre en considérationles temps morts, les systèmes oscillatoires et à phases non minimales, les systèmes instables, etcet est facilement extensible aux systèmes multi-variables. L'inconvénient majeur de la commande prédictive, en plus de la nécessité d'un modèle interne, est son temps de calcul conséquent, c'est laraison qui explique sa large utilisation dans l'industrie du génie de procédé où les systèmes contrôlés sont suffisamment lents. En eet, la large gamme d'algorithmes et d'approches de commande prédictive procure un choixet une facilité d'implémentation. Néanmoins, le développement du modèle à embarquer dans l'algorithme prédictif reste ce qu'il y de plus difficile et de plus délicat. L'utilisation des Réseaux de Neurones Articiels (RNA), plus précisément Multi-Layer Perceptrons (MLP) sera étudiée, comme alternative à la fonction de pondération µ obtenue par le multimodèle Takagi Sugeno (TS) pour le modèle du bioréacteur à boues activées réduit. L'ensemble dessous-modèles linéaires couvrant les entrées/sorties du processus sera considéré dans l'élaboration de la fonction µ obtenue par les RNA, estimée à l'aide d'un MLP où l'apprentissage et la validation de ce dernier sont effectués à l'aide des données recueillies à partir du multi-modèle (TS) et les résultatssont comparés avec l'approche originale avec et sans perturbations et incertitudes paramétriques, parla suite la robustesse du modèle Neuro-TS, à diérentes valeurs de perturbations et d'incertitudes, est étudiée. La Commande Adaptative Prédictive basée Modèle (TS-AMPC) basée sur le multi-modèle (TS)du bioréacteur à boues activées réduit et la comparaison de ce dernier avec la commande MPCutilisant le multi-modèle (TS) globale (TS-MPC) ont été étudiées. L'approche TS-AMPC est obtenue en basculant entre les sous-modèles linéaires de la formulationTS. Ceci est eectué en sélectionnant, par tour, une partie de la fonction de pondération µ. Le modèle associé à cette dernière servira alors de modèle interne pour la formulation de la loi de contrôle TS-AMPC, alors que le multi-modèle (TS) complet est utilisé dans le calcul de la loi de contrôle TSMPC. L'utilisation des deux sous-modèles internes les plus signicatifs a également été mise en oeuvre et testée (TS-AMPC2). Enn, les performances, sous perturbations d'entrées et incertitudes paramétriques ainsi que des contraintes sur les variables de contrôle du contrôleur TS-AMPC, sont comparéesà un contrôleur TS-MPC global et à un PID de référence en termes d'erreur et réponse dynamique.

Etudiant (e) : Matoug Lamia
Niveau : Doctorat en sciences
Co-encadreur :
Date de soutenance : 05-2018
Titre du mémoire :

Apprentissage approfondi des réseaux de neurones artificiels pour l'approximation de séries temporelles.

Résumé :

La prévision de la charge électrique joue un rôle important dans la plani- fication régulière des systèmes électriques, dans laquelle la charge est influencée par plusieurs facteurs qui doivent être analysés et identifiés avant la modélisation afin d'assurer un meilleur équilibre de charge entre l'offre et la demande. Cette thèse propose une approche en deux étapes pour la prévision de la charge électrique à court terme. Dans la première étape, un ensemble de classes des profils de charge est identifié en utilisant l'algorithme de classification K-Means ainsi que l'estimation des profiles de température. La méthode d'estimation proposée est particulièrement utile en cas de manque de données historiques de la température régulière. Alors que dans la deuxième étape, l'approche Stacked Denoising Autoencoders est uti- lisée pour construire des modèles de régression pour prédire la consommation de chaque type de jour indépendamment. Les modèles obtenus sont établi et évalués en utilisant les données de la consommation horaires sur l'électricité fournies par la Société nationale de l'électricité et du gaz d'Algérie (Sonelgaz). Plusieurs modèles sont étudiés pour mesurer l'exactitude et l'efficacité de l'approche proposée. L'ap- proche proposée dans cette thèse a été concrétisée par le développement d'un outils nommé PREVOS-DZ qui permet de rendre la prévision de la charge électrique ac- cessible aux utilisateurs avec la possibilité d'effectuer des prévisions à la demande et en temps réel.

Etudiant (e) : Farfar Kheiredinne
Niveau : Doctorat en sciences
Co-encadreur :
Date de soutenance : 25-10-2018
Titre du mémoire :

Approche Multi-agents pour la simulation de la pollution de l'air

Résumé :

Cette Thèse présente une approche multi-agents pour la simulation de la pollution de l'air. L'approche décrite, vise à simuler le phénomène de pollution de l'air comme étant un système socio-environnemental. Elle inclut l'aspect physique de la dispersion et la concentration des polluants ainsi que le facteur de décision humaine concernant les activités polluantes. Deux modèles sont intégrés ensemble pour prédire la concentration des polluants, le premier est un modèle de dispersion Gaussien, il permet de calculer la dispersion par rapport aux sources de pollution, le deuxième modèle est un réseau de neurones artificiels de type RBF qui utilise les valeurs de dispersion et les paramètres climatiques pour prédire la concentration de la pollution. Ces deux modèles sont utilisés au sein d'un système multi-agents. Ce dernier, modélise sous forme d'agent, l'ensemble des acteurs impliqués dans la gestion des sources de pollution et la qualité de l'air. L'interaction et la coopération entre les agents permettent de simuler les activités anthropiques qui sont les principales causes de la dégradation de la qualité de l'air. Un système de simulation est conçu afin de montrer la faisabilité de notre approche, il vise à prédire la concentration du SOX, PM10, COX, NOX et l'O3, ainsi que la qualité de l'air. Le système a été testé avec trois scénarios en utilisant les données concernant la ville d'Annaba (nord-est de l'Algérie). L'approche a permis d'étudier les différentes stratégies qui assurent la coopération, et permettent d'aider dans la prise de décision concernant la gestion de la qualité de l'air.

Etudiant (e) : Ghazi Sabri
Niveau : Doctorat en sciences
Co-encadreur : Dugdale Julie
Date de soutenance : 10/05/2017
Titre du mémoire :

Modélisation et Inférence des connaissances

Résumé :

Le web sémantique (WS) est une extension de web actuel avec de riche descriptions sémantiques des ressources sur le web. Les standards RDF (Resource Description Framework) et OWL (Ontology Web Language) sont des langages désignés pour la modélisation et l’inférence des connaissances. Notre objective consiste à étudier les problèmes liées à ces langages afin de proposer des solutions pour certain de ses problèmes. RDF est un langage dédié pour la description des ressources et SPARQL est le langage de requête pour interroger les graphes RDF. L’un des problèmes importants pour RDF est au niveau de l’interrogation et du manipulation où il faut une bonne connaissance de RDF et SPARQL afin d’extraire des informations significatives depuis les graphes RDF. Dans ce contexte les approches qui supportent le matching direct sont suffisantes mais elles sont échouées de trouver des réponses dans le cas s’il y a une faible connaissance de RDF et SPARQL. Ceci est puisque dans cette situation il y a des différences entre les requêtes et les données en RDF au niveau de la structure et le contenant et ces approches ne prisent pas en compte ces différences. Pour résoudre ce problèmes, les chercheurs proposent des approches qui supportent le matching approximatif où les différences sont considérées. Les travaux dans ce domaine ne prennent pas en compte plusieurs considérations lors de processus d’approximation et ils marginalisent la similarité entre les sens des concepts qui donne des réponses non satisfaisantes. Nous proposons une approche d’approximation des requêtes sémantiques pour les graphes RDF où plusieurs critères sont considérés dans le calcule du niveau d’approximation entre les chemins de requête et les chemins de graphe RDF. Ces niveaux sont utilisés pour calculer les niveaux d’approximation des réponses qui sont des sous graphes générés par la combinaison des chemins approximatifs trouvés. La ressource sémantique WordNet est utilisée pour le calcul de la similarité basée sur les sens entre les composants de la requête et les autres dans le graphe RDF cible. Les réponses approximatives peuvent être explorées pour plus d’information et un prétraitement ainsi qu’une indexation de graphe RDF cible sont performés, des optimisations sont alors considérés. Notre approche d’approximation est implémentée et évaluée avec une ontologie réelle dans le domaine bibliographique. L’un des problèmes importants pour OWL est la représentation et le raisonnement en présence de l’incertitude puisque OWL est désigné principalement pour les connaissances certaines. Gérer l’incertitude est une tache très importante afin de modéliser et résonner avec les connaissances de monde réel. La logique de description (LD) est la base d’OWL, par conséquent, pour trouver une bonne solution au problème d’incertitude il est nécessaire de bien étudier ce problème dans la LD. Les chercheurs dans ce domaine proposent des extensions probabilistes pour la LD où le degré d’incertitude est représenté par une probabilité. La plupart des ces extensions sont complexes à utiliser (come qui se basent sur le réseau bayésien), ils se basent seulement sur l’incertitude statistique, ils utilisent un LD avec haute complexité, ils ne supportent pas les relations des dépendances entre les axiomes (conjonction et disjonction), ils utilisent les modèles classiques …etc. Ces manques sont prises en compte dans notre travaille par la proposition d’une extension probabiliste pour le 〖DL‐Lite〗_bool^N (DL-Lite est la base de OWL2 QL et il a une bonne complexité) nommé 〖PrDL‐Lite〗_bool^N qui se basent sur l’incertitude subjective en utilisant les intervalles des croyances dans un axiome ou plusieurs axiomes connectés avec des conjonctions (∧) ou disjonctions (∨). La sémantique utilisée dans 〖PrDL‐Lite〗_bool^N est basée sur le modèle feature qui est une sémantique alternatif pour 〖DL‐Lite〗_bool^N. On a choisi de travailler avec les features et non pas les modèles classiques puisque les premières ont toujours des structures fini et le nombre des features est toujours fini contrairement aux modèles classique qui peuvent avoir des structures complexes et le nombre de ces modèles n’est pas toujours fini. Notre extension est simple à utiliser et elle nécessite seulement que les intervalles des croyances. Les deux types de connaissances probabilistes (terminologiques et assertionnelles)sont supportés et les taches de raisonnement sont: décider la satisfiabilité des bases des connaissances probabilistes, décider les conséquences logiques et calculer les intervalles serrés des croyances. Ces taches sont achevées par la résolution d’un système des contraintes linières. Un prototype implémenté sous JAVA pour l’utilisation des APIs OWLAPI pour la représentation a été réalisé, utilisant le raisonneur Pellet pour le raisonnement et LpSolve pour résoudre le système des contraintes linières. Les résultats des évaluations du prototype implémenté sont présentés et commentés.

Etudiant (e) : Djeddai Ala
Niveau : Doctorat 3ème cycle
Co-encadreur : Seridi Hassina
Date de soutenance : 15/09/2015
Titre du mémoire :

Capitalisation et réutilisation des connaissances de diagnostic de panne des turbines

Résumé :

Cette thèse s’inscrit dans une perspective d’ingénierie des connaissances et de capitalisation de savoir faire, où l’objectif est de réaliser et concevoir un système à base de connaissances qui consiste à rassembler le savoir et le savoir-faire dans le domaine de diagnostic des pannes des turbines à vapeur. L’analyse ou la méthode de conception consiste à modéliser les connaissances, dans un premier temps les capitalisées en utilisant des outils de l’intelligence artificielle par la construction d’une ontologie du domaine qui est une méta description d'une représentation des connaissances du domaine où la tâche est réalisée. Ensuite utiliser d’autre outils de partage et de réutilisation des connaissances acquises; le raisonnement à partir de cas « RàPC » offre et possède ces caractéristiques. Le RàPC est un outil puissant pour la prise de décisions qui s'approche du processus de raisonnement humain, basé sur la réutilisation d'expériences passées dans la résolution de nouveaux problèmes. Un système RàPC est une combinaison de processus et la connaissance appelée " containers de connaissances ". Sa puissance de raisonnement peut être améliorée à l'aide de l’utilisation des connaissances du domaine. Les systèmes RàPC combinant les connaissances spécifiques de cas avec des modèles de connaissance de domaine sont appelés les Connaissances Intensives RàPC (KI-CBR). Le système proposé est vu comme un système KI-CBR se basant sur deux modèles de connaissances : les modèles de domaine et de cas. Ces modèles sont représentés dans une structure ontologique pour permettre un meilleur couplage entre les connaissances relatives aux cas et celles du domaine ; Le processus de fonctionnement de notre système correspond au cycle RàPC: Élaboration, Remémoration, Adaptation, Validation et Mémorisation. Ce cycle commence par l’élaboration d’un problème cible à partir d’une description initiale fournie par l’utilisateur. La phase de remémoration est établie en se basant sur des méthodes de calcul de similarité validée et finalement des solutions candidates sont proposées durant la phase d’adaptation. Une comparaison a été faite des différentes approches des deux phases remémoration et adaptation et une évaluation de l’architecture proposée a été réalisée. Notre travail a conduit au développement et l’implémentation de CBRonto-Turbine qui s’appuie sur une ontologie réunissant les connaissances du domaine et les connaissances relatives aux cas utilisant deux outils de conception des systèmes KI-CBR ; jCOLIBRI et myCBR. Durant le processus de prototypage, l'utilisation et la fonctionnalité des deux outils sont examinés, une étude comparative est exécutée avec des résultats présentant des avantages fournis par l'utilisation d'ontologies avec des systèmes RàPC et démontrant que jCOLIBRI est bien adapté pour concevoir un système KI-CBR.

Etudiant (e) : Dendani-Hadiby Nadjette
Niveau : Doctorat en sciences
Co-encadreur :
Date de soutenance : 2014
Titre du mémoire :

Alignement sémantique des ontologies de grande Taille

Résumé :

Les ontologies sont des nouvelles formes d'organisation et contrôle intelligent de l'information. Elles présentent un savoir préalable requis pour un traitement systématique de l'information à des fins de navigation, de rappel, de précision, etc. Toutefois, les ontologies sont confrontées de façon continue aux problèmes d'hétérogénéité à savoir : l'hétérogénéité syntaxique, l'hétérogénéité terminologique, l'hétérogénéité conceptuelle et l'hétérogénéité sémiotique. Dans ce cadre, l'alignement s'impose comme une solution, afin de permettre l’interopérabilité et le partage des données. Etant données deux ontologies, l’alignement (appariement ou mise en correspondance) consiste en la production d’un ensemble de correspondances entre les entités. Ces entités peuvent être des concepts, des propriétés ou encore des instances. Cependant la génération automatique des correspondances entre deux ontologies est d’une extrême difficulté qui est due aux divergences (conceptuelle, habitudes, etc.) entre communautés différentes de développement des ontologies. De plus, la problématique d’alignement se pose avec acuité lorsque le nombre et le volume des schémas de données sont importants. En effet, dans les domaines d’applications réelles où les ontologies sont volumineuses et complexes, les exigences de l’exécution du temps et de l’espace mémoire sont les deux facteurs significatifs qui influencent directement la performance d’un algorithme d’alignement. Cette thèse apporte des réponses au problème de l’alignement et de l'hétérogénéité des sources de données. Nous présentons notre système d’alignement XMap++, qui est capable d'élaborer un mapping sémantique en tenant compte du contexte des sources à aligner. Ainsi, nous proposons des stratégies de matching qui peuvent être combinées de façon dynamique en prenant en considération les spécificités sémantiques des concepts. En particulier, le module aligneur supporte quatre modes de combinaison dynamique (e.g. moyenne, pondération dynamique, pondération avec les RNA, fonction sigmoïde) qui leur confère la capacité de choisir parmi les mesures de similarité des entités (e.g., terminologique, linguistique et structurelle) le degré de confiance approprié a chaque matcher pour aligner une entité donnée, considérant des caractéristiques sémantiques spécifiques (e.g. type de données, nature de contenu, etc.). Nous proposons également le principe du vieil adage « diviser pour mieux régner » afin de nous permettre de profiter des différents processeurs disponibles sur la machine pour mener à bien nos calculs lors de l’alignement de ces ontologies de grande taille.

Etudiant (e) : Warith-Eddine DJEDDI
Niveau : Doctorat en sciences
Co-encadreur :
Date de soutenance : 2013
Titre du mémoire :

Contribution à la classification non supervisée : application aux données environnementales.

Résumé :

Cette thèse se place dans le cadre de l'apprentissage non supervisée dont l'objectif est de proposer une approche de classification basée sur les cartes auto-organisatrices de kohonen, communément désignées par SOM (pour Self Organising Maps), et d'évaluer l'utilisabilité des SOMs et d'autres méthodes de l’intelligence computationnelle dans l'analyse et la modélisation des problèmes de l'informatique environnementale. La première approche à deux niveaux de classification consiste à utiliser les cartes auto-organisatrices de Kohonen (SOM) pour le premier niveau et un algorithme de classification par partition (Kmeans) pour le deuxième niveau. Cette approche a été également utilisée pour l’identification des types de jours météorologiques pour la région d’Annaba à partir des données météorologiques captées par la station Samasafia durant la période 2003 à 2004. La deuxième approche de classification à deux niveaux consiste à utiliser une carte CHAOSOM à deux dimensions dans le premier niveau pour l’apprentissage des données et dans le deuxième niveau, une carte CHAOSOM unidimensionnel a été utilisée pour regrouper les vecteurs prototypes générés par le premier niveau de classification. Une analyse quantitative basée sur deux catégories de critères (internes et externes) et qualitative ont été utilisées pour valider et interpréter les résultats obtenus de la classification. La première approche a permis d’extraire cinq classes qui sont liés directement aux conditions météorologiques de la région. Les clusters météorologiques obtenus ont été utilisés pour étudier l’influence des paramètres météorologiques (par cluster) sur la pollution atmosphérique dans cette région. Une analyse non linéaire basée sur un modèle neuronal (perceptron multicouches) a été effectuées. Les résultats obtenus sont très satisfaisants et plusieurs relations et conclusions ont été tirées

Etudiant (e) : Khedairia Sofiane
Niveau : Doctorat en sciences
Co-encadreur :
Date de soutenance : 2014
Titre du mémoire :

Méthodes Heuristiques pour la Prédiction des Séries Temporelles

Résumé :

La prévision de la charge électrique est de nos jours d’une importance primordiale tant pour des raisons économique qu’environnementales. L’électricité en tant que ressource non stockable, doit de ce fait répondre à une production équivalente à la demande en cours, afin de réaliser un équilibre entre la production et la consommation ; ce qui limiterait les pertes et assurerait un approvisionnement continu des consommateurs. Des outils de prédictions peuvent assurer une connaissance a priori sur la quantité d’énergie requise à la production. Ces outils se basent sur des approches reconnues dans le domaine de l’analyse des séries temporelles pour prédire les valeurs antérieures de cette dernière. Avec l’évolution de l’informatique, et l’introduction de plusieurs approches intelligentes, les réseaux de neurones ont marqué leur puissance en termes d’approximation de fonction et de classification. Toutefois, le problème de prédiction de la charge électrique ne peut être traité qu’après une étude et une compréhension exhaustive des données de cette dernière. De plus, la courbe de charge est très différente d’un pays a l’autre voir d’une région a l’autre dans un même pays car dépendant de paramètres socio-économique culturel, religieux etc. L’identification des types de journées électrique devient alors nécessaire afin de refléter l’influence de ses paramètres sur la courbe de charge et permettre une meilleure segmentation des données. En effet la connaissance des types de jours ainsi que leur relation avec les besoins des consommateurs qui se traduit par un effet direct sur la courbe de charge (journalière, hebdomadaire, ou mensuelle), est primordiale. Pour cela, et après l’examen d’une recherche exhaustive sur les approches de classifications simple et hybrides, une palette de paradigmes de l’IA, avec comme outil principal les RNA et plus particulièrement les cartes autoorganisatrices de Kohonen, ainsi qu’une hybridation avec les K-moyenne et la logique floue a été considérée. Des résultats probants et novateurs, pour la charge Algérienne nationale ainsi que la charge régionale en mettant l’accent sur des zones du nord et du sud, ont été trouvés. Sur la base de cette classification a été élaboré un système expert flou pour la prédiction de la charge électrique pour chaque type de jours, préambule à une approche multi-modèles. Dans cette thèse, nous nous intéressons à une stratégie pour l’identification de types de jours en utilisant une classification automatique dans le cadre de la classification non supervisée. Quelle approche utiliser et quels sont les indices de validités pour pouvoir déceler les différentes classes ? Sur la base de cette classification a été élaboré comme exemple explicatif, un système expert flou pour la prédiction de la charge électrique

Etudiant (e) : Benabbas Farouk
Niveau : Doctorat en sciences
Co-encadreur :
Date de soutenance : 2012
Titre du mémoire :

Modélisation multimodèle et commande prédictive d'une station d’épuration

Résumé :

Cette thèse traite le problème de l’estimation d’état, de commande tolérante aux défauts et de la commande prédictive des systèmes non linéaires représentés par des multi-modèles flous de type Takagi-Sugeno (T-S) incertains et/ou perturbés. La difficulté de cette étude provient du fait que le multimodèle utilisé dépend de variables de prémisse non mesurables, situation qui n’est pas intensivement étudiée, alors qu’elle est naturellement issue de l’approche par transformation de système non linéaire vers un multimodèle. La synthèse d’observateurs robustes vis-à-vis des perturbations, des imperfections de modélisation et des entrées inconnues a été présentés en se basant sur un observateur proportionnel intégral (PI). l'observateur PI est utilisé pour estimer simultanément l’état et les défauts du système. Ensuite, une loi de commande tolérante aux défauts par poursuite de trajectoire d’un modèle de référence est proposée en exploitant les observateurs PI. Dans ce cadre, une solution basée sur une fonction candidate quadratique de Lyapunov a été développée. Celles-ci permet la synthèse de la loi de commande par la résolution d’un ensemble de contraintes LMIs (Inégalités Linéaires Matricielles) tout en minimisant l'effet des entrées inconnues par la technique 2. En effet, l’écriture classique de la dynamique de la boucle fermée introduit des termes croisés entre la commande et le modèle au sein des conditions LMIs à résoudre. L’utilisation de la propriété de redondance des descripteurs a alors permis de pallier cette source de conservatisme. Enfin, une commande prédictive pour les systèmes flous non linéaire a été proposée. L'approche permet d’assurer la stabilité exponentielle du système en boucle fermé tout en basant sur l'addition d'une contrainte de stabilité. Les conditions de faisabilité ont été obtenues se forme de LMIs. Les travaux proposés sont appliqués au modèle d’une station d’épuration, Activated Sludge Model No.1, qui est largement utilisé dans le domaine du traitement des eaux usées.

Etudiant (e) : Aouaouda Sabrina
Niveau : Doctorat en sciences
Co-encadreur :
Date de soutenance : 2012