glo7001/semaine06.md
2017-10-09 23:54:35 -04:00

123 lines
5.3 KiB
Markdown

---
header-includes:
- \usepackage[T1]{fontenc}
- \usepackage[french]{babel}
- \usepackage{datetime}
- \usepackage{hyperref}
---
# Semaine 6: La gestion de l'incertain dans les systèmes à base de connaissances
## Systèmes à base de règles:
Référence: [Managing Uncertainty in Rule-Based Systems](http://mercury.webster.edu/aleshunas/CSIS%205420/CSIS%205420/Instructor%20Materials/Chapter%2013.pdf)
Types d'incertitude:
- Définition de l'antécédent de la règle
- Niveau de confiance en la règle
- Comment combiner les informations incertaines et le déclenchement de plusieurs règles
Méthodes pour gérer l'incertitude:
- Basées sur les probabilités
- Objeectives
- Valeurs bien définies pour un problème donné
- Jeux de hasard
- Expérimentales
- Obtenues par échantillonnage
- Développer des tables de probabilités pour les assurances
- Subjectives
- Basées sur une opinion d'un expert
- Basées sur des heuristiques
- Approche préférée pour les systèmes à base de règles
- Nature inexacte des données
- Facteurs de certitudes: développés en premier pour MYCIN
- Logique floue: Zadeh (1965) - mots avec une signification ambigue
### Systèmes à base de règles floues
Une règle est formée de variables linguistiques et de valeurs linguistiques. Les valeurs linguistiques sont associées à un ensemble flou. Un ensemble flou est caractérisé par une fonction d'appartenance prenant une valeur entre 0 et 1 pour chacune des valeurs numériques de la variable. Un ensemble flou peut aussi être discret.
- Pour les nouvelles valeurs de la variable qui ne sont pas définies dans l'ensemble discret:
- Interpolation
- Réseaux de neurones
Inférence en quatre étapes:
- Calcul des degrés d'appartenance
- Inférence par les règles:
- Union: Degré d'appartenance maximum pour toutes les conditions
- Intersection: Degré d'appartenance minimum pour toutes les conditions
- Couper la fonction d'appartenance à la hauteur spécifiée par la ondition de l'antécédent.
- Composition des règles
- Convertir l'ensemble flou en degrés de confiance
- Prendre la valeur maximum des règles
- Calculer le centre de gravité
### Approche probabiliste
Théorème de Bayes:
$$P(H\mid E)={\frac {P(E\mid H)\,P(H)}{P(E\mid H)P(H)+P(E\mid \neg H)P(\neg H)}}\cdot$$
- Utilisé en premier dans le système expert PROSPECTOR
- Approche mathématiquement correcte
- Combinaison possible de plusieurs évidences. On peut simplifier les calculs en supposant l'hypothèse que les évidences sont conditionnellement indépendantes
#### Ratios de vraisemblance
- Vraisemblance de la suffisance (tend vers 1 signifie que E est suffisant pour affirmer H): $LS=\frac{P(E \mid H)}{P(E\mid\neg N)}$
- Vraisemblance de la nécessité (tend vers 0 signifie que E est nécessaire pour affirmer H):
$LN=\frac{P(\neg E \mid H)}{P(\neg E\mid\neg N)}$
On peut utiliser ces ratios et le théorème de Bayes pour exprimer les deux règles suivantes:
$$P(H\mid E) = \frac{LS \times O(H)}{1+LS \times O(H)}$$
$$P(H\mid\neg E) = \frac{LN \times O(H)}{1+LN \times O(H)}$$
$$O(H) = \frac{P(H)}{P(\neg H)}$$
Pour utiliser dans un système à base de règles, on doit fixer une valeur de LN et de LS pour chaque évidence.
#### Enjeux
Problème de MYCIN: les experts n'étaient pas capables de faire sommer $P(H \mid E) + P(\neg H \mid E) = 1$
Hypothèses: Probabilités à priori, indépendance conditionnelle (approche forte ou naïve).
Besoin de beaucoup de données pour avoir un bon estimé des probabilité conditionnelles. Était un enjeu à l'époque, probablement moins aujourd'hui ce qui ramène les bases probabilistes à l'avant-plan et le machine learning avec des approches bayesiennes (Naive Bayes).
## Systèmes à base de schémas probabilistes
Source: [Probabilistic frame-based systems](http://ai.stanford.edu/%7Ekoller/Papers/Koller+Pfeffer:AAAI98.pdf)
## Systèmes à base d'estimation (valuation-based system)
Source: [Prakash P. Shenoy - Valuation-Based Systems (Slides)](http://www.gipsa-lab.fr/summerschool/bfta/includes/Valuation-Based-Systems-Shenoy.pdf)
### Bases
Système mathématique formel pour représenter et raisonner avec des connaissances.
Deux parties:
- Statique: Représentation des connaissances
- Variables: ensemble fini $\Phi = \lbrace X, Y, Z, \ldots \rbrace$ et sous-ensembles $r,s,t,\ldots$
- Estimations: ensemble fini $\Psi = \lbrace \rho, \sigma\, \tau \rbrace$ qui encodent les connaîssance s sur un sous-ensemble de variable.
- Dynamique: Raisonnement avec les connaissances avec des opérateurs
- Combinaison: $\oplus: \Psi \times \Psi \rightarrow \Psi$
- Margiinalisation: $-X: \Psi \rightarrow \Psi$ permet de sortir X du domaine d'une estimation
Représentation graphique: réseau d'estimations
Abstraction de plusieurs calculs d'incertitude:
- Calcul propositionnel
- Théorie des probabilités
- Théorie des fonctions de croyances: application au problème du Capitaine dans les slides
- Calcul de croyances épistémique de Spohn
- Théorie des possiibilités
Problème du capitaine: Estimer le nombre de jours de retard de son bateau à destination. Plusieurs facteurs d'incertitude.
Combinaison: [Règle de Dempster](https://wikimonde.com/article/Th%C3%A9orie_de_Dempster-Shafer)