glo7001/semaine06.md
2017-10-09 23:54:35 -04:00

5.3 KiB

header-includes
\usepackage[T1]{fontenc}
\usepackage[french]{babel}
\usepackage{datetime}
\usepackage{hyperref}

Semaine 6: La gestion de l'incertain dans les systèmes à base de connaissances

Systèmes à base de règles:

Référence: Managing Uncertainty in Rule-Based Systems

Types d'incertitude:

  • Définition de l'antécédent de la règle
  • Niveau de confiance en la règle
  • Comment combiner les informations incertaines et le déclenchement de plusieurs règles

Méthodes pour gérer l'incertitude:

  • Basées sur les probabilités
    • Objeectives
      • Valeurs bien définies pour un problème donné
      • Jeux de hasard
    • Expérimentales
      • Obtenues par échantillonnage
      • Développer des tables de probabilités pour les assurances
    • Subjectives
      • Basées sur une opinion d'un expert
  • Basées sur des heuristiques
    • Approche préférée pour les systèmes à base de règles
    • Nature inexacte des données
    • Facteurs de certitudes: développés en premier pour MYCIN
    • Logique floue: Zadeh (1965) - mots avec une signification ambigue

Systèmes à base de règles floues

Une règle est formée de variables linguistiques et de valeurs linguistiques. Les valeurs linguistiques sont associées à un ensemble flou. Un ensemble flou est caractérisé par une fonction d'appartenance prenant une valeur entre 0 et 1 pour chacune des valeurs numériques de la variable. Un ensemble flou peut aussi être discret.

  • Pour les nouvelles valeurs de la variable qui ne sont pas définies dans l'ensemble discret:
    • Interpolation
    • Réseaux de neurones

Inférence en quatre étapes:

  • Calcul des degrés d'appartenance
  • Inférence par les règles:
    • Union: Degré d'appartenance maximum pour toutes les conditions
    • Intersection: Degré d'appartenance minimum pour toutes les conditions
    • Couper la fonction d'appartenance à la hauteur spécifiée par la ondition de l'antécédent.
  • Composition des règles
  • Convertir l'ensemble flou en degrés de confiance
    • Prendre la valeur maximum des règles
    • Calculer le centre de gravité

Approche probabiliste

Théorème de Bayes:

P(H\mid E)={\frac {P(E\mid H)\,P(H)}{P(E\mid H)P(H)+P(E\mid \neg H)P(\neg H)}}\cdot
  • Utilisé en premier dans le système expert PROSPECTOR
  • Approche mathématiquement correcte
  • Combinaison possible de plusieurs évidences. On peut simplifier les calculs en supposant l'hypothèse que les évidences sont conditionnellement indépendantes

Ratios de vraisemblance

  • Vraisemblance de la suffisance (tend vers 1 signifie que E est suffisant pour affirmer H): LS=\frac{P(E \mid H)}{P(E\mid\neg N)}
  • Vraisemblance de la nécessité (tend vers 0 signifie que E est nécessaire pour affirmer H): LN=\frac{P(\neg E \mid H)}{P(\neg E\mid\neg N)}

On peut utiliser ces ratios et le théorème de Bayes pour exprimer les deux règles suivantes:

P(H\mid E) = \frac{LS \times O(H)}{1+LS \times O(H)}
P(H\mid\neg E) = \frac{LN \times O(H)}{1+LN \times O(H)}

O(H) = \frac{P(H)}{P(\neg H)}

Pour utiliser dans un système à base de règles, on doit fixer une valeur de LN et de LS pour chaque évidence.

Enjeux

Problème de MYCIN: les experts n'étaient pas capables de faire sommer P(H \mid E) + P(\neg H \mid E) = 1

Hypothèses: Probabilités à priori, indépendance conditionnelle (approche forte ou naïve).

Besoin de beaucoup de données pour avoir un bon estimé des probabilité conditionnelles. Était un enjeu à l'époque, probablement moins aujourd'hui ce qui ramène les bases probabilistes à l'avant-plan et le machine learning avec des approches bayesiennes (Naive Bayes).

Systèmes à base de schémas probabilistes

Source: Probabilistic frame-based systems

Systèmes à base d'estimation (valuation-based system)

Source: Prakash P. Shenoy - Valuation-Based Systems (Slides)

Bases

Système mathématique formel pour représenter et raisonner avec des connaissances. Deux parties:

  • Statique: Représentation des connaissances
    • Variables: ensemble fini \Phi = \lbrace X, Y, Z, \ldots \rbrace et sous-ensembles r,s,t,\ldots
    • Estimations: ensemble fini \Psi = \lbrace \rho, \sigma\, \tau \rbrace qui encodent les connaîssance s sur un sous-ensemble de variable.
  • Dynamique: Raisonnement avec les connaissances avec des opérateurs
    • Combinaison: \oplus: \Psi \times \Psi \rightarrow \Psi
    • Margiinalisation: -X: \Psi \rightarrow \Psi permet de sortir X du domaine d'une estimation

Représentation graphique: réseau d'estimations

Abstraction de plusieurs calculs d'incertitude:

  • Calcul propositionnel
  • Théorie des probabilités
  • Théorie des fonctions de croyances: application au problème du Capitaine dans les slides
  • Calcul de croyances épistémique de Spohn
  • Théorie des possiibilités

Problème du capitaine: Estimer le nombre de jours de retard de son bateau à destination. Plusieurs facteurs d'incertitude.

Combinaison: Règle de Dempster