- Développer des tables de probabilités pour les assurances
- Subjectives
- Basées sur une opinion d'un expert
- Basées sur des heuristiques
- Approche préférée pour les systèmes à base de règles
- Nature inexacte des données
- Facteurs de certitudes: développés en premier pour MYCIN
- Logique floue: Zadeh (1965) - mots avec une signification ambigue
### Systèmes à base de règles floues
Une règle est formée de variables linguistiques et de valeurs linguistiques. Les valeurs linguistiques sont associées à un ensemble flou. Un ensemble flou est caractérisé par une fonction d'appartenance prenant une valeur entre 0 et 1 pour chacune des valeurs numériques de la variable. Un ensemble flou peut aussi être discret.
- Pour les nouvelles valeurs de la variable qui ne sont pas définies dans l'ensemble discret:
- Interpolation
- Réseaux de neurones
Inférence en quatre étapes:
- Calcul des degrés d'appartenance
- Inférence par les règles:
- Union: Degré d'appartenance maximum pour toutes les conditions
- Intersection: Degré d'appartenance minimum pour toutes les conditions
- Couper la fonction d'appartenance à la hauteur spécifiée par la ondition de l'antécédent.
- Composition des règles
- Convertir l'ensemble flou en degrés de confiance
- Utilisé en premier dans le système expert PROSPECTOR
- Approche mathématiquement correcte
- Combinaison possible de plusieurs évidences. On peut simplifier les calculs en supposant l'hypothèse que les évidences sont conditionnellement indépendantes
#### Ratios de vraisemblance
- Vraisemblance de la suffisance (tend vers 1 signifie que E est suffisant pour affirmer H): $LS=\frac{P(E \mid H)}{P(E\mid\neg N)}$
- Vraisemblance de la nécessité (tend vers 0 signifie que E est nécessaire pour affirmer H):
$LN=\frac{P(\neg E \mid H)}{P(\neg E\mid\neg N)}$
On peut utiliser ces ratios et le théorème de Bayes pour exprimer les deux règles suivantes:
Pour utiliser dans un système à base de règles, on doit fixer une valeur de LN et de LS pour chaque évidence.
#### Enjeux
Problème de MYCIN: les experts n'étaient pas capables de faire sommer $P(H \mid E) + P(\neg H \mid E) = 1$
Hypothèses: Probabilités à priori, indépendance conditionnelle (approche forte ou naïve).
Besoin de beaucoup de données pour avoir un bon estimé des probabilité conditionnelles. Était un enjeu à l'époque, probablement moins aujourd'hui ce qui ramène les bases probabilistes à l'avant-plan et le machine learning avec des approches bayesiennes (Naive Bayes).
- Intégration des réseaux bayesiens dans les systèmes de représentations par schémas.
- Annotation d'un schéma avec un modèle de probabilités. Réseau bayesien représentant la distribution des différents paramètres des terminaux du schéma.
- Utilisation du mécanisme d'héritage
- Incertitude structurelle
- Utilisation des facettes et des restrictions du domaine de valeurs. Peut être vu comme une généralisation des restrictions du domaine de valeurs en donnant la distribution de ce domaine de valeurs.