2019-03-18 00:22:48 +00:00
\section { Chapitre 15: Raisonnement probabiliste sur une période de temps}
\label { sec:ch15}
\subsection { Processus de Markov}
\label { sec:ch15markov}
Une situation dynamique est représentée par un ensemble de \textit { photos} décrivant l'état à un certain instant. Elle comprend:
\begin { itemize}
\item $ X _ t $ , les variables non-observables à $ t $
\item $ E _ t = e _ t $ , les variables d'évidence au temps $ t $
\end { itemize}
On considère:
\begin { itemize}
\item Processus stationnaire: $ \mathbf { P } ( X _ t|Parents ( X _ t ) ) $ est constant $ \forall t $
\item Modèle de transition: processus de Markov: seul un historique fini d'états influence l'état présent
\begin { itemize}
\item premier degré: $ \mathbf { P } ( X|X _ { 0 :t - 1 } ) = \mathbf { P } ( X|X _ { t - 1 } ) $
\item second degré:$ \mathbf { P } ( X|X _ { 0 :t - 1 } ) = \mathbf { P } ( X|X _ { t - x } \wedge X _ { t - 1 } ) $
\end { itemize}
\item Modèle d'observation $ \mathbf { P } ( E _ t|X _ t ) $ : les variables d'évidence ne dépendent que de l'état présent
\end { itemize}
\begin { figure} [ht]
\centering
\includegraphics [height=100px] { umbrella.png}
\caption { Réseau bayesien: exemple du parapluie}
\end { figure}
\begin { mydef}
Distribution conjointe complète:
\begin { align}
\mathbf { P} (X_ 0,X_ 1,\ldots ,X_ t,E_ 1,E_ 2,\ldots ,E_ t)=\mathbf { P} (X_ 0) \prod _ { i=1} ^ t\mathbf { P} (X_ i|X_ { i-1} )\mathbf { P} (E_ i|X_ i))
\end { align}
\end { mydef}
\subsection { Tâches d'inférence}
\begin { itemize}
\item Filtrage: $ \mathbf { P } ( X _ t|e _ { 1 :t } ) $
\item Prédiction: $ \mathbf { P } ( X _ { t + k } |e _ { 1 :t } ) $
\item Lissage:$ \mathbf { P } ( X _ { k } |e _ { 1 :t } ) , 0 \leq l < t $
\item Explication la plus probable: $ \argmax _ { x _ { 1 :t } } P ( x _ { 1 :t } |e _ { 1 :t } ) $
\end { itemize}
\paragraph { Filtrage}
Probabilité sachant une nouvelle évidence
\begin { align}
P(X_ { t+1} |e_ { 1:t+1} )& =P(X_ { t+1} |e_ { 1:t} e_ { t+1} )\\
& =\alpha P(e_ { t+1} |X_ { t+1} ,e_ { 1:t} )P(X_ { t+1} |e_ { 1:t} )\\
& =\alpha P(e_ { t+1} |X_ { t+1} )P(X_ { t+1} |e_ { 1:t} )\\
& =\alpha P(e_ { t+1} |X_ { t+1} )\sum _ { x_ t} P(X_ { t+1} |x_ t,e_ { 1:t} )P(x_ t|e_ { 1:t} )\\
& =\alpha P(e_ { t+1} |X_ { t+1} )\sum _ { x_ t} P(X_ { t+1} |x_ t)P(x_ t|e_ { 1:t} )\\
& =\alpha \textsc { Forward} (f_ { 1:t} ,e_ { t+1} )\\
& =f_ { 1:t+1}
\end { align}
\paragraph { Prédiction}
Filtrage sans ajout de nouvelle information
\begin { align}
P(X_ { t+k+1} |e_ { 1:t} )& =\sum _ { x_ { t+k} } P(X_ { t+k+1} |x_ { t+k} )P(x_ { t+k} e_ { 1:t} )
\end { align}
\paragraph { Lissage}
Probabilité d'un certain état dans le passé
\begin { align}
P(X_ k|e_ { 1:t} ) & = P(X_ k|e_ { 1:k} ,e_ { k+1:t} )\\
& = \alpha P(X_ k|e_ { 1:k} )P(e_ { k+1:t} |X_ k,e_ { 1:k} )\\
& = \alpha P(X_ k|e_ { 1:k} )P(e_ { k+1:t} |X_ k)\\
& = \alpha f_ { 1:k} b_ { k+1:t}
\end { align}
La seconde probabilité est obtenue par un appel récursif
\begin { align}
P(e_ { k+1:t} |X_ k)& =\sum _ { x_ { k+1} } P(e_ { k+1} |x_ { k+1} )P(e_ { k+2:t} |X_ { k+1} )P(x_ { k+1} |X_ k)\\
& =\textsc { Backward} (b_ { k+1:t} ,e_ { k+1} )
\end { align}
\paragraph { Explication la plus probable}
Trouver la suite d'évènements la plus probable selon les observations.
$ m _ { 1 :t } ( i ) $ est la probabilité du chemin le plus probable jusqu'à l'état $ i $ .
\begin { align}
m_ { 1:t} =\max _ { x_ 1,\ldots ,x_ { t-1} } P(x_ 1,\ldots ,x_ { t-1} ,X_ t|e_ { 1:t} )\\
m_ { 1:t+1} =P(e_ { t+1} |X_ { t+1} )\max _ { x_ t} (P(X_ { t+1} |x_ t)m_ { 1:t} )
\end { align}
\subsection { Modèles de Markov cachés}
\label { sec:ch15hiddenmarkov}
2019-04-17 13:13:14 +00:00
Représentation des probabilités du modèle d'observation sous la forme de matrice de transition. On ne considère que le cas observé, donc la matrice est diagonale et les valeurs prennent $ P ( e _ t|X _ t = i ) $ ou $ 0 $ . LLes calculs de filtrage et d'information a posteriori deviennent de simples opérations de base sur des matrices et des vecteurs.
\begin { itemize}
\item Forward: $ f _ { 1 :t + 1 } = \alpha O _ { t + 1 } T ^ Tf _ { 1 :t } $
\item Backward: $ b _ { k + 1 : 1 } = T O _ { k + 1 } b _ { k + 2 :t } $
\end { itemize}
2019-03-18 00:22:48 +00:00
%%% Local Variables:
%%% mode: latex
%%% TeX-master: "notes_de_cours"
%%% End: