From 061bf5581cdc2022f0ba3eedd105221e62f06573 Mon Sep 17 00:00:00 2001 From: Francois Pelletier Date: Sun, 17 Mar 2019 20:22:48 -0400 Subject: [PATCH] ajout chapitre 15 --- chapitre15.tex | 110 +++++++++++++++++++++++++++++++++++++++++++++++++ 1 file changed, 110 insertions(+) create mode 100644 chapitre15.tex diff --git a/chapitre15.tex b/chapitre15.tex new file mode 100644 index 0000000..a2e8eb6 --- /dev/null +++ b/chapitre15.tex @@ -0,0 +1,110 @@ +\section{Chapitre 15: Raisonnement probabiliste sur une période de temps} +\label{sec:ch15} + +\subsection{Processus de Markov} +\label{sec:ch15markov} + +Une situation dynamique est représentée par un ensemble de \textit{photos} décrivant l'état à un certain instant. Elle comprend: +\begin{itemize} +\item $X_t$, les variables non-observables à $t$ +\item $E_t=e_t$, les variables d'évidence au temps $t$ +\end{itemize} + +On considère: + +\begin{itemize} +\item Processus stationnaire: $\mathbf{P}(X_t|Parents(X_t))$ est constant $\forall t$ +\item Modèle de transition: processus de Markov: seul un historique fini d'états influence l'état présent + \begin{itemize} + \item premier degré: $\mathbf{P}(X|X_{0:t-1})=\mathbf{P}(X|X_{t-1})$ + \item second degré:$\mathbf{P}(X|X_{0:t-1})=\mathbf{P}(X|X_{t-x} \wedge X_{t-1})$ + \end{itemize} +\item Modèle d'observation $\mathbf{P}(E_t|X_t)$: les variables d'évidence ne dépendent que de l'état présent +\end{itemize} + +\begin{figure}[ht] + \centering + \includegraphics[height=100px]{umbrella.png} + \caption{Réseau bayesien: exemple du parapluie} +\end{figure} + +\begin{mydef} + Distribution conjointe complète: + \begin{align} + \mathbf{P}(X_0,X_1,\ldots,X_t,E_1,E_2,\ldots,E_t)=\mathbf{P}(X_0) \prod_{i=1}^t\mathbf{P}(X_i|X_{i-1})\mathbf{P}(E_i|X_i)) + \end{align} +\end{mydef} + +\subsection{Tâches d'inférence} + +\begin{itemize} +\item Filtrage: $\mathbf{P}(X_t|e_{1:t})$ +\item Prédiction: $\mathbf{P}(X_{t+k}|e_{1:t})$ +\item Lissage:$\mathbf{P}(X_{k}|e_{1:t}), 0 \leq l < t$ +\item Explication la plus probable: $\argmax_{x_{1:t}}P(x_{1:t}|e_{1:t})$ +\end{itemize} + +\paragraph{Filtrage} + +Probabilité sachant une nouvelle évidence + +\begin{align} + P(X_{t+1}|e_{1:t+1})&=P(X_{t+1}|e_{1:t}e_{t+1})\\ + &=\alpha P(e_{t+1}|X_{t+1},e_{1:t})P(X_{t+1}|e_{1:t})\\ + &=\alpha P(e_{t+1}|X_{t+1})P(X_{t+1}|e_{1:t})\\ + &=\alpha P(e_{t+1}|X_{t+1})\sum_{x_t}P(X_{t+1}|x_t,e_{1:t})P(x_t|e_{1:t})\\ + &=\alpha P(e_{t+1}|X_{t+1})\sum_{x_t}P(X_{t+1}|x_t)P(x_t|e_{1:t})\\ + &=\alpha \textsc{Forward}(f_{1:t},e_{t+1})\\ + &=f_{1:t+1} +\end{align} + +\paragraph{Prédiction} + +Filtrage sans ajout de nouvelle information + +\begin{align} + P(X_{t+k+1}|e_{1:t})&=\sum_{x_{t+k}}P(X_{t+k+1}|x_{t+k})P(x_{t+k}e_{1:t}) +\end{align} + +\paragraph{Lissage} + +Probabilité d'un certain état dans le passé + +\begin{align} + P(X_k|e_{1:t}) &= P(X_k|e_{1:k},e_{k+1:t})\\ + &= \alpha P(X_k|e_{1:k})P(e_{k+1:t}|X_k,e_{1:k})\\ + &= \alpha P(X_k|e_{1:k})P(e_{k+1:t}|X_k)\\ + &= \alpha f_{1:k}b_{k+1:t} +\end{align} + +La seconde probabilité est obtenue par un appel récursif + +\begin{align} + P(e_{k+1:t}|X_k)&=\sum_{x_{k+1}}P(e_{k+1}|x_{k+1})P(e_{k+2:t}|X_{k+1})P(x_{k+1}|X_k)\\ + &=\textsc{Backward}(b_{k+1:t},e_{k+1}) +\end{align} + +\paragraph{Explication la plus probable} + +Trouver la suite d'évènements la plus probable selon les observations. + +$m_{1:t}(i)$ est la probabilité du chemin le plus probable jusqu'à l'état $i$. +\begin{align} + m_{1:t}=\max_{x_1,\ldots,x_{t-1}}P(x_1,\ldots,x_{t-1},X_t|e_{1:t})\\ + m_{1:t+1}=P(e_{t+1}|X_{t+1})\max_{x_t}(P(X_{t+1}|x_t)m_{1:t}) +\end{align} + + +\subsection{Modèles de Markov cachés} +\label{sec:ch15hiddenmarkov} + +Représentation des probabilités sous la forme de matrice de transition. + + + + + +%%% Local Variables: +%%% mode: latex +%%% TeX-master: "notes_de_cours" +%%% End: