110 lines
3.4 KiB
TeX
110 lines
3.4 KiB
TeX
\section{Chapitre 15: Raisonnement probabiliste sur une période de temps}
|
|
\label{sec:ch15}
|
|
|
|
\subsection{Processus de Markov}
|
|
\label{sec:ch15markov}
|
|
|
|
Une situation dynamique est représentée par un ensemble de \textit{photos} décrivant l'état à un certain instant. Elle comprend:
|
|
\begin{itemize}
|
|
\item $X_t$, les variables non-observables à $t$
|
|
\item $E_t=e_t$, les variables d'évidence au temps $t$
|
|
\end{itemize}
|
|
|
|
On considère:
|
|
|
|
\begin{itemize}
|
|
\item Processus stationnaire: $\mathbf{P}(X_t|Parents(X_t))$ est constant $\forall t$
|
|
\item Modèle de transition: processus de Markov: seul un historique fini d'états influence l'état présent
|
|
\begin{itemize}
|
|
\item premier degré: $\mathbf{P}(X|X_{0:t-1})=\mathbf{P}(X|X_{t-1})$
|
|
\item second degré:$\mathbf{P}(X|X_{0:t-1})=\mathbf{P}(X|X_{t-x} \wedge X_{t-1})$
|
|
\end{itemize}
|
|
\item Modèle d'observation $\mathbf{P}(E_t|X_t)$: les variables d'évidence ne dépendent que de l'état présent
|
|
\end{itemize}
|
|
|
|
\begin{figure}[ht]
|
|
\centering
|
|
\includegraphics[height=100px]{umbrella.png}
|
|
\caption{Réseau bayesien: exemple du parapluie}
|
|
\end{figure}
|
|
|
|
\begin{mydef}
|
|
Distribution conjointe complète:
|
|
\begin{align}
|
|
\mathbf{P}(X_0,X_1,\ldots,X_t,E_1,E_2,\ldots,E_t)=\mathbf{P}(X_0) \prod_{i=1}^t\mathbf{P}(X_i|X_{i-1})\mathbf{P}(E_i|X_i))
|
|
\end{align}
|
|
\end{mydef}
|
|
|
|
\subsection{Tâches d'inférence}
|
|
|
|
\begin{itemize}
|
|
\item Filtrage: $\mathbf{P}(X_t|e_{1:t})$
|
|
\item Prédiction: $\mathbf{P}(X_{t+k}|e_{1:t})$
|
|
\item Lissage:$\mathbf{P}(X_{k}|e_{1:t}), 0 \leq l < t$
|
|
\item Explication la plus probable: $\argmax_{x_{1:t}}P(x_{1:t}|e_{1:t})$
|
|
\end{itemize}
|
|
|
|
\paragraph{Filtrage}
|
|
|
|
Probabilité sachant une nouvelle évidence
|
|
|
|
\begin{align}
|
|
P(X_{t+1}|e_{1:t+1})&=P(X_{t+1}|e_{1:t}e_{t+1})\\
|
|
&=\alpha P(e_{t+1}|X_{t+1},e_{1:t})P(X_{t+1}|e_{1:t})\\
|
|
&=\alpha P(e_{t+1}|X_{t+1})P(X_{t+1}|e_{1:t})\\
|
|
&=\alpha P(e_{t+1}|X_{t+1})\sum_{x_t}P(X_{t+1}|x_t,e_{1:t})P(x_t|e_{1:t})\\
|
|
&=\alpha P(e_{t+1}|X_{t+1})\sum_{x_t}P(X_{t+1}|x_t)P(x_t|e_{1:t})\\
|
|
&=\alpha \textsc{Forward}(f_{1:t},e_{t+1})\\
|
|
&=f_{1:t+1}
|
|
\end{align}
|
|
|
|
\paragraph{Prédiction}
|
|
|
|
Filtrage sans ajout de nouvelle information
|
|
|
|
\begin{align}
|
|
P(X_{t+k+1}|e_{1:t})&=\sum_{x_{t+k}}P(X_{t+k+1}|x_{t+k})P(x_{t+k}e_{1:t})
|
|
\end{align}
|
|
|
|
\paragraph{Lissage}
|
|
|
|
Probabilité d'un certain état dans le passé
|
|
|
|
\begin{align}
|
|
P(X_k|e_{1:t}) &= P(X_k|e_{1:k},e_{k+1:t})\\
|
|
&= \alpha P(X_k|e_{1:k})P(e_{k+1:t}|X_k,e_{1:k})\\
|
|
&= \alpha P(X_k|e_{1:k})P(e_{k+1:t}|X_k)\\
|
|
&= \alpha f_{1:k}b_{k+1:t}
|
|
\end{align}
|
|
|
|
La seconde probabilité est obtenue par un appel récursif
|
|
|
|
\begin{align}
|
|
P(e_{k+1:t}|X_k)&=\sum_{x_{k+1}}P(e_{k+1}|x_{k+1})P(e_{k+2:t}|X_{k+1})P(x_{k+1}|X_k)\\
|
|
&=\textsc{Backward}(b_{k+1:t},e_{k+1})
|
|
\end{align}
|
|
|
|
\paragraph{Explication la plus probable}
|
|
|
|
Trouver la suite d'évènements la plus probable selon les observations.
|
|
|
|
$m_{1:t}(i)$ est la probabilité du chemin le plus probable jusqu'à l'état $i$.
|
|
\begin{align}
|
|
m_{1:t}=\max_{x_1,\ldots,x_{t-1}}P(x_1,\ldots,x_{t-1},X_t|e_{1:t})\\
|
|
m_{1:t+1}=P(e_{t+1}|X_{t+1})\max_{x_t}(P(X_{t+1}|x_t)m_{1:t})
|
|
\end{align}
|
|
|
|
|
|
\subsection{Modèles de Markov cachés}
|
|
\label{sec:ch15hiddenmarkov}
|
|
|
|
Représentation des probabilités sous la forme de matrice de transition.
|
|
|
|
|
|
|
|
|
|
|
|
%%% Local Variables:
|
|
%%% mode: latex
|
|
%%% TeX-master: "notes_de_cours"
|
|
%%% End:
|