ajout chapitre 15

This commit is contained in:
Francois Pelletier 2019-03-17 20:22:48 -04:00
parent f13f7e96ef
commit 061bf5581c

110
chapitre15.tex Normal file
View file

@ -0,0 +1,110 @@
\section{Chapitre 15: Raisonnement probabiliste sur une période de temps}
\label{sec:ch15}
\subsection{Processus de Markov}
\label{sec:ch15markov}
Une situation dynamique est représentée par un ensemble de \textit{photos} décrivant l'état à un certain instant. Elle comprend:
\begin{itemize}
\item $X_t$, les variables non-observables à $t$
\item $E_t=e_t$, les variables d'évidence au temps $t$
\end{itemize}
On considère:
\begin{itemize}
\item Processus stationnaire: $\mathbf{P}(X_t|Parents(X_t))$ est constant $\forall t$
\item Modèle de transition: processus de Markov: seul un historique fini d'états influence l'état présent
\begin{itemize}
\item premier degré: $\mathbf{P}(X|X_{0:t-1})=\mathbf{P}(X|X_{t-1})$
\item second degré:$\mathbf{P}(X|X_{0:t-1})=\mathbf{P}(X|X_{t-x} \wedge X_{t-1})$
\end{itemize}
\item Modèle d'observation $\mathbf{P}(E_t|X_t)$: les variables d'évidence ne dépendent que de l'état présent
\end{itemize}
\begin{figure}[ht]
\centering
\includegraphics[height=100px]{umbrella.png}
\caption{Réseau bayesien: exemple du parapluie}
\end{figure}
\begin{mydef}
Distribution conjointe complète:
\begin{align}
\mathbf{P}(X_0,X_1,\ldots,X_t,E_1,E_2,\ldots,E_t)=\mathbf{P}(X_0) \prod_{i=1}^t\mathbf{P}(X_i|X_{i-1})\mathbf{P}(E_i|X_i))
\end{align}
\end{mydef}
\subsection{Tâches d'inférence}
\begin{itemize}
\item Filtrage: $\mathbf{P}(X_t|e_{1:t})$
\item Prédiction: $\mathbf{P}(X_{t+k}|e_{1:t})$
\item Lissage:$\mathbf{P}(X_{k}|e_{1:t}), 0 \leq l < t$
\item Explication la plus probable: $\argmax_{x_{1:t}}P(x_{1:t}|e_{1:t})$
\end{itemize}
\paragraph{Filtrage}
Probabilité sachant une nouvelle évidence
\begin{align}
P(X_{t+1}|e_{1:t+1})&=P(X_{t+1}|e_{1:t}e_{t+1})\\
&=\alpha P(e_{t+1}|X_{t+1},e_{1:t})P(X_{t+1}|e_{1:t})\\
&=\alpha P(e_{t+1}|X_{t+1})P(X_{t+1}|e_{1:t})\\
&=\alpha P(e_{t+1}|X_{t+1})\sum_{x_t}P(X_{t+1}|x_t,e_{1:t})P(x_t|e_{1:t})\\
&=\alpha P(e_{t+1}|X_{t+1})\sum_{x_t}P(X_{t+1}|x_t)P(x_t|e_{1:t})\\
&=\alpha \textsc{Forward}(f_{1:t},e_{t+1})\\
&=f_{1:t+1}
\end{align}
\paragraph{Prédiction}
Filtrage sans ajout de nouvelle information
\begin{align}
P(X_{t+k+1}|e_{1:t})&=\sum_{x_{t+k}}P(X_{t+k+1}|x_{t+k})P(x_{t+k}e_{1:t})
\end{align}
\paragraph{Lissage}
Probabilité d'un certain état dans le passé
\begin{align}
P(X_k|e_{1:t}) &= P(X_k|e_{1:k},e_{k+1:t})\\
&= \alpha P(X_k|e_{1:k})P(e_{k+1:t}|X_k,e_{1:k})\\
&= \alpha P(X_k|e_{1:k})P(e_{k+1:t}|X_k)\\
&= \alpha f_{1:k}b_{k+1:t}
\end{align}
La seconde probabilité est obtenue par un appel récursif
\begin{align}
P(e_{k+1:t}|X_k)&=\sum_{x_{k+1}}P(e_{k+1}|x_{k+1})P(e_{k+2:t}|X_{k+1})P(x_{k+1}|X_k)\\
&=\textsc{Backward}(b_{k+1:t},e_{k+1})
\end{align}
\paragraph{Explication la plus probable}
Trouver la suite d'évènements la plus probable selon les observations.
$m_{1:t}(i)$ est la probabilité du chemin le plus probable jusqu'à l'état $i$.
\begin{align}
m_{1:t}=\max_{x_1,\ldots,x_{t-1}}P(x_1,\ldots,x_{t-1},X_t|e_{1:t})\\
m_{1:t+1}=P(e_{t+1}|X_{t+1})\max_{x_t}(P(X_{t+1}|x_t)m_{1:t})
\end{align}
\subsection{Modèles de Markov cachés}
\label{sec:ch15hiddenmarkov}
Représentation des probabilités sous la forme de matrice de transition.
%%% Local Variables:
%%% mode: latex
%%% TeX-master: "notes_de_cours"
%%% End: