fin chapitre 20 et début 21
This commit is contained in:
parent
16260d41e5
commit
d6b0cd7420
2 changed files with 73 additions and 0 deletions
|
@ -103,4 +103,68 @@ On résous pour les paramètres $a$ et $b$:
|
|||
\subsection{Apprentissage avec variables cachées (EM)}
|
||||
\label{sec:ch20em}
|
||||
|
||||
Les variables cachées peuvent réduire énormément le nombre de paramètres pour spécifier un réseau bayesien. Ce qui réduit d'autant la quantité de données nécessaire pour l'apprentissage de ceux-ci.
|
||||
|
||||
\begin{mydef}
|
||||
L'algorithme d'\textbf{espérance-maximisation} est une méthode itérative en deux étapes:
|
||||
|
||||
\begin{itemize}
|
||||
\item Espérance: Calculer l'espérance des valeurs des variables cachées
|
||||
\item Maximisation: Trouver de nouvelles valeurs des paramètres qui maximisent la valeur de log-vraisemblance des données, considérant les valeur espérées des valeurs cachées.
|
||||
\end{itemize}
|
||||
|
||||
La forme générale s'écrit comme suit ($\mathbf{x}$:observé exemples, $Z$: variables cachées, $\theta$: paramètres du modèle):
|
||||
|
||||
\begin{align}
|
||||
\theta^{(i+1)}=\argmax_{\theta}\sum_z P(Z=z|\mathbf{x},\theta^{(i)})L(\mathbf{x},Z=z|\theta)
|
||||
\end{align}
|
||||
\end{mydef}
|
||||
|
||||
\subsubsection{Clustering non-supervisé}
|
||||
\label{sec:ch20emcluster}
|
||||
|
||||
\begin{itemize}
|
||||
\item Objectif: identifier plusieurs catégories dans une collection d'objets.
|
||||
\item On utilise un mélange de gaussiennes avec $k$ composantes.
|
||||
\item On suppose que les données ont été générées depuis ce mélange $P$.
|
||||
\item Soit une composante $C \in 1, \ldots, k$, alors le mélange est:
|
||||
\begin{align}
|
||||
P(\mathbf{x}) = \sum_{i=1}^kP(C=i)P(\mathbf{x}|C=i)
|
||||
\end{align}
|
||||
\item Les paramètres sont:
|
||||
\begin{itemize}
|
||||
\item $w_i=P(C=i)$, le poids de chaque composante
|
||||
\item $\mu_i$, la moyenne de chaque composante
|
||||
\item $\Sigma_i$, la matrice de covariance de chaque composante
|
||||
\end{itemize}
|
||||
\end{itemize}
|
||||
|
||||
Algorithme:
|
||||
|
||||
\begin{itemize}
|
||||
\item Espérance:
|
||||
\begin{align}
|
||||
P_{ij} &= P(C=i|\mathbf{x}_j)\\
|
||||
&= \alpha P(\mathbf{x}_j|C=i)P(C=i)
|
||||
\end{align}
|
||||
\item Maximisation:
|
||||
\begin{align}
|
||||
\mu_i &\leftarrow \sum_jp_{ij}\mathbf{x}_j/p_i\\
|
||||
\Sigma_i &\leftarrow \sum_j p_{ij}\mathbf{x}_j\mathbf{x}_j^T/p_i\\
|
||||
w_i &\leftarrow p_i
|
||||
\end{align}
|
||||
\end{itemize}
|
||||
|
||||
\subsubsection{Réseaux bayesiens}
|
||||
\label{sec:ch20embayes}
|
||||
|
||||
On calcule les probabilités espérées depuis les données en utilisant le théorème de Bayes. Il n'y a pas d'apprentissage en tant que tel.
|
||||
|
||||
\begin{align}
|
||||
\theta_{ijk} \leftarrow \hat{N}(X_i=x_{ij},U_i=u_{ik})/\hat{N}(U_i=u_{ik})
|
||||
\end{align}
|
||||
|
||||
%%% Local Variables:
|
||||
%%% mode: latex
|
||||
%%% TeX-master: "notes_de_cours"
|
||||
%%% End:
|
||||
|
|
9
chapitre21.tex
Normal file
9
chapitre21.tex
Normal file
|
@ -0,0 +1,9 @@
|
|||
\section{Chapitre 21: Apprentissage par renforcement}
|
||||
\label{sec:ch21}
|
||||
|
||||
|
||||
|
||||
%%% Local Variables:
|
||||
%%% mode: latex
|
||||
%%% TeX-master: "notes_de_cours"
|
||||
%%% End:
|
Loading…
Reference in a new issue