fin chapitre 20 et début 21

This commit is contained in:
François Pelletier 2019-04-25 00:51:57 -04:00
parent 16260d41e5
commit d6b0cd7420
2 changed files with 73 additions and 0 deletions

View file

@ -103,4 +103,68 @@ On résous pour les paramètres $a$ et $b$:
\subsection{Apprentissage avec variables cachées (EM)}
\label{sec:ch20em}
Les variables cachées peuvent réduire énormément le nombre de paramètres pour spécifier un réseau bayesien. Ce qui réduit d'autant la quantité de données nécessaire pour l'apprentissage de ceux-ci.
\begin{mydef}
L'algorithme d'\textbf{espérance-maximisation} est une méthode itérative en deux étapes:
\begin{itemize}
\item Espérance: Calculer l'espérance des valeurs des variables cachées
\item Maximisation: Trouver de nouvelles valeurs des paramètres qui maximisent la valeur de log-vraisemblance des données, considérant les valeur espérées des valeurs cachées.
\end{itemize}
La forme générale s'écrit comme suit ($\mathbf{x}$:observé exemples, $Z$: variables cachées, $\theta$: paramètres du modèle):
\begin{align}
\theta^{(i+1)}=\argmax_{\theta}\sum_z P(Z=z|\mathbf{x},\theta^{(i)})L(\mathbf{x},Z=z|\theta)
\end{align}
\end{mydef}
\subsubsection{Clustering non-supervisé}
\label{sec:ch20emcluster}
\begin{itemize}
\item Objectif: identifier plusieurs catégories dans une collection d'objets.
\item On utilise un mélange de gaussiennes avec $k$ composantes.
\item On suppose que les données ont été générées depuis ce mélange $P$.
\item Soit une composante $C \in 1, \ldots, k$, alors le mélange est:
\begin{align}
P(\mathbf{x}) = \sum_{i=1}^kP(C=i)P(\mathbf{x}|C=i)
\end{align}
\item Les paramètres sont:
\begin{itemize}
\item $w_i=P(C=i)$, le poids de chaque composante
\item $\mu_i$, la moyenne de chaque composante
\item $\Sigma_i$, la matrice de covariance de chaque composante
\end{itemize}
\end{itemize}
Algorithme:
\begin{itemize}
\item Espérance:
\begin{align}
P_{ij} &= P(C=i|\mathbf{x}_j)\\
&= \alpha P(\mathbf{x}_j|C=i)P(C=i)
\end{align}
\item Maximisation:
\begin{align}
\mu_i &\leftarrow \sum_jp_{ij}\mathbf{x}_j/p_i\\
\Sigma_i &\leftarrow \sum_j p_{ij}\mathbf{x}_j\mathbf{x}_j^T/p_i\\
w_i &\leftarrow p_i
\end{align}
\end{itemize}
\subsubsection{Réseaux bayesiens}
\label{sec:ch20embayes}
On calcule les probabilités espérées depuis les données en utilisant le théorème de Bayes. Il n'y a pas d'apprentissage en tant que tel.
\begin{align}
\theta_{ijk} \leftarrow \hat{N}(X_i=x_{ij},U_i=u_{ik})/\hat{N}(U_i=u_{ik})
\end{align}
%%% Local Variables:
%%% mode: latex
%%% TeX-master: "notes_de_cours"
%%% End:

9
chapitre21.tex Normal file
View file

@ -0,0 +1,9 @@
\section{Chapitre 21: Apprentissage par renforcement}
\label{sec:ch21}
%%% Local Variables:
%%% mode: latex
%%% TeX-master: "notes_de_cours"
%%% End: