2013-12-03 02:30:57 +00:00
|
|
|
|
\chapter{Estimation des paramètres de la distribution de Laplace
|
|
|
|
|
asymétrique généralisée}
|
|
|
|
|
|
|
|
|
|
Ce chapitre présente les différents éléments qui permettent d'obtenir
|
|
|
|
|
des estimateurs convergents à l'aide de la méthode des moments
|
|
|
|
|
généralisée et de l'équation d'estimation optimale. Premièrement, une
|
|
|
|
|
méthode pour obtenir un point de départ efficace pour l'algorithme
|
|
|
|
|
d'optimisation sera détaillée. Enfin, les résultats découlant des deux
|
|
|
|
|
chapitres précédents seront présentés.
|
|
|
|
|
|
|
|
|
|
\section{Vecteur de paramètres initiaux}
|
|
|
|
|
\label{sec:condinitGAL}
|
|
|
|
|
|
|
|
|
|
Comme chacune des deux méthodes d'estimation étudiées requiert
|
|
|
|
|
l'utilisation d'un algorithme d'optimisation numérique, on doit être
|
|
|
|
|
en mesure de fournir un vecteur de paramètres initiaux qui favorisera
|
|
|
|
|
la convergence de celui-ci. Ce vecteur doit faire partie de l'espace
|
|
|
|
|
des paramètres $\Omega$, tel que défini à la table
|
|
|
|
|
\ref{tab:roleparamGAL}. Ce vecteur est plus facile à obtenir de
|
|
|
|
|
manière empirique, par exemple, avec la méthode des moments, lorsque
|
|
|
|
|
c'est possible. Cependant, pour la distribution de Laplace asymétrique
|
|
|
|
|
généralisée, le système d'équations formé à partir des quatre premiers
|
|
|
|
|
moments centraux empiriques et théoriques \eqref{eq:momentsGAL} n'a
|
|
|
|
|
pas de solution analytique.
|
|
|
|
|
|
|
|
|
|
\cite{seneta2004fitting} propose une technique pour obtenir un vecteur
|
|
|
|
|
de paramètres initiaux basé sur la méthode des moments. En utilisant
|
|
|
|
|
la même démarche que ce dernier, on peut obtenir un vecteur pour la
|
|
|
|
|
forme en $\mu$ de la fonction caractéristique
|
|
|
|
|
\eqref{eq:fncaractGALmu}. On pose comme hypothèse dans les équations
|
|
|
|
|
des quatre premiers moments \eqref{eq:moments1GAL},
|
|
|
|
|
\eqref{eq:moments2GAL}, \eqref{eq:moments5GAL} et
|
|
|
|
|
\eqref{eq:moments6GAL}, que le paramètre $\mu$ est significativement
|
|
|
|
|
nul, donc que la distribution est presque symétrique. On impose donc
|
|
|
|
|
que les puissances de ce paramètre plus grandes ou égales à deux
|
|
|
|
|
soient nulles:
|
|
|
|
|
\begin{align}
|
|
|
|
|
\label{eq:hypotheseMoM}
|
|
|
|
|
\mu^k=0, \quad k\in\{2,3,4\}.
|
|
|
|
|
\end{align}
|
|
|
|
|
|
|
|
|
|
En posant l'égalité entre les moments théoriques et leur estimateur
|
|
|
|
|
correspondant, on obtient le système d'équations suivant:
|
|
|
|
|
\begin{align*}
|
|
|
|
|
\hat{m_1} &= \theta+\tau\,\mu \\
|
|
|
|
|
\hat{m_2} &= {\sigma}^{2}\,\tau \\
|
|
|
|
|
\hat{\gamma_1} &= \frac{3\,\mu}{\left| \sigma\right| \,\sqrt{\tau}} \\
|
|
|
|
|
\hat{\gamma_2} &= \frac{3}{\tau}.
|
|
|
|
|
\end{align*}
|
|
|
|
|
|
|
|
|
|
Ce système possède deux solutions analytiques, dont une respecte la
|
|
|
|
|
condition selon laquelle le paramètre $\sigma$ doit être positif. On
|
|
|
|
|
note que ce résultat ne constitue qu'un point de départ pour
|
|
|
|
|
l'algorithme d'optimisation numérique et qu'on ne peut, en aucun cas,
|
|
|
|
|
utiliser celui-ci à des fins statistiques. C'est un estimateur biaisé
|
|
|
|
|
et non convergent étant donné la condition \eqref{eq:hypotheseMoM}:
|
|
|
|
|
\begin{subequations}\label{eq:ptdepartGAL}
|
|
|
|
|
\begin{align}
|
|
|
|
|
\hat\theta &=-\frac{\hat{\gamma_1}\,\sqrt{\hat{m_2}}-\hat{\gamma_2}\,\hat{m_1}}{\hat{\gamma_2}} \label{eq:ptdepartGAL1}\\
|
|
|
|
|
\hat\sigma &= \frac{\sqrt{\hat{\gamma_2}\,\hat{m_2}}}{\sqrt{3}} > 0 \label{eq:ptdepartGAL2}\\
|
|
|
|
|
\hat\mu &= \frac{\hat{\gamma_1}\,\sqrt{\hat{m_2}}}{3} \label{eq:ptdepartGAL3}\\
|
|
|
|
|
\hat\tau &= \frac{3}{\hat{\gamma_2}}. \label{eq:ptdepartGAL4}
|
|
|
|
|
\end{align}
|
|
|
|
|
\end{subequations}
|
|
|
|
|
|
|
|
|
|
\section{Méthode des moments généralisée}
|
|
|
|
|
|
|
|
|
|
En premier lieu, on utilise la méthode des moments généralisée afin
|
|
|
|
|
d'estimer les paramètres de la distribution de Laplace asymétrique
|
|
|
|
|
généralisée. Aux fins d'illustration, seulement deux conditions de
|
|
|
|
|
moments seront utilisées. Cependant, pour obtenir des résultats
|
|
|
|
|
optimaux en termes de convergence asymptotique, on doit utiliser au
|
|
|
|
|
moins autant de conditions de moment que de paramètres. Ainsi, en
|
|
|
|
|
considérant la différence entre les moyennes et variances empirique et
|
|
|
|
|
théorique, on obtient les conditions de moment suivantes, qui ont une
|
|
|
|
|
espérance nulle sous les vrais paramètres $\theta_0$:
|
|
|
|
|
\begin{align}
|
|
|
|
|
h(\theta;Y) &= \left[\begin{array}[]{c}
|
|
|
|
|
Y - m_1 \\
|
|
|
|
|
\left(Y - m_1 \right)^2 - m_2
|
|
|
|
|
\end{array}\right] \label{eq:condmom}\\
|
|
|
|
|
&= \left[\begin{array}[]{c}
|
|
|
|
|
Y - \left(\theta+\mu\tau\right) \\
|
|
|
|
|
\left(Y - \left(\theta+\mu\tau\right) \right)^2 -
|
|
|
|
|
\tau\left(\sigma^2+\mu^2\right)
|
|
|
|
|
\end{array}\right]. \label{eq:condmomGAL}
|
|
|
|
|
\end{align}
|
|
|
|
|
|
|
|
|
|
On définit la contrepartie empirique de ces conditions de moment
|
|
|
|
|
comme suit:
|
|
|
|
|
\begin{align}
|
|
|
|
|
g(\theta;\mathbf{y}_T) &= \frac{1}{T} \left[\begin{array}[]{c}
|
|
|
|
|
g_1(\theta;\mathbf{y}_T)\\
|
|
|
|
|
g_2(\theta;\mathbf{y}_T)
|
|
|
|
|
\end{array}\right] \nonumber\\
|
|
|
|
|
&= \frac{1}{T} \left[\begin{array}[]{c}
|
|
|
|
|
\sum_{t=1}^T y_t - m_1 \\
|
|
|
|
|
\sum_{t=1}^T \left(y_t - m_1 \right)^2 - m_2
|
|
|
|
|
\end{array}\right] \label{eq:condmomEMP}\\
|
|
|
|
|
&= \frac{1}{T} \left[\begin{array}[]{c}
|
|
|
|
|
\sum_{t=1}^Ty_t - \left(\theta+\mu\tau\right) \\
|
|
|
|
|
\sum_{t=1}^T\left(y_t - \left(\theta+\mu\tau\right) \right)^2 -
|
|
|
|
|
\tau\left(\sigma^2+\mu^2\right)
|
|
|
|
|
\end{array}\right]. \label{eq:condmomEMPGAL}
|
|
|
|
|
\end{align}
|
|
|
|
|
|
|
|
|
|
On doit définir la matrice de pondération optimale.
|
|
|
|
|
|
|
|
|
|
\subsection{Matrice de pondération optimale}
|
|
|
|
|
|
|
|
|
|
On s'intéresse à la forme analytique de la matrice de pondération
|
|
|
|
|
optimale \eqref{eq:matricevcov1}. Celle-ci est obtenue en prenant
|
|
|
|
|
l'espérance du produit extérieur du vecteur des conditions de moment
|
|
|
|
|
théoriques sur elles-mêmes. Pour des fins de simplification, on
|
|
|
|
|
définit le produit des conditions $i$ et $j$ par la notation
|
|
|
|
|
$H_{i,j}(\theta;Y) = h_i(\theta;Y)h_j(\theta;Y)$.
|
|
|
|
|
\begin{align}
|
|
|
|
|
S(\theta;Y) &= E \left[\begin{array}{cc}
|
|
|
|
|
H_{(1,1)}(\theta;Y) & H_{(1,2)}(\theta;Y) \\
|
|
|
|
|
H_{(2,1)}(\theta;Y) & H_{(2,2)}(\theta;Y)
|
|
|
|
|
\end{array} \right] \nonumber\\
|
|
|
|
|
&= \left[\begin{array}{cc}
|
|
|
|
|
E \left[H_{(1,1)}(\theta;Y)\right] & E \left[H_{(1,2)}(\theta;Y)\right] \\
|
|
|
|
|
E \left[H_{(2,1)}(\theta;Y)\right] & E \left[H_{(2,2)}(\theta;Y)\right]
|
|
|
|
|
\end{array} \right]
|
|
|
|
|
\end{align}
|
|
|
|
|
où
|
|
|
|
|
\begin{align*}
|
|
|
|
|
H_{(1,1)}(\theta;Y) &=\left( Y-\theta-\mu\,\tau\right)^{2} \\
|
|
|
|
|
H_{(1,2)}(\theta;Y) &=\left( {Y}^{2}-2\,\theta\,Y-2\,\mu\,\tau\,Y+{\theta}^{2}+2\,\mu\,\tau\,\theta+{\mu}^{2}\,{\tau}^{2}-{\sigma}^{2}\,\tau-{\mu}^{2}\,\tau\right)^{2} \\
|
|
|
|
|
H_{(2,2)}(\theta;Y) &=\left( Y-\theta-\mu\,\tau\right) \,\left(
|
|
|
|
|
{Y}^{2}-2\,\theta\,Y-2\,\mu\,\tau\,Y+{\theta}^{2}+2\,\mu\,\tau\,\theta+{\mu}^{2}\,{\tau}^{2}-{\sigma}^{2}\,\tau-{\mu}^{2}\,\tau\right).
|
|
|
|
|
\end{align*}
|
|
|
|
|
|
|
|
|
|
On évalue ensuite l'espérance de chacun des éléments de la matrice, où
|
|
|
|
|
l'on définit de manière analogue celle du produit des conditions de
|
|
|
|
|
moments, $W_{(i,j)}(\theta;Y) = E[H_{(i,j)}(\theta;Y)]$.
|
|
|
|
|
\begin{align}
|
|
|
|
|
W(\theta;Y) &= \left[\begin{array}{cc}
|
|
|
|
|
W_{(1,1)}(\theta;Y) & W_{(1,2)}(\theta;Y) \\
|
|
|
|
|
W_{(2,1)}(\theta;Y) & W_{(2,2)}(\theta;Y)
|
|
|
|
|
\end{array} \right]
|
|
|
|
|
\end{align}
|
|
|
|
|
où
|
|
|
|
|
\begin{align*}
|
|
|
|
|
W_{(1,1)} &= {\mu}^{2}\,{\tau}^{2}-2\,{\mu}^{2}\,\nu\,\tau+\nu\,{\sigma}^{2}+{\mu}^{2}\,{\nu}^{2}+{\mu}^{2}\,\nu \\
|
|
|
|
|
W_{(2,2)} &= {\mu}^{4}\,{\tau}^{4}+\left( -2\,{\mu}^{2}\,{\sigma}^{2}-4\,{\mu}^{4}\,\nu-2\,{\mu}^{4}\right) \,{\tau}^{3}+\left( {\sigma}^{4}+\left( 10\,{\mu}^{2}\,\nu+2\,{\mu}^{2}\right) \,{\sigma}^{2}+6\,{\mu}^{4}\,{\nu}^{2}+10\,{\mu}^{4}\,\nu+{\mu}^{4}\right) \,{\tau}^{2}\\
|
|
|
|
|
&+\left( -2\,\nu\,{\sigma}^{4}+ \left( -14\,{\mu}^{2}\,{\nu}^{2}-16\,{\mu}^{2}\,\nu\right) \,{\sigma}^{2}-4\,{\mu}^{4}\,{\nu}^{3}-14\,{\mu}^{4}\,{\nu}^{2}-10\,{\mu}^{4}\,\nu\right) \,\tau+\left( 3\,{\nu}^{2}+3\,\nu\right) \,{\sigma}^{4}\\
|
|
|
|
|
&+\left( 6\,{\mu}^{2}\,{\nu}^{3}+18\,{\mu}^{2}\,{\nu}^{2}+12\,{\mu}^{2}\,\nu\right) \,{\sigma}^{2}+{\mu}^{4}\,{\nu}^{4}+6\,{\mu}^{4}\,{\nu}^{3}+11\,{\mu}^{4}\,{\nu}^{2}+6\,{\mu}^{4}\,\nu \\
|
|
|
|
|
W_{(1,2)} &= W_{(2,1)} = 3\,{\theta}^{4}+\left( 6\,\mu\,\nu-3\right) \,{\theta}^{3}+\left( 3\,\nu\,{\sigma}^{2}+3\,{\mu}^{2}\,{\nu}^{2}+\left( 3\,{\mu}^{2}-3\,\mu\right) \,\nu\right) \,{\theta}^{2}-{\mu}^{3}\,{\tau}^{3} \\
|
|
|
|
|
&+\left( \mu\,{\sigma}^{2}+3\,{\mu}^{3}\,\nu+{\mu}^{3}\right) \,{\tau}^{2}+\left( -4\,\mu\,\nu\,{\sigma}^{2}-3\,{\mu}^{3}\,{\nu}^{2}-4\,{\mu}^{3}\,\nu\right) \,\tau+\left( 3\,\mu\,{\nu}^{2}+3\,\mu\,\nu\right) \,{\sigma}^{2}\\
|
|
|
|
|
&+{\mu}^{3}\,{\nu}^{3}+3\,{\mu}^{3}\,{\nu}^{2}+2\,{\mu}^{3}\,\nu.
|
|
|
|
|
\end{align*}
|
|
|
|
|
|
|
|
|
|
On évalue quelle serait la valeur de la variance-covariance sous des
|
|
|
|
|
paramètres optimaux. Ce résultat permet par la suite d'évaluer la
|
|
|
|
|
distribution asymptotique des estimateurs.
|
|
|
|
|
|
|
|
|
|
On obtient l'estimateur de la matrice optimale \eqref{eq:matvcovGMM}
|
|
|
|
|
en effectuant le produit extérieur du vecteur de conditions de moment
|
|
|
|
|
empirique \eqref{eq:condmomGAL}, puis en évaluant la moyenne des
|
|
|
|
|
matrices résultantes de l'équation \eqref{eq:matponderationproduith}:
|
|
|
|
|
\begin{align}
|
|
|
|
|
\label{eq:matvcovGMMemp1}
|
|
|
|
|
\hat{S}(\theta;\mathbf{y}_T) &= \frac{1}{T} \sum_{t=1}^T
|
|
|
|
|
\left[\begin{array}{cc}
|
|
|
|
|
G_{(1,1)}(\theta;y_t) & G_{(1,2)}(\theta;y_t) \\
|
|
|
|
|
G_{(2,1)}(\theta;y_t) & G_{(2,2)}(\theta;y_t)
|
|
|
|
|
\end{array} \right]
|
|
|
|
|
\end{align}
|
|
|
|
|
où
|
|
|
|
|
\begin{align*}
|
|
|
|
|
G_{(1,1)}(\theta;y_t) &=\left( y_t-\theta-\mu\,\tau\right)^{2} \\
|
|
|
|
|
G_{(1,2)}(\theta;y_t) &=\left( {y_t}^{2}-2\,\theta\,y_t-2\,\mu\,\tau\,y_t+{\theta}^{2}+2\,\mu\,\tau\,\theta+{\mu}^{2}\,{\tau}^{2}-{\sigma}^{2}\,\tau-{\mu}^{2}\,\tau\right)^{2} \\
|
|
|
|
|
G_{(2,2)}(\theta;y_t) &=\left( y_t-\theta-\mu\,\tau\right) \,\left(
|
|
|
|
|
{y_t}^{2}-2\,\theta\,y_t-2\,\mu\,\tau\,y_t+{\theta}^{2}+2\,\mu\,\tau\,\theta+{\mu}^{2}\,{\tau}^{2}-{\sigma}^{2}\,\tau-{\mu}^{2}\,\tau\right).
|
|
|
|
|
\end{align*}
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
\subsection{Variance-covariance des paramètres}
|
|
|
|
|
|
|
|
|
|
On obtient la variance-covariance asymptotique des paramètres à partir
|
2014-01-25 01:18:35 +00:00
|
|
|
|
de la variance-covariance associée aux conditions de moment en
|
|
|
|
|
utilisant la méthode delta multivariée (Annexe
|
|
|
|
|
\ref{sec:deltamethod}).
|
|
|
|
|
|
|
|
|
|
Pour ce faire, on évalue d'abord la valeur
|
|
|
|
|
théorique du gradient $D(\theta)$:
|
2013-12-03 02:30:57 +00:00
|
|
|
|
\begin{align}
|
|
|
|
|
D(\theta) &= E \left[ \begin{array}{cc}
|
|
|
|
|
-1 & -2\,\left( Y-\theta-\mu\,\tau\right) \\
|
|
|
|
|
0 & -2\,\sigma\,\tau \\
|
|
|
|
|
-\tau & -2\,\tau\,\left( Y-\theta-\mu\,\tau\right) -2\,\mu\,\tau \\
|
|
|
|
|
-\nu & -2\,\mu\,\left( Y-\theta-\mu\,\tau\right)
|
|
|
|
|
-{\sigma}^{2}-{\mu}^{2}
|
|
|
|
|
\end{array}\right] \nonumber\\
|
|
|
|
|
&= \left[ \begin{array}{cc}
|
|
|
|
|
-1 & 0 \\
|
|
|
|
|
0 & -2\,\sigma\,\tau \\
|
|
|
|
|
-\tau & -2\,\mu\,\tau \\
|
|
|
|
|
-\nu & -{\sigma}^{2}-{\mu}^{2}
|
|
|
|
|
\end{array}\right].
|
|
|
|
|
\end{align}
|
|
|
|
|
|
|
|
|
|
Ensuite, on utilise le résultat \eqref{matricevcovparamGMMnc} afin
|
|
|
|
|
d'obtenir la valeur de la variance-covariance $\mathcal{J}_0^{-1}$.
|
|
|
|
|
|
|
|
|
|
De la même manière, on évalue la variance-covariance des paramètres
|
|
|
|
|
optimaux en utilisant les valeurs empiriques de la variance-covariance
|
|
|
|
|
des conditions de moment \eqref{eq:matvcovGMMemp1} et du gradient
|
|
|
|
|
$\hat{D}(\theta,\mathbf{y}_T)$, défini par la matrice
|
|
|
|
|
\eqref{eq:gradientGMM}. On a essentiellement à calculer la moyenne
|
|
|
|
|
empirique des gradients obtenus en chaque point $y_t$, puis à utiliser
|
|
|
|
|
le résultat \eqref{matricevcovparamGMMnc} avec les estimateurs
|
|
|
|
|
$\hat{W}_T = \hat{S}^{-1}(\theta,\mathbf{y}_T)$ et
|
|
|
|
|
$\hat{D}(\theta,\mathbf{y}_T)$:
|
|
|
|
|
\begin{align}
|
|
|
|
|
\hat{D}(\theta,\mathbf{y}_T) &= \frac{1}{T} \sum_{t=1}^{T}
|
|
|
|
|
\left[ \begin{array}{cc}
|
|
|
|
|
-1 & -2\,\left( y_t-\theta-\mu\,\tau\right) \\
|
|
|
|
|
0 & -2\,\sigma\,\tau \\
|
|
|
|
|
-\tau & -2\,\tau\,\left( y_t-\theta-\mu\,\tau\right) -2\,\mu\,\tau \\
|
|
|
|
|
-\nu & -2\,\mu\,\left( y_t-\theta-\mu\,\tau\right)
|
|
|
|
|
-{\sigma}^{2}-{\mu}^{2}
|
|
|
|
|
\end{array}\right].
|
|
|
|
|
\end{align}
|
|
|
|
|
|
|
|
|
|
\subsection{Contraintes linéaires}
|
|
|
|
|
|
|
|
|
|
Une fois l'estimation des paramètres effectuée, on peut tester si ces
|
|
|
|
|
derniers pourraient en fait correspondre à un cas particulier de la
|
|
|
|
|
distribution de Laplace asymétrique généralisée ayant le même support,
|
|
|
|
|
parmi celles figurant à la table \ref{tab:casspeciauxGAL}. Pour ce
|
|
|
|
|
faire, on doit déterminer les paramètres de la distribution sous un
|
|
|
|
|
ensemble de contraintes linéaires, sous la forme
|
|
|
|
|
\eqref{eq:contraintelin}, correspondant au cas particulier, tel
|
|
|
|
|
qu'énuméré dans la table \ref{tab:contraintesGAL}.
|
|
|
|
|
\begin{table}[h!]
|
|
|
|
|
\centering
|
|
|
|
|
\begin{tabular}{ccc}
|
|
|
|
|
& \multicolumn{2}{c}{\textbf{Paramètres}} \\
|
|
|
|
|
\hline
|
|
|
|
|
$\text{\textbf{Distribution}}$ & $R$ & $r$ \\
|
|
|
|
|
\hline
|
|
|
|
|
Laplace symétrique & $\begin{bmatrix}
|
|
|
|
|
0&0&1&0\\
|
|
|
|
|
0&0&0&1
|
|
|
|
|
\end{bmatrix}$ & $\begin{bmatrix}
|
|
|
|
|
0\\
|
|
|
|
|
1
|
|
|
|
|
\end{bmatrix}$ \\[1cm]
|
|
|
|
|
Laplace asymétrique & $\begin{bmatrix} 0&0&0&1
|
|
|
|
|
\end{bmatrix}$ & $\begin{bmatrix} 1
|
|
|
|
|
\end{bmatrix}$ \\[1cm]
|
|
|
|
|
Dégénérée à $\theta$ & $\begin{bmatrix}
|
|
|
|
|
0&1&0&0\\
|
|
|
|
|
0&0&1&0\\
|
|
|
|
|
0&0&0&1
|
|
|
|
|
\end{bmatrix}$ & $\begin{bmatrix}
|
|
|
|
|
0\\
|
|
|
|
|
0\\
|
|
|
|
|
0\\
|
|
|
|
|
\end{bmatrix}$\\\hline
|
|
|
|
|
\end{tabular}
|
|
|
|
|
\caption{Contraintes linéaires pour les cas particuliers de la distribution de Laplace asymétrique généralisée $GAL(\theta,\sigma,\mu,\tau)$}
|
|
|
|
|
\label{tab:contraintesGAL}
|
|
|
|
|
\end{table}
|
|
|
|
|
|
|
|
|
|
On doit ensuite utiliser un algorithme d'optimisation numérique afin
|
|
|
|
|
de maximiser le lagrangien \eqref{eq:estimateurGMMlagrange} défini par
|
|
|
|
|
la fonction objectif $Q_T(\theta)$ \eqref{eq:objectifGMM2} et
|
|
|
|
|
l'ensemble de contraintes $a(\theta) = R\theta-r$ sélectionné
|
|
|
|
|
précédemment. Enfin, on peut effectuer les tests statistiques de la
|
|
|
|
|
section \ref{sec:testwald} afin de vérifier si les paramètres de la
|
|
|
|
|
distribution contrainte sont significativement différents de ceux de
|
|
|
|
|
la distribution non contrainte. Dans cette situation, l'hypothèse
|
|
|
|
|
selon laquelle le cas particulier serait approprié pour décrire la
|
|
|
|
|
distribution des données de l'échantillon serait rejetée.
|
|
|
|
|
|
|
|
|
|
Notons qu'on peut aussi estimer les paramètres de chacun des cas
|
|
|
|
|
particuliers directement par la méthode des moments généralisée en
|
|
|
|
|
utilisant des conditions de moment basées sur la moyenne $m_1$ et la
|
|
|
|
|
variance $m_2$ de la forme \eqref{eq:condmom}. Par contre, dans ces
|
|
|
|
|
cas, on devra utiliser des tests d'adéquation non paramétriques afin
|
|
|
|
|
de décider laquelle représente mieux la distribution de l'échantillon
|
|
|
|
|
de données. Ces tests seront présentés au chapitre suivant, à la
|
|
|
|
|
section \ref{sec:testnonparam}.
|
|
|
|
|
|
|
|
|
|
\section{Méthode de l'équation d'estimation optimale}
|
|
|
|
|
\label{sec:CrowderGAL}
|
|
|
|
|
|
|
|
|
|
On utilise maintenant la méthode de l'équation d'estimation optimale
|
|
|
|
|
afin d’estimer les paramètres de la distribution de Laplace
|
|
|
|
|
asymétrique généralisée. On considère une équation d'estimation de la
|
|
|
|
|
forme quadratique \eqref{eq:generalquad}, basée sur les conditions de
|
|
|
|
|
moments \eqref{eq:condmomGAL} utilisées à la section précédente.
|
|
|
|
|
|
|
|
|
|
On évalue d'abord les expressions des dérivées premières de la moyenne
|
|
|
|
|
et de l'écart-type par rapport au vecteur de paramètres
|
|
|
|
|
\eqref{eq:derivmom}:
|
|
|
|
|
\begin{subequations}\label{eq:derivmomGAL}
|
|
|
|
|
\begin{align}
|
|
|
|
|
\mu^{\prime}\left( \theta \right) &= \frac{d}{d\theta}\left(\theta+\tau\,\mu\right) \nonumber\\
|
|
|
|
|
&= \left[ \begin{array}{c} 1\\
|
|
|
|
|
0\\
|
|
|
|
|
\tau\\
|
|
|
|
|
\mu\end{array} \right]^T \label{eq:derivmom1GAL}\\
|
|
|
|
|
\sigma^{\prime}\left( \theta \right) &= \frac{d}{d\theta}\sqrt{\tau\sigma^2+\tau\mu^2} \nonumber\\
|
|
|
|
|
&= \frac{1}{\sqrt {\tau\,{\sigma}^{2}+\tau\,{\mu}^{2}}}
|
|
|
|
|
\left[ \begin{array}{c}
|
|
|
|
|
0\\
|
|
|
|
|
{\tau\,\sigma}\\
|
|
|
|
|
{\tau\,\mu}\\
|
|
|
|
|
\frac{{\sigma}^{2}+{\mu}^{2}}{2}
|
|
|
|
|
\end{array} \right]^T.\label{eq:derivmom2GAL}
|
|
|
|
|
\end{align}
|
|
|
|
|
\end{subequations}
|
|
|
|
|
|
|
|
|
|
On peut alors obtenir une forme analytique en utilisant les
|
|
|
|
|
expressions déterminées précédemment pour $\mathbf{a}(\theta)$ et
|
|
|
|
|
$\mathbf{b}(\theta)$ \eqref{eq:coefficientscrowder}, les moments de la
|
|
|
|
|
distribution \eqref{eq:momentsGAL} ainsi que les coefficients
|
|
|
|
|
d'asymétrie et d'aplatissement \eqref{eq:moments56GAL}. Étant donné la
|
|
|
|
|
longueur des expressions obtenues, elles ne seront pas présentées dans
|
|
|
|
|
ce texte. Cependant, on peut facilement les évaluer à l'aide d'un
|
|
|
|
|
logiciel de calcul symbolique. On combine ensuite celles-ci pour
|
|
|
|
|
obtenir l'équation d'estimation optimale $g\left(\theta;\mathbf{y}_T
|
|
|
|
|
\right)$ de forme quadratique.
|
|
|
|
|
|
|
|
|
|
On obtient cependant des expressions plus faciles à manipuler pour
|
|
|
|
|
$\mathbf{a}(\theta)$ et $\mathbf{b}(\theta)$ en utilisant la version
|
|
|
|
|
modifiée du vecteur de pondération optimal
|
|
|
|
|
\eqref{eq:vecteurcrowdermod}:
|
|
|
|
|
\begin{subequations}
|
|
|
|
|
\label{eq:vecteurcrowdermodGAL}
|
|
|
|
|
\begin{align}
|
|
|
|
|
\mathbf{a}_{mod}^{*}(\theta;\mathbf{y}_T) &= \begin{bmatrix}
|
|
|
|
|
\frac{-\hat\gamma_2\left(\mathbf{y}_T\right)-2}{\left( {\sigma}^{2}+{\mu}^{2}\right) \,\tau\,\hat\gamma_3\left(\mathbf{y}_T\right) } \\
|
|
|
|
|
\frac{2\,\sigma\,\hat\gamma_1\left(\mathbf{y}_T\right)}{{\left( {\sigma}^{2}+{\mu}^{2}\right) }^{3/2}\,\sqrt{\tau}\,\hat\gamma_3\left(\mathbf{y}_T\right) } \\
|
|
|
|
|
\frac{\frac{2\,\mu\,\sqrt{\tau}\,\hat\gamma_1\left(\mathbf{y}_T\right)}{\sqrt{{\sigma}^{2}+{\mu}^{2}}}+\tau\,\left( -\hat\gamma_2\left(\mathbf{y}_T\right)-2\right) }{\left( {\sigma}^{2}+{\mu}^{2}\right) \,\tau\,\hat\gamma_3\left(\mathbf{y}_T\right) } \\
|
|
|
|
|
\frac{\frac{\sqrt{{\sigma}^{2}+{\mu}^{2}}\,\hat\gamma_1\left(\mathbf{y}_T\right)}{\sqrt{\tau}}+\mu\,\left(
|
|
|
|
|
-\hat\gamma_2\left(\mathbf{y}_T\right)-2\right) }{\left(
|
|
|
|
|
{\sigma}^{2}+{\mu}^{2}\right)
|
|
|
|
|
\,\tau\,\hat\gamma_3\left(\mathbf{y}_T\right) }
|
|
|
|
|
\end{bmatrix} \\
|
|
|
|
|
\mathbf{b}_{mod}^{*}(\theta;\mathbf{y}_T) &= \begin{bmatrix}
|
|
|
|
|
\frac{\hat\gamma_1\left(\mathbf{y}_T\right)}{{\left( {\sigma}^{2}+{\mu}^{2}\right) }^{3/2}\,{\tau}^{3/2}\,\hat\gamma_3\left(\mathbf{y}_T\right) } \\
|
|
|
|
|
-\frac{2\,\sigma}{{\left( {\sigma}^{2}+{\mu}^{2}\right) }^{2}\,\tau\,\hat\gamma_3\left(\mathbf{y}_T\right) } \\
|
|
|
|
|
\frac{\tau\,\hat\gamma_1\left(\mathbf{y}_T\right)-\frac{2\,\mu\,\sqrt{\tau}}{\sqrt{{\sigma}^{2}+{\mu}^{2}}}}{{\left( {\sigma}^{2}+{\mu}^{2}\right) }^{3/2}\,{\tau}^{3/2}\,\hat\gamma_3\left(\mathbf{y}_T\right) } \\
|
|
|
|
|
\frac{\mu\,\hat\gamma_1\left(\mathbf{y}_T\right)-\frac{\sqrt{{\sigma}^{2}+{\mu}^{2}}}{\sqrt{\tau}}}{{\left(
|
|
|
|
|
{\sigma}^{2}+{\mu}^{2}\right)
|
|
|
|
|
}^{3/2}\,{\tau}^{3/2}\,\hat\gamma_3\left(\mathbf{y}_T\right) }
|
|
|
|
|
\end{bmatrix}.
|
|
|
|
|
\end{align}
|
|
|
|
|
\end{subequations}
|
|
|
|
|
|
|
|
|
|
On insère ensuite ces dernières dans la forme générale
|
|
|
|
|
\eqref{eq:generalquad} pour obtenir l'équation d'estimation optimale
|
|
|
|
|
modifiée $g_{mod}^{*}\left(\theta;Y \right)$:
|
|
|
|
|
\begin{align}
|
|
|
|
|
\label{eq:generalquadmod}
|
|
|
|
|
g_{mod}^{*}\left(\theta;Y \right) = \sum_{t=1}^n \left[
|
|
|
|
|
\mathbf{a}_{mod}^{*}(\theta;\mathbf{y}_T)(y_t-\mu\left(\theta\right)) +
|
|
|
|
|
\mathbf{b}_{mod}^{*}(\theta;\mathbf{y}_T)\left((y_t-\mu\left(\theta\right))^2-\sigma^2\left(\theta\right)
|
|
|
|
|
\right)\right].
|
|
|
|
|
\end{align}
|
|
|
|
|
|
|
|
|
|
On note qu'afin d'éviter des irrégularités numériques, on suggère,
|
|
|
|
|
dans les deux cas, de faire l'estimation sur des données centrées et
|
|
|
|
|
réduites:
|
|
|
|
|
\begin{align}
|
|
|
|
|
X_t &=
|
|
|
|
|
\frac{Y_t-\hat{m_1}}{\sqrt{\hat{m_2}}}. \label{eq:defcentrereduite}
|
|
|
|
|
\end{align}
|
|
|
|
|
|
|
|
|
|
Comme précédemment, on pourra utiliser la propriété d'invariance
|
|
|
|
|
\eqref{eq:GALscaletrans} de la paramétrisation en $\kappa$ afin de
|
|
|
|
|
retrouver les paramètres de la distribution de la variable aléatoire
|
|
|
|
|
$Y_t$ une fois l'estimation effectuée:
|
|
|
|
|
\begin{align}
|
|
|
|
|
Y_t &= \hat{\sigma}_{t} X_t + \hat{\mu}_{t} \sim
|
|
|
|
|
GAL(\hat{\sigma}_{t} \theta +
|
|
|
|
|
\hat{\mu}_{t},\hat{\sigma}_{t}\sigma,\kappa,\tau). \label{eq:paramnonreduit}
|
|
|
|
|
\end{align}
|
|
|
|
|
|
|
|
|
|
Afin d'obtenir le vecteur de paramètres estimés $\hat\theta$, on
|
|
|
|
|
minimise la fonction objectif
|
|
|
|
|
$\Lambda\left(\theta;\mathbf{y}_T\right)$
|
|
|
|
|
\eqref{eq:eqnobjectifEE}. Une fois les paramètres obtenus, on peut
|
|
|
|
|
ensuite évaluer la variance-covariance de ces estimateurs, à partir du
|
|
|
|
|
résultat \eqref{eq:Moptimalestimetheta}.
|
|
|
|
|
|
|
|
|
|
%%% Local Variables:
|
|
|
|
|
%%% mode: latex
|
|
|
|
|
%%% TeX-master: "gabarit-maitrise"
|
|
|
|
|
%%% End:
|