703 lines
26 KiB
TeX
703 lines
26 KiB
TeX
|
\chapter{Exemple d'application}
|
||
|
\label{chap:application}%
|
||
|
|
||
|
On considère un échantillon $S_1$ formé de l'ensemble des prix
|
||
|
$S_1(t)$ à la fermeture du titre Abbey National entre le 31 juillet et
|
||
|
le 8 octobre 1991. La table \ref{prixabbeyn} présente l'ensemble des 50
|
||
|
observations. Cet échantillon a notamment été étudié précédemment par
|
||
|
\cite{buckle1995bayesian}.
|
||
|
|
||
|
\section{Description des données}
|
||
|
\label{sec:analysepA}
|
||
|
|
||
|
On évalue tout d'abord les rendements quotidiens $R_1$ à l'aide de
|
||
|
l'équation \eqref{eq:rendementlogprix}. On obtient alors 49
|
||
|
observations du processus des rendements $R(t)$, que l'on présente à
|
||
|
la figure \ref{fig:seriechronoR1} sous forme de série chronologique.
|
||
|
|
||
|
\begin{figure}[!ht]
|
||
|
\centering
|
||
|
\includegraphics[height=4in,
|
||
|
width=4in]{./graphiques/ABBEYN-chronologie.pdf}
|
||
|
\caption{Représentation en série chronologique de l'échantillon
|
||
|
$R_1$}
|
||
|
\label{fig:seriechronoR1}
|
||
|
\end{figure}
|
||
|
|
||
|
On énumère d'abord quelques propriétés de cet échantillon qui pourront
|
||
|
compléter l'analyse. À la table \ref{tab:statordreR1}, on présente
|
||
|
quelques statistiques d'ordre. De plus, à la table
|
||
|
\ref{tab:statmomentsR1}, on retrouve quelques valeurs relatives aux
|
||
|
premiers moments.
|
||
|
|
||
|
\begin{table}[!ht]
|
||
|
\centering
|
||
|
\begin{tabular}{cccccc}
|
||
|
\hline
|
||
|
\textbf{Statistique d'ordre} & \textbf{Valeur} \\
|
||
|
\hline
|
||
|
Minimum & -0.027500\\
|
||
|
1er quartile & -0.009790\\
|
||
|
Médiane & -0.003260\\
|
||
|
3e quartile & 0.006620\\
|
||
|
Maximum & 0.043400\\
|
||
|
\hline
|
||
|
|
||
|
\end{tabular}
|
||
|
\caption{Statistiques d'ordre de l'échantillon $R_1$}
|
||
|
\label{tab:statordreR1}
|
||
|
\end{table}
|
||
|
|
||
|
\begin{table}[!ht]
|
||
|
\centering
|
||
|
\begin{tabular}{cccc}
|
||
|
\hline
|
||
|
\textbf{Statistique} & \textbf{Valeur} \\
|
||
|
\hline
|
||
|
Moyenne & 0.000206\\
|
||
|
Variance & 0.000169\\
|
||
|
Coefficient d'asymétrie & 0.977563\\
|
||
|
Coefficient d'aplatissement & 4.597114 \\
|
||
|
\hline
|
||
|
\end{tabular}
|
||
|
\caption{Valeurs relatives aux premiers moments de l'échantillon $R_1$}
|
||
|
\label{tab:statmomentsR1}
|
||
|
\end{table}
|
||
|
|
||
|
On présente maintenant la distribution des rendements sous la forme
|
||
|
d'une courbe de densité à la figure \ref{fig:distributionR1}.
|
||
|
|
||
|
\begin{figure}[!ht]
|
||
|
\centering
|
||
|
\includegraphics[height=4in,width=4in]{./graphiques/ABBEYN-histogramme.pdf}
|
||
|
\caption{Distribution de la variable aléatoire $R_1$}
|
||
|
\label{fig:distributionR1}
|
||
|
\end{figure}
|
||
|
|
||
|
À l'aide du test de normalité d'Epps-Pulley (Section
|
||
|
\ref{sec:test-de-epps}), on vérifie si la distribution des rendements
|
||
|
$R_1$ est significativement différente de la normale. On fixe le seuil
|
||
|
de tolérance $\alpha = 5\% $.
|
||
|
|
||
|
On évalue d'abord la statistique $EP_T$
|
||
|
\eqref{eq:statistiqueEppsPulley}, puis la statistique modifiée
|
||
|
$EP_T^{*}$ \eqref{eq:EppsPulleyMod} étant donné que $T>10$. La table
|
||
|
\ref{tab:eppspulleyR1} présente les résultats.
|
||
|
|
||
|
\begin{table}[!ht]
|
||
|
\centering
|
||
|
\begin{tabular}{ll}
|
||
|
\hline
|
||
|
\textbf{Statistique} & \textbf{Valeur} \\
|
||
|
\hline
|
||
|
$EP_T$ & 0.626033 \\
|
||
|
$EP_T^{*}$ & 0.635568 \\
|
||
|
$Z_T$ & 2.44824 \\
|
||
|
$p$ & 0.007178 \\
|
||
|
\hline
|
||
|
\end{tabular}
|
||
|
\caption{Test de normalité d'Epps-Pulley pour $R_1$}
|
||
|
\label{tab:eppspulleyR1}
|
||
|
\end{table}
|
||
|
|
||
|
Étant donné que la valeur $p$ est inférieure au seuil $\alpha$, on
|
||
|
rejette l'hypothèse de normalité de l'échantillon $R_1$. On peut
|
||
|
vérifier cette affirmation à l'aide du graphique de comparaison des
|
||
|
quantiles empiriques avec ceux de la loi normale présenté à la figure
|
||
|
\ref{fig:qqplotR1}.
|
||
|
|
||
|
\begin{figure}[!ht]
|
||
|
\centering
|
||
|
\includegraphics[height=4in,
|
||
|
width=4in]{./graphiques/ABBEYN-qq.pdf}
|
||
|
\caption{Graphique Quantile-Quantile}
|
||
|
\label{fig:qqplotR1}
|
||
|
\end{figure}
|
||
|
|
||
|
\section{Estimation}
|
||
|
\label{sec:estimation}
|
||
|
|
||
|
Dans cette section, on estime les paramètres de la distribution de
|
||
|
Laplace asymétrique généralisée pour l'échantillon de données centrées
|
||
|
et réduites $R_1^{*}$, à l'aide des méthodes:
|
||
|
\begin{itemize}
|
||
|
\item des moments généralisée itérative (Section \ref{sec:GMMtwostep})
|
||
|
\item d'estimation gaussienne de Whittle (table
|
||
|
\ref{tab:methodesquad})
|
||
|
\item de l'équation d'estimation optimale de Crowder (Section
|
||
|
\ref{sec:equationsquadopt}) et
|
||
|
\item de l'équation d'estimation optimale modifiée (Section
|
||
|
\ref{sec:eqoptmodif}).
|
||
|
\end{itemize}
|
||
|
|
||
|
On évalue d'abord le vecteur de paramètres initiaux $\theta_0$ à
|
||
|
l'aide des équations \eqref{eq:ptdepartGAL}. On effectue ensuite une
|
||
|
première optimisation à l'aide de chacune des trois méthodes afin de
|
||
|
pouvoir évaluer la matrice de pondération qui servira à la seconde. La
|
||
|
table \ref{tab:premiereoptimR1} présente les paramètres obtenus
|
||
|
$\theta_1$.
|
||
|
|
||
|
\begin{table}[!ht]
|
||
|
\centering
|
||
|
\begin{tabular}{lcccc}
|
||
|
\hline
|
||
|
\textbf{Méthode} & $\theta$ & $\sigma$ & $\mu$ & $\tau$ \\
|
||
|
\hline
|
||
|
Paramètres initiaux & -0.612081 & 0.515932 & 0.325854 & 1.878388 \\
|
||
|
\hline
|
||
|
Moments généralisée & -0.641646 & 0.625908 & 0.326366 & 1.965995 \\
|
||
|
Estimation gaussienne & -0.776204 & 0.581154 & 0.385120 & 2.015437 \\
|
||
|
Équation d'estimation optimale & -0.660300 & 0.645678 & 0.376654 & 1.753069 \\
|
||
|
Équation d'estimation optimale modifiée & -0.711439 & 0.606642 & 0.362932 & 1.960299 \\
|
||
|
\hline
|
||
|
\end{tabular}
|
||
|
\caption{Paramètres $\theta_1$ de la première optimisation}
|
||
|
\label{tab:premiereoptimR1}
|
||
|
\end{table}
|
||
|
|
||
|
On obtient la matrice de variance-covariance des paramètres pour les
|
||
|
méthodes basées sur une équation d'estimation
|
||
|
\eqref{eq:VarAsymptEstEE} en évaluant l'inverse de la
|
||
|
variance-covariance des éléments composant celle-ci
|
||
|
\eqref{eq:Crowder86-th3.3-def-2} et le gradient
|
||
|
\eqref{eq:Crowder86-th3.3-def-1}:
|
||
|
\begin{itemize}
|
||
|
\item Pour la méthode d'estimation gaussienne:
|
||
|
\begin{align}
|
||
|
\label{eq:vcov1gaussR1}
|
||
|
\mathbf{S}_T^{*}(\hat\theta_1;R_1^{*}) = \begin{bmatrix}
|
||
|
1.13756e-03 &-0.00207546& 0.000917316& 7.46064e-06\\
|
||
|
-2.07546e-03 & 0.00984423& 0.002340623& 1.24328e-03\\
|
||
|
9.17316e-04 & 0.00234062& 0.003399880& 8.38932e-04\\
|
||
|
7.46064e-06 & 0.00124328& 0.000838932& 2.60840e-04
|
||
|
\end{bmatrix}
|
||
|
\end{align}
|
||
|
\item Pour la méthode de l'équation d'estimation optimale:
|
||
|
\begin{align}
|
||
|
\label{eq:vcov1eeR1}
|
||
|
\mathbf{S}_T^{*}(\hat\theta_1;R_1^{*}) = \begin{bmatrix}
|
||
|
1.47029e-03 &-0.00212833& 0.00133597& 2.84688e-05\\
|
||
|
-2.12833e-03 & 0.01115599& 0.00277669& 1.95192e-03\\
|
||
|
1.33597e-03 & 0.00277669& 0.00396182& 1.18855e-03\\
|
||
|
2.84688e-05 & 0.00195192& 0.00118855& 4.92502e-04
|
||
|
\end{bmatrix}
|
||
|
\end{align}
|
||
|
\item Pour la méthode de l'équation d'estimation optimale modifiée:
|
||
|
\begin{align}
|
||
|
\label{eq:vcov1eemodR1}
|
||
|
\mathbf{S}_T^{*}(\hat\theta_1;R_1^{*}) = \begin{bmatrix}
|
||
|
1.03165e-03& -0.00146603& 0.001145269& 6.63861e-05\\
|
||
|
-1.46603e-03& 0.00812868& 0.001989247& 1.17588e-03\\
|
||
|
1.14527e-03& 0.00198925& 0.003435163& 8.33622e-04\\
|
||
|
6.63861e-05& 0.00117588& 0.000833622& 2.71162e-04
|
||
|
\end{bmatrix}
|
||
|
\end{align}
|
||
|
\end{itemize}
|
||
|
|
||
|
On peut ainsi construire des intervalles de confiance pour les
|
||
|
paramètres estimés. On utilise un seuil de tolérance de $\alpha=5\%$:
|
||
|
\begin{itemize}
|
||
|
\item Pour la méthode d'estimation gaussienne:\\ \\
|
||
|
\begin{tabular}{rrrr}
|
||
|
\hline
|
||
|
& \textbf{Borne inférieure} & \textbf{Valeur estimée} & \textbf{Borne supérieure} \\
|
||
|
\hline
|
||
|
$\theta$ & -0.8328 & -0.7762 & -0.7197 \\
|
||
|
$\sigma$ & 0.4148 & 0.5812 & 0.7475 \\
|
||
|
$\mu$ & 0.2874 & 0.3851 & 0.4829 \\
|
||
|
$\tau$ & 1.9884 & 2.0154 & 2.0425 \\
|
||
|
\hline
|
||
|
\end{tabular}\\
|
||
|
|
||
|
\item Pour la méthode de l'équation d'estimation optimale:\\ \\
|
||
|
\begin{tabular}{rrrr}
|
||
|
\hline
|
||
|
& \textbf{Borne inférieure} & \textbf{Valeur estimée} & \textbf{Borne supérieure} \\
|
||
|
\hline
|
||
|
$\theta$ & -0.7246 & -0.6603 & -0.5960 \\
|
||
|
$\sigma$ & 0.4686 & 0.6457 & 0.8228 \\
|
||
|
$\mu$ & 0.2711 & 0.3767 & 0.4822 \\
|
||
|
$\tau$ & 1.7159 & 1.7531 & 1.7903 \\
|
||
|
\hline
|
||
|
\end{tabular}\\
|
||
|
|
||
|
\item Pour la méthode de l'équation d'estimation optimale modifiée:\\ \\
|
||
|
\begin{tabular}{rrrr}
|
||
|
\hline
|
||
|
& \textbf{Borne inférieure} & \textbf{Valeur estimée} & \textbf{Borne supérieure} \\
|
||
|
\hline
|
||
|
$\theta$ & -0.7653 & -0.7114 & -0.6576 \\
|
||
|
$\sigma$ & 0.4555 & 0.6066 & 0.7578 \\
|
||
|
$\mu$ & 0.2647 & 0.3629 & 0.4612 \\
|
||
|
$\tau$ & 1.9327 & 1.9603 & 1.9879 \\
|
||
|
\hline
|
||
|
\end{tabular}\\
|
||
|
|
||
|
\end{itemize}
|
||
|
|
||
|
À l'aide de l'inverse de la variance-covariance des conditions de
|
||
|
moments et des équations d'estimation, on peut effectuer une seconde
|
||
|
optimisation afin d'obtenir des estimateurs convergents. Pour la
|
||
|
méthode des moments généralisée, on utilisera plutôt une procédure
|
||
|
itérative. Les paramètres présentés à la table
|
||
|
\ref{tab:secondeoptimR1} sont donc ceux obtenus avec la convergence de
|
||
|
l'algorithme itératif de la section \ref{sec:GMMtwostep} avec un
|
||
|
critère d'arrêt $\epsilon=10^{-7}$ \eqref{eq:criterearret}.
|
||
|
|
||
|
\begin{table}[!ht]
|
||
|
\centering
|
||
|
\begin{tabular}{lcccc}
|
||
|
\hline
|
||
|
\textbf{Méthode} & $\theta$ & $\sigma$ & $\mu$ & $\tau$ \\
|
||
|
\hline
|
||
|
Moments généralisée & -0.640067 & 0.625431 & 0.324311 & 1.973623 \\
|
||
|
Estimation gaussienne & -0.775071 & 0.581413 & 0.384342 & 2.016619 \\
|
||
|
Équation d'estimation optimale & -0.658697 & 0.646516 & 0.376251 & 1.750685 \\
|
||
|
Équation d'estimation optimale modifiée & -0.712450 & 0.606193 & 0.363196 & 1.961614 \\
|
||
|
\hline
|
||
|
\end{tabular}
|
||
|
\caption{Paramètres $\theta_1$ de la première optimisation}
|
||
|
\label{tab:secondeoptimR1}
|
||
|
\end{table}
|
||
|
|
||
|
Pour la méthode des moments généralisée, puisque l'on utilise une
|
||
|
procédure itérative, présenter la première matrice de
|
||
|
variance-covariance des paramètres n'est pas pertinent. On obtient
|
||
|
celle à la convergence de l'algorithme \eqref{matricevcovparamGMMnc}
|
||
|
en évaluant l'inverse de la variance-covariance des conditions de
|
||
|
moments \eqref{eq:matponderationproduith} et le gradient
|
||
|
\eqref{eq:gradientGMM}. On obtient donc:
|
||
|
\begin{align}
|
||
|
\label{eq:vcov1gmmR1}
|
||
|
\mathbf{S}_T^{*}(\hat\theta_{OPT};R_1^{*}) =
|
||
|
\begin{bmatrix}
|
||
|
0.00203708& 0.00438553& 0.00174636& 0.00154237\\
|
||
|
0.00438553& 0.01207044& 0.00239640& 0.00384905\\
|
||
|
0.00174636& 0.00239640& 0.00220402& 0.00104816\\
|
||
|
0.00154237& 0.00384905& 0.00104816& 0.00127406
|
||
|
\end{bmatrix}.
|
||
|
\end{align}
|
||
|
|
||
|
Pour les méthodes basées sur une équation d'estimation, on obtient,
|
||
|
pour la seconde optimisation, les variances-covariances suivantes:
|
||
|
\begin{itemize}
|
||
|
\item Pour la méthode d'estimation gaussienne:
|
||
|
\begin{align}
|
||
|
\label{eq:matvcov2R1-gauss}
|
||
|
\mathbf{S}_T^{*}(\hat\theta_2;R_1^{*}) = \begin{bmatrix}
|
||
|
1.13314e-03& -0.00206602& 0.000919367& 7.53773e-06\\
|
||
|
-2.06602e-03 & 0.00983078& 0.002332240 &1.24238e-03\\
|
||
|
9.19367e-04 & 0.00233224& 0.003395736& 8.36472e-04\\
|
||
|
7.53773e-06 & 0.00124238& 0.000836472& 2.60254e-04
|
||
|
\end{bmatrix}
|
||
|
\end{align}
|
||
|
\item Pour la méthode de l'équation d'estimation optimale:
|
||
|
\begin{align}
|
||
|
\label{eq:matvcov2R1-ee}
|
||
|
\mathbf{S}_T^{*}(\hat\theta_2;R_1^{*}) = \begin{bmatrix}
|
||
|
1.47327e-03& -0.00212557& 0.00134221& 2.89119e-05\\
|
||
|
-2.12557e-03 & 0.01116770 &0.00277803& 1.96072e-03\\
|
||
|
1.34221e-03 & 0.00277803& 0.00396652& 1.19169e-03 \\
|
||
|
2.89119e-05 & 0.00196072& 0.00119169& 4.95537e-04
|
||
|
\end{bmatrix}
|
||
|
\end{align}
|
||
|
\item Pour la méthode de l'équation d'estimation optimale modifiée:
|
||
|
\begin{align}
|
||
|
\label{eq:matvcov2R1-eemod}
|
||
|
\mathbf{S}_T^{*}(\hat\theta_2;R_1^{*}) = \begin{bmatrix}
|
||
|
1.03121e-03& -0.00146899& 0.001142696& 6.60715e-05\\
|
||
|
-1.46899e-03 & 0.00812703 &0.001987649& 1.17298e-03\\
|
||
|
1.14270e-03 & 0.00198765& 0.003432414& 8.32388e-04\\
|
||
|
6.60715e-05 & 0.00117298& 0.000832388& 2.70299e-04
|
||
|
\end{bmatrix}
|
||
|
\end{align}
|
||
|
\end{itemize}
|
||
|
|
||
|
On peut donc construire des intervalles de confiance:
|
||
|
\begin{itemize}
|
||
|
\item Pour la méthode des moments généralisée:\\ \\
|
||
|
\begin{tabular}{rrrr}
|
||
|
\hline
|
||
|
& \textbf{Borne inférieure} & \textbf{Valeur estimée} & \textbf{Borne supérieure} \\
|
||
|
\hline
|
||
|
$\theta$ & -0.715736& -0.640067& -0.564397\\
|
||
|
$\sigma$ & 0.441236 & 0.625431 & 0.809627\\
|
||
|
$\mu$ & 0.245602 & 0.324311 & 0.403020\\
|
||
|
$\tau$ & 1.913780 & 1.973623 & 2.033466\\
|
||
|
\hline
|
||
|
\end{tabular} \\
|
||
|
\item Pour la méthode d'estimation gaussienne:\\ \\
|
||
|
\begin{tabular}{rrrr}
|
||
|
\hline
|
||
|
& \textbf{Borne inférieure} & \textbf{Valeur estimée} & \textbf{Borne supérieure} \\
|
||
|
\hline
|
||
|
$\theta$ & -0.8315 & -0.7751 & -0.7186 \\
|
||
|
$\sigma$ & 0.4152 & 0.5814 & 0.7476 \\
|
||
|
$\mu$ & 0.2866 & 0.3843 & 0.4820 \\
|
||
|
$\tau$ & 1.9896 & 2.0166 & 2.0437 \\
|
||
|
\hline
|
||
|
\end{tabular} \\
|
||
|
\item Pour la méthode de l'équation d'estimation optimale:\\ \\
|
||
|
\begin{tabular}{rrrr}
|
||
|
\hline
|
||
|
& \textbf{Borne inférieure} & \textbf{Valeur estimée} & \textbf{Borne supérieure} \\
|
||
|
\hline
|
||
|
$\theta$ & -0.7230 & -0.6587 & -0.5943 \\
|
||
|
$\sigma$ & 0.4693 & 0.6465 & 0.8237 \\
|
||
|
$\mu$ & 0.2707 & 0.3763 & 0.4818 \\
|
||
|
$\tau$ & 1.7134 & 1.7507 & 1.7880 \\
|
||
|
\hline
|
||
|
\end{tabular} \\
|
||
|
\item Pour la méthode de l'équation d'estimation optimale modifiée:\\ \\
|
||
|
\begin{tabular}{rrrr}
|
||
|
\hline
|
||
|
& \textbf{Borne inférieure} & \textbf{Valeur estimée} & \textbf{Borne supérieure} \\
|
||
|
\hline
|
||
|
$\theta$ & -0.7663 & -0.7124 & -0.6586 \\
|
||
|
$\sigma$ & 0.4551 & 0.6062 & 0.7573 \\
|
||
|
$\mu$ & 0.2650 & 0.3632 & 0.4614 \\
|
||
|
$\tau$ & 1.9341 & 1.9616 & 1.9892 \\
|
||
|
\hline
|
||
|
\end{tabular} \\
|
||
|
\end{itemize}
|
||
|
|
||
|
En utilisant la propriété \eqref{eq:transparamGALNS}, on retrouve les
|
||
|
paramètres, correspondants aux données $R(t)= \sqrt{Var[R_1]} R^{*}(t)
|
||
|
+ E[R_1], t=1,\ldots,50$, présentés à la table
|
||
|
\ref{tab:parametresdonneesorigineR1}.
|
||
|
|
||
|
\begin{table}[!ht] \centering
|
||
|
\begin{tabular}{lcccc}
|
||
|
\hline
|
||
|
\textbf{Méthode} & $\theta$ & $\sigma$ & $\mu$ & $\tau$ \\
|
||
|
\hline
|
||
|
Moments généralisée& -0.008119 & 0.008134 & 0.002983 & 1.973623 \\
|
||
|
Estimation gaussienne& -0.009875 & 0.007562 & 0.003535 & 2.016619 \\
|
||
|
Équation d'estimation optimale& -0.008361 & 0.008409 & 0.003460 & 1.750685 \\
|
||
|
Équation d'estimation optimale modifiée& -0.009060 & 0.007884 & 0.003340 & 1.961614 \\
|
||
|
\hline
|
||
|
\end{tabular}
|
||
|
\caption{Paramètres des données $R_1$}
|
||
|
\label{tab:parametresdonneesorigineR1}
|
||
|
\end{table}
|
||
|
|
||
|
\section{Approximation}
|
||
|
\label{sec:approximationR1}
|
||
|
|
||
|
On effectue l'approximation des fonctions de densité et de répartition
|
||
|
pour un ensemble de points $r \in
|
||
|
\left\{-0.03,-0.02,-0.01,0,0.01,0.02,0.03 \right\}$ à l'aide de la
|
||
|
méthode du point de selle. On utilise les paramètres obtenus par la
|
||
|
méthode des moments généralisée.
|
||
|
|
||
|
On résout d'abord l'équation du point de selle
|
||
|
\eqref{eq:saddlepoint}. On illustre graphiquement cette équation pour
|
||
|
$r=0.01$ à la figure \ref{fig:equationptselle0.01R1} :
|
||
|
\begin{figure}[!ht]
|
||
|
\centering
|
||
|
\includegraphics[scale=0.5]{./graphiques/pointdeselleGMM.png}
|
||
|
\caption{Équation du point de selle pour $r=0.01$}
|
||
|
\label{fig:equationptselle0.01R1}
|
||
|
\end{figure}
|
||
|
|
||
|
Le point de selle prend alors une valeur de $\hat{s}=56.050951$ dans
|
||
|
cette situation. En utilisant l'approximation de premier ordre
|
||
|
$\hat{f}_{R,1}(r)$
|
||
|
\eqref{eq:approximationsaddlepointordre1} % et celle
|
||
|
% de second ordre $\hat{f}_{R,2}(r)$
|
||
|
% \eqref{eq:approximationsaddlepointordre2}
|
||
|
de la fonction de densité, et en comparant le résutat avec la fonction
|
||
|
de densité ${f}_{R}(r)$ \eqref{eq:densitekotz2001}, on obtient les
|
||
|
résultats présentés à la table \ref{tab:approximationdensiteR1}. Dans
|
||
|
les deux cas, la fonction de densité a été normalisée à l'aide de
|
||
|
l'intégrale \eqref{eq:normalisationsaddle1}.
|
||
|
|
||
|
% latex table generated in R 2.15.2 by xtable 1.7-1 package Mon Aug 19
|
||
|
% 16:36:59 2013
|
||
|
\begin{table}[ht]
|
||
|
\centering
|
||
|
\begin{tabular}{cccc}
|
||
|
& \multicolumn{2}{c}{\textbf{Densité}} & \multicolumn{1}{c}{\textbf{Erreur relative}} \\
|
||
|
\hline
|
||
|
$r$ & $\hat{f}_{R,1}(r)$ & ${f}_{R}(r)$ & $(\hat{f}_{R,1}(r)-{f}_{R}(r))/{{f}_{R}(r)}$ \\
|
||
|
\hline
|
||
|
-0.03 & 1.561365 & 2.065547 & -0.244091 \\
|
||
|
-0.02 & 9.038616 & 10.702896 & -0.155498 \\
|
||
|
-0.01 & 31.216317 & 37.581108 & -0.169361 \\
|
||
|
0.00 & 33.015869 & 31.073988 & 0.062492 \\
|
||
|
0.01 & 15.941633 & 12.450742 & 0.280376 \\
|
||
|
0.02 & 5.988373 & 4.120017 & 0.453483 \\
|
||
|
0.03 & 2.026838 & 1.246205 & 0.626409 \\
|
||
|
\hline
|
||
|
\end{tabular}
|
||
|
\caption{Approximation de la densité de $R_1$}
|
||
|
\label{tab:approximationdensiteR1}
|
||
|
\end{table}
|
||
|
|
||
|
On évalue ensuite la valeur de la fonction de répartition à l'aide de
|
||
|
l'approximation de premier ordre $\hat{F}_{R,1}(r)$
|
||
|
\eqref{eq:approximationsaddlepointREPordre1} % et de second ordre
|
||
|
% $\hat{F}_{R,2}(r)$ \eqref{eq:approximationsaddlepointREPordre2}
|
||
|
. On compare celle-ci à la valeur de la fonction de répartition
|
||
|
obtenue en intégrant numériquement la fonction de densité. Les
|
||
|
résultats sont présentés à la table \ref{tab:approximationrepartR1}.
|
||
|
|
||
|
% latex table generated in R 2.15.2 by xtable 1.7-1 package Mon Aug 19
|
||
|
% 16:49:26 2013
|
||
|
\begin{table}[ht]
|
||
|
\centering
|
||
|
\begin{tabular}{cccc}
|
||
|
& \multicolumn{2}{c}{\textbf{Fonction de répartition}} & \multicolumn{1}{c}{\textbf{Erreur relative}} \\
|
||
|
\hline
|
||
|
$r$ & $\hat{F}_{R,1}(r)$ & ${F}_{R}(r)$ & $(\hat{F}_{R,1}(r)-{F}_{R}(r))/{{F}_{R}(r)}$ \\
|
||
|
\hline
|
||
|
-0.03 & 0.007402 & 0.011577 & -0.360606 \\
|
||
|
-0.02 & 0.048942 & 0.064944 & -0.246402 \\
|
||
|
-0.01 & 0.249911 & 0.292034 & -0.144241 \\
|
||
|
0.00 & 0.625225 & 0.681167 & -0.082126 \\
|
||
|
0.01 & 0.857830 & 0.889832 & -0.035965 \\
|
||
|
0.02 & 0.951508 & 0.965916 & -0.014916 \\
|
||
|
0.03 & 0.984393 & 0.990080 & -0.005744 \\
|
||
|
\hline
|
||
|
\end{tabular}
|
||
|
\caption{Approximation de la fonction de répartition de $R_1$}
|
||
|
\label{tab:approximationrepartR1}
|
||
|
\end{table}
|
||
|
|
||
|
\section{Graphiques}
|
||
|
\label{sec:graphiques}
|
||
|
|
||
|
On illustre graphiquement, aux figures \ref{fig:densite1R1} et
|
||
|
\ref{fig:densite3R1}, la fonction de densité de la distribution de
|
||
|
Laplace asymétrique généralisée avec les paramètres estimés par la
|
||
|
méthode des moments généralisée et la méthode de l'équation
|
||
|
d'estimation optimale. La table \ref{tab:courbesdensite} décrit
|
||
|
chacune des courbes.
|
||
|
\begin{table}[!ht]
|
||
|
\centering
|
||
|
\begin{tabular}{lp{12cm}}
|
||
|
\hline
|
||
|
\textbf{Abbréviation} & \textbf{Description} \\
|
||
|
\hline
|
||
|
Emp. & Données empiriques. \\
|
||
|
Norm. & Densité de la distribution normale ayant les mêmes moyenne et variance que la variable aléatoire $R$. \\
|
||
|
Estim. & Densité de la distribution de Laplace asymétrique généralisée avec les paramètres estimés.\\
|
||
|
Pt selle o.1 & Approximation de premier ordre avec la méthode du point de selle. \\
|
||
|
FFT & Transformée de Fourier rapide. \\
|
||
|
\hline
|
||
|
\end{tabular}
|
||
|
\caption{Courbes de densité}
|
||
|
\label{tab:courbesdensite}
|
||
|
\end{table}
|
||
|
|
||
|
On remarquera au passage que la méthode du point de selle nécessite
|
||
|
une normalisation. La valeur de l'intégrale $c$
|
||
|
\eqref{eq:normalisationsaddle1} pour les quatre méthodes se trouve à
|
||
|
la table \ref{tab:intapproxpointselleR1}.
|
||
|
\begin{table}[!ht]
|
||
|
\centering
|
||
|
\begin{tabular}{ll}
|
||
|
\hline
|
||
|
\textbf{Méthode} & \textbf{Valeur de l'intégrale $c$}\\
|
||
|
\hline
|
||
|
Moments généralisée & 0.920148 \\
|
||
|
Estimation gaussienne & 0.932246 \\
|
||
|
Équation d'estimation optimale & 0.917326 \\
|
||
|
Équation d'estimation optimale modifiée & 0.925781 \\
|
||
|
\hline
|
||
|
\end{tabular}
|
||
|
\caption{Valeur de l'intégrale de l'approximation de la densité par la méthode du point de selle }
|
||
|
\label{tab:intapproxpointselleR1}
|
||
|
\end{table}
|
||
|
|
||
|
\begin{figure}[!ht]
|
||
|
\centering
|
||
|
\includegraphics[height=6in,
|
||
|
width=6in]{./graphiques/ABBEYN-densiteGALmu-7.pdf}
|
||
|
\caption{Densité de $R_1^{*}$ selon la méthode des moments
|
||
|
généralisée}
|
||
|
\label{fig:densite1R1}
|
||
|
\end{figure}
|
||
|
|
||
|
\begin{figure}[!ht]
|
||
|
\centering
|
||
|
\includegraphics[height=6in,
|
||
|
width=6in]{./graphiques/ABBEYN-densiteGALmu-5.pdf}
|
||
|
\caption{Densité de $R_1^{*}$ selon la méthode de l'équation
|
||
|
d'estimation optimale}
|
||
|
\label{fig:densite3R1}
|
||
|
\end{figure}
|
||
|
|
||
|
\clearpage
|
||
|
\section{Tests statistiques}
|
||
|
\label{sec:tests-statistiques}
|
||
|
|
||
|
On effectue le test du $\chi^2$ en utilisant sept classes optimales
|
||
|
déterminées par l'algorithme du logiciel GNU R. On obtient la fonction
|
||
|
de répartition à partir de la fonction caractéristique en utilisant la
|
||
|
formule d'inversion \eqref{eq:approxinvfncaract}. On se rappelle que
|
||
|
cet algorithme produit surtout des erreurs aux extrémités de la
|
||
|
distribution. Par contre, ce test donne davantage d'importance aux
|
||
|
classes ayant un plus grand nombre de données par construction. On
|
||
|
utilisera donc l'inversion plutôt que la méthode du point de selle. On
|
||
|
obtient la statistique $Q_{6}$ présentée à la table
|
||
|
\ref{tab:testchi2R1} à partir de la définition \eqref{eq:statchi2}. On
|
||
|
utilise un seuil de tolérance $\alpha = 5\%$.
|
||
|
\begin{table}[!ht]
|
||
|
\centering
|
||
|
\begin{tabular}{ll}
|
||
|
\hline
|
||
|
\textbf{Méthode} & \textbf{Valeur de la statistique $Q_{6}$} \\
|
||
|
\hline
|
||
|
Moments généralisée & 0.484919 \\
|
||
|
Estimation gaussienne & 0.473527 \\
|
||
|
Équation d'estimation optimale & 0.531888 \\
|
||
|
Équation d'estimation optimale modifiée & 0.494769 \\
|
||
|
\hline
|
||
|
\end{tabular}
|
||
|
\caption{Test du $\chi^2$}
|
||
|
\label{tab:testchi2R1}
|
||
|
\end{table}
|
||
|
|
||
|
Ce test ne permet pas de rejeter l'hypothèse de la distribution de
|
||
|
Laplace asymétrique généralisée avec les paramètres obtenus pour
|
||
|
aucune des méthodes d'estimation.
|
||
|
|
||
|
On effectue maintenant le test de Kolmogorov-Smirnov. Comme celui-ci
|
||
|
est basé sur la fonction de répartition, on utilisera la même méthode
|
||
|
que précédemment, impliquant l'inversion de la fonction
|
||
|
caractéristique. On évalue la fonction de répartition en chaque point
|
||
|
de l'échantillon $R_1^{*}$ et l'on obtient la statistique $D_{49}$
|
||
|
présentée à la table \ref{tab:testKSR1} à l'aide de la définition
|
||
|
\eqref{eq:statks}. En utilisant un seuil de tolérance de $\alpha=5\%$,
|
||
|
on obtient une valeur critique de $0.194286$.
|
||
|
|
||
|
\begin{table}[!ht]
|
||
|
\centering
|
||
|
\begin{tabular}{ll}
|
||
|
\hline
|
||
|
\textbf{Méthode} & \textbf{Valeur de la statistique $D_{49}$} \\
|
||
|
\hline
|
||
|
Moments généralisée & 0.0684329 \\
|
||
|
Estimation gaussienne & 0.0784436 \\
|
||
|
Équation d'estimation optimale & 0.0758317 \\
|
||
|
Équation d'estimation optimale modifiée & 0.074668 \\
|
||
|
\hline
|
||
|
\end{tabular}
|
||
|
\caption{Test de Kolmogorov-Smirnov}
|
||
|
\label{tab:testKSR1}
|
||
|
\end{table}
|
||
|
|
||
|
Encore une fois, on ne peut pas rejeter l'hypothèse de la distribution
|
||
|
de Laplace asymétrique généralisée avec les paramètres estimés pour
|
||
|
chacune des méthodes.
|
||
|
|
||
|
Ces deux tests sont approximatifs, puisque les paramètres n'ont pas
|
||
|
été estimés en minimisant la statistique utilisée. Cependant, on
|
||
|
obtient un test asymptotiquement exact en utilisant une statistique de
|
||
|
distance minimale basée sur la fonction génératrice des moments, tel
|
||
|
que développé à la section \ref{sec:test-de-distance}. Avec un seuil
|
||
|
de tolérance de $\alpha=5\%$, on obtient une valeur critique de
|
||
|
67.5048. Les statistiques obtenues sont présentées à la table
|
||
|
\ref{tab:testDMR1}.
|
||
|
|
||
|
\begin{table}[!ht]
|
||
|
\centering
|
||
|
\begin{tabular}{ll}
|
||
|
\hline
|
||
|
\textbf{Méthode} & \textbf{Valeur de la statistique $Td(F_{49},F_{\theta})$} \\
|
||
|
\hline
|
||
|
Moments généralisée & 0.226891 \\
|
||
|
Estimation gaussienne & 0.110573 \\
|
||
|
Équation d'estimation optimale & 0.074020 \\
|
||
|
Équation d'estimation optimale modifiée & 0.108625 \\
|
||
|
\hline
|
||
|
\end{tabular}
|
||
|
\caption{Test de distance minimale basé sur la fonction génératrice des moments}
|
||
|
\label{tab:testDMR1}
|
||
|
\end{table}
|
||
|
|
||
|
On ne peut pas rejeter l'hypothèse de la distribution de Laplace
|
||
|
asymétrique généralisée avec les paramètres estimés pour chacune des
|
||
|
méthodes avec ce test.
|
||
|
|
||
|
\section{Évaluation d'options}
|
||
|
\label{sec:evaluation-doptions}
|
||
|
|
||
|
À titre d'exemple, on évaluera une option européenne dont les
|
||
|
différentes caractéristiques figurent à la table
|
||
|
\ref{tab:caracteristiqueoptionR1}.
|
||
|
|
||
|
\begin{table}[!ht]
|
||
|
\centering
|
||
|
\begin{tabular}{ll}
|
||
|
\hline
|
||
|
\textbf{Caractéristique} & \textbf{Valeur} \\
|
||
|
\hline
|
||
|
Type & Option de vente \\
|
||
|
Échéance ($T$) & 30 jours \\
|
||
|
Valeur actuelle du titre ($S(0)$) & 299 \\
|
||
|
Prix d'exercice ($K$) & entre 95\% et 105\% de la valeur actuelle \\
|
||
|
Taux sans risque annuel ($r_f$) & 5\% \\
|
||
|
\hline
|
||
|
\end{tabular}
|
||
|
\caption{Caractéristiques de l'option}
|
||
|
\label{tab:caracteristiqueoptionR1}
|
||
|
\end{table}
|
||
|
|
||
|
À partir des paramètres de la table
|
||
|
\ref{tab:parametresdonneesorigineR1}, en utilisant l'équation
|
||
|
martingale appliquée à la distribution de Laplace asymétrique
|
||
|
généralisée \eqref{eq:martingaleGAL}, on obtient l'ensemble
|
||
|
correspondant pour la mesure neutre au risque. On rappelle que
|
||
|
celle-ci n'est pas unique étant donné que le processus de Laplace est
|
||
|
un processus de sauts. La table \ref{tab:paramrisqueneutreR1} présente
|
||
|
ces paramètres.
|
||
|
\begin{table}[!ht]
|
||
|
\centering
|
||
|
\begin{tabular}{lcccc}
|
||
|
\hline
|
||
|
& $\theta$ & $\sigma$ & $\mu$ & $\tau$ \\
|
||
|
\hline
|
||
|
Moments généralisée & -0.005824 & 0.008134 & 0.002983 & 1.973623 \\
|
||
|
Estimation gaussienne & -0.007062 & 0.007562 & 0.003535 & 2.016619 \\
|
||
|
Équation d'estimation optimale & -0.005993 & 0.008409 & 0.003460 & 1.750685 \\
|
||
|
Équation d'estimation optimale modifiée & -0.006487 & 0.007884 & 0.003340 & 1.961614 \\
|
||
|
\hline
|
||
|
\end{tabular}
|
||
|
\caption{Paramètres neutres au risque}
|
||
|
\label{tab:paramrisqueneutreR1}
|
||
|
\end{table}
|
||
|
|
||
|
On présente les graphiques de la valeur du prix de l'option de vente
|
||
|
pour les méthodes des moments généralisée et de l'équation d'estimation
|
||
|
optimale aux figures \ref{fig:prix1R1-1} et \ref{fig:prix1R1-3}. On
|
||
|
peut facilement remarquer le manque de précision de l'approche de
|
||
|
Carr-Madan, qui s'approche de la courbe de Black-Scholes lorsque le
|
||
|
titre est dans le cours et qui se met à osciller dès que le titre
|
||
|
est hors le cours. Les méthodes de Epps et de Heston donnent des
|
||
|
résultats très similaires, et l'approximation du point de selle
|
||
|
d'ordre 1 est très précise dans ce contexte.
|
||
|
\begin{figure}[!ht]
|
||
|
\centering
|
||
|
\includegraphics[height=6in,
|
||
|
width=6in]{./graphiques/ABBEYN-callGAL-7.pdf}
|
||
|
\caption{Prix de l'option selon les paramètres estimés avec la
|
||
|
méthode des moments généralisée}
|
||
|
\label{fig:prix1R1-1}
|
||
|
\end{figure}
|
||
|
|
||
|
\begin{figure}[!ht]
|
||
|
\centering
|
||
|
\includegraphics[height=6in,
|
||
|
width=6in]{./graphiques/ABBEYN-callGAL-5.pdf}
|
||
|
\caption{Prix de l'option selon les paramètres estimés avec la
|
||
|
méthode de l'équation d'estimation optimale}
|
||
|
\label{fig:prix1R1-3}
|
||
|
\end{figure}
|
||
|
|
||
|
%%% Local Variables:
|
||
|
%%% mode: latex
|
||
|
%%% TeX-master: "gabarit-maitrise"
|
||
|
%%% End:
|