91 lines
2.9 KiB
Text
91 lines
2.9 KiB
Text
|
\chapter{Modèles de volatilité stochastique}
|
||
|
\label{chap:modeles-volatilite}
|
||
|
|
||
|
\Opensolutionfile{reponses}[reponses-modeles-volatilite]
|
||
|
\Opensolutionfile{solutions}[solutions-modeles-volatilite]
|
||
|
|
||
|
\begin{Filesave}{reponses}
|
||
|
\bigskip
|
||
|
\section*{Réponses}
|
||
|
|
||
|
\end{Filesave}
|
||
|
|
||
|
\begin{Filesave}{solutions}
|
||
|
\section*{Chapitre \ref{chap:modeles-volatilite}}
|
||
|
\addcontentsline{toc}{section}{Chapitre \protect\ref{chap:modeles-volatilite}}
|
||
|
|
||
|
\end{Filesave}
|
||
|
|
||
|
<<echo=FALSE>>=
|
||
|
options(width = 55)
|
||
|
@
|
||
|
|
||
|
\begin{exercice}
|
||
|
On considère un processus ARCH(2) dont le carré des résidus répond à l'équation suivante \footnote{Cet exercice est inspiré de l'exercice 8 du chapitre 3 de Enders (2004)} :
|
||
|
\begin{align*}
|
||
|
\epsilon_t^2 &= \alpha_0 + \alpha_1\epsilon_{t-1}^2 + \alpha_2\epsilon_{t-2}^2.
|
||
|
\end{align*}
|
||
|
|
||
|
On suppose que les résidus proviennent du modèle suivant:
|
||
|
\begin{align*}
|
||
|
y_t &= a_0 + a_1 y_{t-1} + \epsilon_t.
|
||
|
\end{align*}
|
||
|
|
||
|
Trouvez la variance conditionnelle et inconditionnelle de $\left\{ y_t \right\}$.
|
||
|
\begin{sol}
|
||
|
On identifie d'abord la moyenne conditionnelle de $y_t$:
|
||
|
\begin{align}
|
||
|
E_{t-1}[y_t] &= E_{t-1}[a_0 + a_1 y_{t-1} + \epsilon_t] \\
|
||
|
&= a_0 + a_1 y_{t-1}
|
||
|
\end{align}
|
||
|
La variance conditionnelle peut alors s'obtenir en utilisant la définition habituelle:
|
||
|
\begin{align*}
|
||
|
V_{t-1}[y_t | y_{t-1}, y_{t-2}, \ldots] &= E_{t-1}[y_t - E_{t-1}[y_t]]^{2} \\
|
||
|
&= E_{t-1}[(a_0 + a_1 y_{t-1} + \epsilon_t)-(a_0 + a_1 y_{t-1})]^{2} \\
|
||
|
&= E_{t-1}[\epsilon_t]^{2} \\
|
||
|
&= E_{t-1}[\alpha_0 + \alpha_1\epsilon_{t-1}^2 + \alpha_2\epsilon_{t-2}^2] \\
|
||
|
&= \alpha_0 + \alpha_1\epsilon_{t-1}^2 + \alpha_2\epsilon_{t-2}^2
|
||
|
\end{align*}
|
||
|
|
||
|
La variance inconditionnelle s'obtient en trouvant la solution particulière pour $y_t$:
|
||
|
\begin{align*}
|
||
|
•y_t &= a_0 + a_1 y_{t-1} + \epsilon_t \\
|
||
|
&= (1+a_1)a_0 + a_1^2 y_{t-2} + a_1 \epsilon_{t-1} + \epsilon_t \\
|
||
|
&= \cdots \\
|
||
|
&= (a+a_1+a_2+a_3+\ldots)a_0 + \epsilon_t + a_1\epsilon_{t-1} + a_2\epsilon_{t-2} + \ldots \\
|
||
|
&= \frac{a_0}{1-a_1} + \sum_{i=0}^{\infty} a_1^{i}\epsilon_{t-i}
|
||
|
\end{align*}
|
||
|
|
||
|
On évalue la variance de cette dernière expression:
|
||
|
\begin{align*}
|
||
|
•Var[y_t] &= Var[\sum_{i=0}^{\infty} a_1^{i}\epsilon_{t-i}] \\
|
||
|
&= \sum_{i=0}^{\infty} a_1^{2i} Var[\epsilon_{t-i}] \\
|
||
|
&= \frac{\sigma^2}{1-a_1^2}
|
||
|
\end{align*}
|
||
|
|
||
|
À partir de la définition, on a que:
|
||
|
\begin{align*}
|
||
|
E[\epsilon_t^2] &= \alpha_0 + \alpha_1 E_[\epsilon_{t-1}^2] + \alpha_2 E[\epsilon_{t-2}^2].
|
||
|
\end{align*}
|
||
|
|
||
|
Comme la variance inconditionnelle de $\epsilon_t$ est identique à celle de $\epsilon_{t-1}$ et $\epsilon_{t-2}$, on peut affirmer que:
|
||
|
\begin{align*}
|
||
|
E[\epsilon_t^2] &= \frac{\alpha_0}{1-\alpha_1-\alpha_2} \\
|
||
|
&= \sigma^2.
|
||
|
\end{align*}
|
||
|
|
||
|
On obtient donc que la variance inconditionnelle de $y_t$ est
|
||
|
\begin{align*}
|
||
|
•Var[y_t] &= \frac{\alpha_0}{(1-\alpha_1-\alpha_2)(1-a_1^2)}.
|
||
|
\end{align*}
|
||
|
\end{sol}
|
||
|
\end{exercice}
|
||
|
|
||
|
\Closesolutionfile{solutions}
|
||
|
\Closesolutionfile{reponses}
|
||
|
|
||
|
%%% Local Variables:
|
||
|
%%% mode: latex
|
||
|
%%% TeX-master: "exercices_series_chrono"
|
||
|
%%% End:
|