Ajout mémoire version pré-dépot-final
This commit is contained in:
parent
3672d3bb4a
commit
4232470861
110 changed files with 106861 additions and 0 deletions
1002
graphiques/CH3-SIMGAMMAGAUSS.csv
Normal file
1002
graphiques/CH3-SIMGAMMAGAUSS.csv
Normal file
File diff suppressed because it is too large
Load diff
BIN
graphiques/CH3-SIMGAMMAGAUSS.pdf
Normal file
BIN
graphiques/CH3-SIMGAMMAGAUSS.pdf
Normal file
Binary file not shown.
BIN
graphiques/CH3-SIMULGAL0121.pdf
Normal file
BIN
graphiques/CH3-SIMULGAL0121.pdf
Normal file
Binary file not shown.
24
graphiques/ch3.r
Normal file
24
graphiques/ch3.r
Normal file
|
@ -0,0 +1,24 @@
|
|||
set.seed(908144032)
|
||||
|
||||
## GRAPHIQUE 1 ##
|
||||
s0 <- 100
|
||||
n <- 500
|
||||
## On simule des temps d'arrivée Gamma
|
||||
t <- c(0,rep(cumsum(rgamma(n,0.5)),each=2))
|
||||
## On simule des sauts gaussiens
|
||||
j <- head(c(0,0,rep(cumsum(rnorm(n,0.005/365,0.0025)),each=2)),-1)
|
||||
## On trace le parcours
|
||||
cbind(t,j)
|
||||
pdf("CH3-SIMGAMMAGAUSS.pdf")
|
||||
plot(t,s0*exp(j),type="l",xlab="t",ylab="Y(t)",main=" ")
|
||||
dev.off()
|
||||
write.csv(data.frame(Temps=t,Prix=s0*exp(j)),file="CH3-SIMGAMMAGAUSS.csv")
|
||||
|
||||
## GRAPHIQUE 2 ##
|
||||
source("../contenus/r/code/rGAL.r")
|
||||
|
||||
d1 <- rGALkappa(2500,0,1,2,1)
|
||||
pdf("CH3-SIMULGAL0121.pdf")
|
||||
hist(d1,prob=TRUE,col="grey",breaks=25,xlab="y",ylab="f(y)",main="")
|
||||
lines(density(d1),lwd=3)
|
||||
dev.off()
|
BIN
graphiques/increment1.dia
Normal file
BIN
graphiques/increment1.dia
Normal file
Binary file not shown.
198
graphiques/increment1.tex
Normal file
198
graphiques/increment1.tex
Normal file
|
@ -0,0 +1,198 @@
|
|||
% Graphic for TeX using PGF
|
||||
% Title: /home/francois/projet-de-maitrise/graphiques/increment1.dia
|
||||
% Creator: Dia v0.97.2
|
||||
% CreationDate: Mon Jul 29 16:42:05 2013
|
||||
% For: francois
|
||||
% \usepackage{tikz}
|
||||
% The following commands are not supported in PSTricks at present
|
||||
% We define them conditionally, so when they are implemented,
|
||||
% this pgf file will use them.
|
||||
\ifx\du\undefined
|
||||
\newlength{\du}
|
||||
\fi
|
||||
\setlength{\du}{15\unitlength}
|
||||
\begin{tikzpicture}
|
||||
\pgftransformxscale{1.000000}
|
||||
\pgftransformyscale{-1.000000}
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\definecolor{dialinecolor}{rgb}{1.000000, 1.000000, 1.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
\pgfsetlinewidth{0.100000\du}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetbuttcap
|
||||
{
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
% was here!!!
|
||||
\pgfsetarrowsend{stealth}
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\draw (19.200000\du,10.800000\du)--(28.800000\du,10.800000\du);
|
||||
}
|
||||
\pgfsetlinewidth{0.100000\du}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetbuttcap
|
||||
{
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
% was here!!!
|
||||
\pgfsetarrowsend{stealth}
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\draw (19.200000\du,10.800000\du)--(19.200000\du,3.600000\du);
|
||||
}
|
||||
\pgfsetlinewidth{0.100000\du}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetbuttcap
|
||||
{
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
% was here!!!
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\draw (20.400000\du,10.600000\du)--(20.400000\du,11.000000\du);
|
||||
}
|
||||
\pgfsetlinewidth{0.100000\du}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetbuttcap
|
||||
{
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
% was here!!!
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\draw (26.400000\du,10.600000\du)--(26.400000\du,11.000000\du);
|
||||
}
|
||||
\pgfsetlinewidth{0.100000\du}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetbuttcap
|
||||
{
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
% was here!!!
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\draw (19.000000\du,9.600000\du)--(19.400000\du,9.600000\du);
|
||||
}
|
||||
% setfont left to latex
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\node[anchor=west] at (20.200000\du,12.000000\du){0};
|
||||
% setfont left to latex
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\node[anchor=west] at (26.200000\du,12.000000\du){$T_1$};
|
||||
% setfont left to latex
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\node[anchor=west] at (18.200000\du,9.800000\du){0};
|
||||
% setfont left to latex
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\node[anchor=west] at (17.400000\du,6.200000\du){$X_1$};
|
||||
\pgfsetlinewidth{0.100000\du}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetbuttcap
|
||||
{
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
% was here!!!
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\draw (19.000000\du,6.000000\du)--(19.400000\du,6.000000\du);
|
||||
}
|
||||
\pgfsetlinewidth{0.100000\du}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetbuttcap
|
||||
{
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
% was here!!!
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\draw (26.200000\du,6.000000\du)--(27.400000\du,6.000000\du);
|
||||
}
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\draw (26.200000\du,6.000000\du)--(27.400000\du,6.000000\du);
|
||||
\pgfsetlinewidth{0.100000\du}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetmiterjoin
|
||||
\pgfsetbuttcap
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
\pgfpathmoveto{\pgfpoint{26.200000\du}{6.000000\du}}
|
||||
\pgfpathcurveto{\pgfpoint{26.200000\du}{5.875000\du}}{\pgfpoint{26.325000\du}{5.750000\du}}{\pgfpoint{26.450000\du}{5.750000\du}}
|
||||
\pgfpathcurveto{\pgfpoint{26.575000\du}{5.750000\du}}{\pgfpoint{26.700000\du}{5.875000\du}}{\pgfpoint{26.700000\du}{6.000000\du}}
|
||||
\pgfpathcurveto{\pgfpoint{26.700000\du}{6.125000\du}}{\pgfpoint{26.575000\du}{6.250000\du}}{\pgfpoint{26.450000\du}{6.250000\du}}
|
||||
\pgfpathcurveto{\pgfpoint{26.325000\du}{6.250000\du}}{\pgfpoint{26.200000\du}{6.125000\du}}{\pgfpoint{26.200000\du}{6.000000\du}}
|
||||
\pgfusepath{fill}
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\pgfpathmoveto{\pgfpoint{26.200000\du}{6.000000\du}}
|
||||
\pgfpathcurveto{\pgfpoint{26.200000\du}{5.875000\du}}{\pgfpoint{26.325000\du}{5.750000\du}}{\pgfpoint{26.450000\du}{5.750000\du}}
|
||||
\pgfpathcurveto{\pgfpoint{26.575000\du}{5.750000\du}}{\pgfpoint{26.700000\du}{5.875000\du}}{\pgfpoint{26.700000\du}{6.000000\du}}
|
||||
\pgfpathcurveto{\pgfpoint{26.700000\du}{6.125000\du}}{\pgfpoint{26.575000\du}{6.250000\du}}{\pgfpoint{26.450000\du}{6.250000\du}}
|
||||
\pgfpathcurveto{\pgfpoint{26.325000\du}{6.250000\du}}{\pgfpoint{26.200000\du}{6.125000\du}}{\pgfpoint{26.200000\du}{6.000000\du}}
|
||||
\pgfusepath{stroke}
|
||||
\pgfsetlinewidth{0.100000\du}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetbuttcap
|
||||
{
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
% was here!!!
|
||||
}
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\draw (20.200000\du,9.600000\du)--(26.050000\du,9.600000\du);
|
||||
\pgfsetlinewidth{0.100000\du}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetmiterjoin
|
||||
\pgfsetbuttcap
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
\pgfpathmoveto{\pgfpoint{20.200000\du}{9.600000\du}}
|
||||
\pgfpathcurveto{\pgfpoint{20.200000\du}{9.475000\du}}{\pgfpoint{20.325000\du}{9.350000\du}}{\pgfpoint{20.450000\du}{9.350000\du}}
|
||||
\pgfpathcurveto{\pgfpoint{20.575000\du}{9.350000\du}}{\pgfpoint{20.700000\du}{9.475000\du}}{\pgfpoint{20.700000\du}{9.600000\du}}
|
||||
\pgfpathcurveto{\pgfpoint{20.700000\du}{9.725000\du}}{\pgfpoint{20.575000\du}{9.850000\du}}{\pgfpoint{20.450000\du}{9.850000\du}}
|
||||
\pgfpathcurveto{\pgfpoint{20.325000\du}{9.850000\du}}{\pgfpoint{20.200000\du}{9.725000\du}}{\pgfpoint{20.200000\du}{9.600000\du}}
|
||||
\pgfusepath{fill}
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\pgfpathmoveto{\pgfpoint{20.200000\du}{9.600000\du}}
|
||||
\pgfpathcurveto{\pgfpoint{20.200000\du}{9.475000\du}}{\pgfpoint{20.325000\du}{9.350000\du}}{\pgfpoint{20.450000\du}{9.350000\du}}
|
||||
\pgfpathcurveto{\pgfpoint{20.575000\du}{9.350000\du}}{\pgfpoint{20.700000\du}{9.475000\du}}{\pgfpoint{20.700000\du}{9.600000\du}}
|
||||
\pgfpathcurveto{\pgfpoint{20.700000\du}{9.725000\du}}{\pgfpoint{20.575000\du}{9.850000\du}}{\pgfpoint{20.450000\du}{9.850000\du}}
|
||||
\pgfpathcurveto{\pgfpoint{20.325000\du}{9.850000\du}}{\pgfpoint{20.200000\du}{9.725000\du}}{\pgfpoint{20.200000\du}{9.600000\du}}
|
||||
\pgfusepath{stroke}
|
||||
\pgfsetlinewidth{0.100000\du}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetmiterjoin
|
||||
\pgfsetbuttcap
|
||||
\definecolor{dialinecolor}{rgb}{1.000000, 1.000000, 1.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
\pgfpathmoveto{\pgfpoint{26.550000\du}{9.600000\du}}
|
||||
\pgfpathcurveto{\pgfpoint{26.550000\du}{9.725000\du}}{\pgfpoint{26.425000\du}{9.850000\du}}{\pgfpoint{26.300000\du}{9.850000\du}}
|
||||
\pgfpathcurveto{\pgfpoint{26.175000\du}{9.850000\du}}{\pgfpoint{26.050000\du}{9.725000\du}}{\pgfpoint{26.050000\du}{9.600000\du}}
|
||||
\pgfpathcurveto{\pgfpoint{26.050000\du}{9.475000\du}}{\pgfpoint{26.175000\du}{9.350000\du}}{\pgfpoint{26.300000\du}{9.350000\du}}
|
||||
\pgfpathcurveto{\pgfpoint{26.425000\du}{9.350000\du}}{\pgfpoint{26.550000\du}{9.475000\du}}{\pgfpoint{26.550000\du}{9.600000\du}}
|
||||
\pgfusepath{fill}
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\pgfpathmoveto{\pgfpoint{26.550000\du}{9.600000\du}}
|
||||
\pgfpathcurveto{\pgfpoint{26.550000\du}{9.725000\du}}{\pgfpoint{26.425000\du}{9.850000\du}}{\pgfpoint{26.300000\du}{9.850000\du}}
|
||||
\pgfpathcurveto{\pgfpoint{26.175000\du}{9.850000\du}}{\pgfpoint{26.050000\du}{9.725000\du}}{\pgfpoint{26.050000\du}{9.600000\du}}
|
||||
\pgfpathcurveto{\pgfpoint{26.050000\du}{9.475000\du}}{\pgfpoint{26.175000\du}{9.350000\du}}{\pgfpoint{26.300000\du}{9.350000\du}}
|
||||
\pgfpathcurveto{\pgfpoint{26.425000\du}{9.350000\du}}{\pgfpoint{26.550000\du}{9.475000\du}}{\pgfpoint{26.550000\du}{9.600000\du}}
|
||||
\pgfusepath{stroke}
|
||||
\end{tikzpicture}
|
BIN
graphiques/normaletronque.dia
Normal file
BIN
graphiques/normaletronque.dia
Normal file
Binary file not shown.
1795
graphiques/normaletronque.log
Normal file
1795
graphiques/normaletronque.log
Normal file
File diff suppressed because it is too large
Load diff
112
graphiques/normaletronque.tex
Normal file
112
graphiques/normaletronque.tex
Normal file
|
@ -0,0 +1,112 @@
|
|||
% Graphic for TeX using PGF
|
||||
% Title: /home/francois/projet-de-maitrise/graphiques/normaletronque.dia
|
||||
% Creator: Dia v0.97.2
|
||||
% CreationDate: Tue Jul 30 16:24:46 2013
|
||||
% For: francois
|
||||
% \usepackage{tikz}
|
||||
% The following commands are not supported in PSTricks at present
|
||||
% We define them conditionally, so when they are implemented,
|
||||
% this pgf file will use them.
|
||||
\ifx\du\undefined
|
||||
\newlength{\du}
|
||||
\fi
|
||||
\setlength{\du}{15\unitlength}
|
||||
\begin{tikzpicture}
|
||||
\pgftransformxscale{1.000000}
|
||||
\pgftransformyscale{-1.000000}
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\definecolor{dialinecolor}{rgb}{1.000000, 1.000000, 1.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
\pgfsetlinewidth{0.100000\du}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetbuttcap
|
||||
{
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
% was here!!!
|
||||
\pgfsetarrowsstart{stealth}
|
||||
\pgfsetarrowsend{stealth}
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\draw (18.000000\du,24.000000\du)--(36.000000\du,24.000000\du);
|
||||
}
|
||||
\pgfsetlinewidth{0.100000\du}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetbuttcap
|
||||
{
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
% was here!!!
|
||||
\pgfsetarrowsend{stealth}
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\draw (27.000000\du,24.000000\du)--(27.000000\du,15.000000\du);
|
||||
}
|
||||
\pgfsetlinewidth{0.100000\du}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetmiterjoin
|
||||
\pgfsetbuttcap
|
||||
{
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
% was here!!!
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\pgfpathmoveto{\pgfpoint{21.000000\du}{24.000000\du}}
|
||||
\pgfpathcurveto{\pgfpoint{24.000000\du}{24.000000\du}}{\pgfpoint{25.008000\du}{18.000000\du}}{\pgfpoint{27.000000\du}{18.000000\du}}
|
||||
\pgfusepath{stroke}
|
||||
}
|
||||
\pgfsetlinewidth{0.100000\du}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetmiterjoin
|
||||
\pgfsetbuttcap
|
||||
{
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
% was here!!!
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\pgfpathmoveto{\pgfpoint{27.000000\du}{18.000000\du}}
|
||||
\pgfpathcurveto{\pgfpoint{29.324000\du}{18.000000\du}}{\pgfpoint{30.000000\du}{24.000000\du}}{\pgfpoint{33.000000\du}{24.000000\du}}
|
||||
\pgfusepath{stroke}
|
||||
}
|
||||
\pgfsetlinewidth{0.100000\du}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetmiterjoin
|
||||
\definecolor{dialinecolor}{rgb}{1.000000, 1.000000, 1.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
\fill (31.287500\du,22.975000\du)--(31.287500\du,23.900000\du)--(33.087500\du,23.900000\du)--(33.087500\du,22.975000\du)--cycle;
|
||||
\definecolor{dialinecolor}{rgb}{1.000000, 1.000000, 1.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\draw (31.287500\du,22.975000\du)--(31.287500\du,23.900000\du)--(33.087500\du,23.900000\du)--(33.087500\du,22.975000\du)--cycle;
|
||||
\pgfsetlinewidth{0.100000\du}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetbuttcap
|
||||
{
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
% was here!!!
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\draw (31.185444\du,23.681250\du)--(31.185444\du,24.312500\du);
|
||||
}
|
||||
% setfont left to latex
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\node[anchor=west] at (30.821374\du,24.943750\du){$w_0$};
|
||||
% setfont left to latex
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\node[anchor=west] at (34.881350\du,24.743750\du){$z_{w_0}$};
|
||||
% setfont left to latex
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\node[anchor=west] at (24.484382\du,16.243750\du){$f(z_{w_0})$};
|
||||
\end{tikzpicture}
|
BIN
graphiques/probdroite.dia
Normal file
BIN
graphiques/probdroite.dia
Normal file
Binary file not shown.
252
graphiques/probdroite.tex
Normal file
252
graphiques/probdroite.tex
Normal file
|
@ -0,0 +1,252 @@
|
|||
% Graphic for TeX using PGF
|
||||
% Title: /home/francois/projet-de-maitrise/graphiques/probdroite.dia
|
||||
% Creator: Dia v0.97.2
|
||||
% CreationDate: Tue Jul 30 16:06:31 2013
|
||||
% For: francois
|
||||
% \usepackage{tikz}
|
||||
% The following commands are not supported in PSTricks at present
|
||||
% We define them conditionally, so when they are implemented,
|
||||
% this pgf file will use them.
|
||||
\ifx\du\undefined
|
||||
\newlength{\du}
|
||||
\fi
|
||||
\setlength{\du}{15\unitlength}
|
||||
\begin{tikzpicture}
|
||||
\pgftransformxscale{1.000000}
|
||||
\pgftransformyscale{-1.000000}
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\definecolor{dialinecolor}{rgb}{1.000000, 1.000000, 1.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
\pgfsetlinewidth{0.100000\du}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetbuttcap
|
||||
{
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
% was here!!!
|
||||
\pgfsetarrowsend{latex}
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\draw (12.000000\du,0.000000\du)--(24.000000\du,0.000000\du);
|
||||
}
|
||||
\pgfsetlinewidth{0.100000\du}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetbuttcap
|
||||
{
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
% was here!!!
|
||||
\pgfsetarrowsend{latex}
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\draw (12.000000\du,0.000000\du)--(12.000000\du,-12.000000\du);
|
||||
}
|
||||
\pgfsetlinewidth{0.100000\du}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetmiterjoin
|
||||
\pgfsetbuttcap
|
||||
{
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
% was here!!!
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\pgfpathmoveto{\pgfpoint{23.400000\du}{0.000000\du}}
|
||||
\pgfpathcurveto{\pgfpoint{12.400000\du}{0.000000\du}}{\pgfpoint{16.000000\du}{-10.000000\du}}{\pgfpoint{12.000000\du}{-5.000000\du}}
|
||||
\pgfusepath{stroke}
|
||||
}
|
||||
\pgfsetlinewidth{0.100000\du}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetbuttcap
|
||||
{
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
% was here!!!
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\draw (19.000000\du,-0.700000\du)--(19.000000\du,0.000000\du);
|
||||
}
|
||||
\pgfsetlinewidth{0.100000\du}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetmiterjoin
|
||||
\pgfsetbuttcap
|
||||
{
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
% was here!!!
|
||||
{\pgfsetcornersarced{\pgfpoint{0.000000\du}{0.000000\du}}\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\draw (19.032329\du,-0.056240\du)--(19.700000\du,-0.400000\du);
|
||||
}}
|
||||
\pgfsetlinewidth{0.100000\du}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetmiterjoin
|
||||
\pgfsetbuttcap
|
||||
{
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
% was here!!!
|
||||
{\pgfsetcornersarced{\pgfpoint{0.000000\du}{0.000000\du}}\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\draw (19.700000\du,-0.500000\du)--(19.700000\du,0.000000\du);
|
||||
}}
|
||||
\pgfsetlinewidth{0.100000\du}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetmiterjoin
|
||||
\pgfsetbuttcap
|
||||
{
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
% was here!!!
|
||||
{\pgfsetcornersarced{\pgfpoint{0.000000\du}{0.000000\du}}\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\draw (19.700000\du,0.000000\du)--(20.100000\du,-0.300000\du);
|
||||
}}
|
||||
\pgfsetlinewidth{0.100000\du}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetbuttcap
|
||||
{
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
% was here!!!
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\draw (20.100000\du,-0.400000\du)--(20.100000\du,0.000000\du);
|
||||
}
|
||||
\pgfsetlinewidth{0.100000\du}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetmiterjoin
|
||||
\pgfsetbuttcap
|
||||
{
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
% was here!!!
|
||||
{\pgfsetcornersarced{\pgfpoint{0.000000\du}{0.000000\du}}\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\draw (20.100000\du,0.000000\du)--(20.500000\du,-0.200000\du);
|
||||
}}
|
||||
\pgfsetlinewidth{0.100000\du}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetmiterjoin
|
||||
\pgfsetbuttcap
|
||||
{
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
% was here!!!
|
||||
{\pgfsetcornersarced{\pgfpoint{0.000000\du}{0.000000\du}}\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\draw (20.500000\du,-0.300000\du)--(20.500000\du,0.000000\du);
|
||||
}}
|
||||
\pgfsetlinewidth{0.100000\du}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetmiterjoin
|
||||
\pgfsetbuttcap
|
||||
{
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
% was here!!!
|
||||
{\pgfsetcornersarced{\pgfpoint{0.000000\du}{0.000000\du}}\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\draw (20.900000\du,-0.200000\du)--(20.476079\du,-0.012490\du);
|
||||
}}
|
||||
\pgfsetlinewidth{0.100000\du}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetmiterjoin
|
||||
\pgfsetbuttcap
|
||||
{
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
% was here!!!
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\pgfpathmoveto{\pgfpoint{19.000000\du}{0.025000\du}}
|
||||
\pgfpathcurveto{\pgfpoint{19.468950\du}{0.025000\du}}{\pgfpoint{19.200000\du}{0.925000\du}}{\pgfpoint{20.500000\du}{0.925000\du}}
|
||||
\pgfusepath{stroke}
|
||||
}
|
||||
\pgfsetlinewidth{0.100000\du}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetmiterjoin
|
||||
\pgfsetbuttcap
|
||||
{
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
% was here!!!
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\pgfpathmoveto{\pgfpoint{21.500000\du}{0.925000\du}}
|
||||
\pgfpathcurveto{\pgfpoint{22.800000\du}{0.925000\du}}{\pgfpoint{22.558025\du}{0.025000\du}}{\pgfpoint{23.000000\du}{0.025000\du}}
|
||||
\pgfusepath{stroke}
|
||||
}
|
||||
\pgfsetlinewidth{0.100000\du}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetmiterjoin
|
||||
\pgfsetbuttcap
|
||||
{
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
% was here!!!
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\pgfpathmoveto{\pgfpoint{20.500000\du}{0.925000\du}}
|
||||
\pgfpathcurveto{\pgfpoint{20.700000\du}{0.925000\du}}{\pgfpoint{21.000000\du}{1.125000\du}}{\pgfpoint{21.000000\du}{1.425000\du}}
|
||||
\pgfusepath{stroke}
|
||||
}
|
||||
\pgfsetlinewidth{0.100000\du}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetmiterjoin
|
||||
\pgfsetbuttcap
|
||||
{
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
% was here!!!
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\pgfpathmoveto{\pgfpoint{21.500000\du}{0.925000\du}}
|
||||
\pgfpathcurveto{\pgfpoint{21.300000\du}{0.925000\du}}{\pgfpoint{21.000000\du}{1.125000\du}}{\pgfpoint{21.000000\du}{1.425000\du}}
|
||||
\pgfusepath{stroke}
|
||||
}
|
||||
% setfont left to latex
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\node[anchor=west] at (19.800000\du,2.175000\du){P(X>y)};
|
||||
% setfont left to latex
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\node[anchor=west] at (10.300000\du,-11.500000\du){f(x)};
|
||||
% setfont left to latex
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\node[anchor=west] at (23.400000\du,1.000000\du){x};
|
||||
% setfont left to latex
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\node[anchor=west] at (22.000000\du,1.000000\du){};
|
||||
\pgfsetlinewidth{0.100000\du}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetdash{}{0pt}
|
||||
\pgfsetbuttcap
|
||||
{
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetfillcolor{dialinecolor}
|
||||
% was here!!!
|
||||
\definecolor{dialinecolor}{rgb}{0.000000, 0.000000, 0.000000}
|
||||
\pgfsetstrokecolor{dialinecolor}
|
||||
\draw (20.900000\du,-0.200000\du)--(20.900000\du,0.000000\du);
|
||||
}
|
||||
\end{tikzpicture}
|
119
memoire/908144032.aux
Normal file
119
memoire/908144032.aux
Normal file
|
@ -0,0 +1,119 @@
|
|||
\relax
|
||||
\providecommand*{\memsetcounter}[2]{}
|
||||
\catcode`:\active
|
||||
\catcode`;\active
|
||||
\catcode`!\active
|
||||
\catcode`?\active
|
||||
\providecommand\HyperFirstAtBeginDocument{\AtBeginDocument}
|
||||
\HyperFirstAtBeginDocument{\ifx\hyper@anchor\@undefined
|
||||
\global\let\oldcontentsline\contentsline
|
||||
\gdef\contentsline#1#2#3#4{\oldcontentsline{#1}{#2}{#3}}
|
||||
\global\let\oldnewlabel\newlabel
|
||||
\gdef\newlabel#1#2{\newlabelxx{#1}#2}
|
||||
\gdef\newlabelxx#1#2#3#4#5#6{\oldnewlabel{#1}{{#2}{#3}}}
|
||||
\AtEndDocument{\ifx\hyper@anchor\@undefined
|
||||
\let\contentsline\oldcontentsline
|
||||
\let\newlabel\oldnewlabel
|
||||
\fi}
|
||||
\fi}
|
||||
\global\let\hyper@last\relax
|
||||
\gdef\HyperFirstAtBeginDocument#1{#1}
|
||||
\providecommand\HyField@AuxAddToFields[1]{}
|
||||
\bibstyle{plainnatmod}
|
||||
\select@language{french}
|
||||
\@writefile{toc}{\select@language{french}}
|
||||
\@writefile{lof}{\select@language{french}}
|
||||
\@writefile{lot}{\select@language{french}}
|
||||
\select@language{french}
|
||||
\@writefile{toc}{\select@language{french}}
|
||||
\@writefile{lof}{\select@language{french}}
|
||||
\@writefile{lot}{\select@language{french}}
|
||||
\@input{resume.aux}
|
||||
\@input{abstract.aux}
|
||||
\@writefile{toc}{\contentsline {chapter}{Table des mati{\`e}res}{vii}{section*.5}}
|
||||
\citation{madan1990variance}
|
||||
\@writefile{toc}{\contentsline {chapter}{Liste des tableaux}{xi}{section*.6}}
|
||||
\citation{mitchell1916critique}
|
||||
\@writefile{toc}{\contentsline {chapter}{Liste des figures}{xiii}{section*.7}}
|
||||
\@input{remerciements.aux}
|
||||
\@input{introduction.aux}
|
||||
\@input{chapitre1.aux}
|
||||
\@input{chapitre2.aux}
|
||||
\@input{chapitre3.aux}
|
||||
\@input{chapitre4.aux}
|
||||
\@input{chapitre5.aux}
|
||||
\@input{chapitre6.aux}
|
||||
\@input{chapitre7.aux}
|
||||
\@input{chapitre8.aux}
|
||||
\@input{chapitre9.aux}
|
||||
\@input{conclusion.aux}
|
||||
\@input{annexe1.aux}
|
||||
\@input{annexe2.aux}
|
||||
\@input{annexe3.aux}
|
||||
\bibdata{memoire}
|
||||
\bibcite{abramowitz1965handbook}{{1}{1965}{{Abramowitz et Stegun}}{{}}}
|
||||
\bibcite{applebaum2004levy}{{2}{2004}{{Applebaum}}{{}}}
|
||||
\bibcite{bachelier1900theorie}{{3}{1900}{{Bachelier}}{{}}}
|
||||
\bibcite{barndorff2001levy}{{4}{2001}{{Barndorff-Nielsen et~al.}}{{Barndorff-Nielsen, Mikosch, et Resnick}}}
|
||||
\bibcite{berkson1980minimum}{{5}{1980}{{Berkson}}{{}}}
|
||||
\bibcite{bingham2004risk}{{6}{2004}{{Bingham et Kiesel}}{{}}}
|
||||
\bibcite{black1976pricing}{{7}{1976}{{Black}}{{}}}
|
||||
\bibcite{black1973pricing}{{8}{1973}{{Black et Scholes}}{{}}}
|
||||
\bibcite{buckle1995bayesian}{{9}{1995}{{Buckle}}{{}}}
|
||||
\bibcite{butler2007saddlepoint}{{10}{2007}{{Butler}}{{}}}
|
||||
\bibcite{carr1999option}{{11}{1999}{{Carr et Madan}}{{}}}
|
||||
\bibcite{crowder1986consistency}{{12}{1986}{{Crowder}}{{}}}
|
||||
\bibcite{crowder1987linear}{{13}{1987}{{Crowder}}{{}}}
|
||||
\@writefile{toc}{\contentsline {chapter}{Bibliographie}{131}{section*.62}}
|
||||
\bibcite{daniels1954saddlepoint}{{14}{1954}{{Daniels}}{{}}}
|
||||
\bibcite{derman1996modelrisk}{{15}{1996}{{Derman}}{{}}}
|
||||
\bibcite{dodge2004statistique}{{16}{2004}{{Dodge}}{{}}}
|
||||
\bibcite{epps2007pricing}{{17}{2007}{{Epps}}{{}}}
|
||||
\bibcite{epps1983test}{{18}{1983}{{Epps et Pulley}}{{}}}
|
||||
\bibcite{everitt2006cambridge}{{19}{2006}{{Everitt et Skrondal}}{{}}}
|
||||
\bibcite{fama1993common}{{20}{1993}{{Fama et French}}{{}}}
|
||||
\bibcite{feuerverger1981efficiency}{{21}{1981}{{Feuerverger et McDunnough}}{{}}}
|
||||
\bibcite{fox1986large}{{22}{1986}{{Fox et Taqqu}}{{}}}
|
||||
\bibcite{gil1951note}{{23}{1951}{{Gil-Pelaez}}{{}}}
|
||||
\bibcite{gourieroux1989statistique}{{24}{1989}{{Gourieroux et Monfort}}{{}}}
|
||||
\bibcite{hall2005generalized}{{25}{2005}{{Hall}}{{}}}
|
||||
\bibcite{hamilton1994time}{{26}{1994}{{Hamilton}}{{}}}
|
||||
\bibcite{hansen1982large}{{27}{1982}{{Hansen}}{{}}}
|
||||
\bibcite{henze1990approximation}{{28}{1990}{{Henze}}{{}}}
|
||||
\bibcite{heston1993closed}{{29}{1993}{{Heston}}{{}}}
|
||||
\bibcite{hinkley1977estimation}{{30}{1977}{{Hinkley et Revankar}}{{}}}
|
||||
\bibcite{hogg1978introduction}{{31}{1978}{{Hogg et Craig}}{{}}}
|
||||
\bibcite{itkin2005pricing}{{32}{2005}{{Itkin}}{{}}}
|
||||
\bibcite{kotz2001laplace}{{33}{2001}{{Kotz et~al.}}{{Kotz, Kozubowski, et Podg{\'o}rski}}}
|
||||
\bibcite{KOUTROUVELIS01011980}{{34}{1980}{{Koutrouvelis}}{{}}}
|
||||
\bibcite{kozubowski1999class}{{35}{1999}{{Kozubowski et Podg{\'o}rski}}{{}}}
|
||||
\bibcite{kozubowski2001asymmetric}{{36}{2001}{{Kozubowski et Podg{\'o}rski}}{{}}}
|
||||
\bibcite{kyprianou2007introductory}{{37}{2007}{{Kyprianou}}{{}}}
|
||||
\bibcite{lugannani1980saddle}{{38}{1980}{{Lugannani et Rice}}{{}}}
|
||||
\bibcite{lukacs1960characteristic}{{39}{1960}{{Lukacs}}{{}}}
|
||||
\bibcite{luong1987minimum}{{40}{1987}{{Luong et Thompson}}{{}}}
|
||||
\bibcite{madan1990variance}{{41}{1990}{{Madan et Seneta}}{{}}}
|
||||
\bibcite{madan1998variance}{{42}{1998}{{Madan et~al.}}{{Madan, Carr, et Chang}}}
|
||||
\bibcite{mandelbrot1963variation}{{43}{1963}{{Mandelbrot}}{{}}}
|
||||
\bibcite{merton1976option}{{44}{1976}{{Merton}}{{}}}
|
||||
\bibcite{mitchell1916critique}{{45}{1916}{{Mitchell}}{{}}}
|
||||
\bibcite{newey1994large}{{46}{1994}{{Newey et McFadden}}{{}}}
|
||||
\bibcite{newey1987hypothesis}{{47}{1987}{{Newey et West}}{{}}}
|
||||
\bibcite{praetz1972distribution}{{48}{1972}{{Praetz}}{{}}}
|
||||
\bibcite{press1967compound}{{49}{1967}{{Press}}{{}}}
|
||||
\bibcite{sato1999levy}{{50}{1999}{{Sato}}{{}}}
|
||||
\bibcite{schoutens2003levy}{{51}{2003}{{Schoutens}}{{}}}
|
||||
\bibcite{RpackageVarianceGamma}{{52}{2012}{{Scott et Dong}}{{}}}
|
||||
\bibcite{seneta2004fitting}{{53}{2004}{{Seneta}}{{}}}
|
||||
\bibcite{shapiro1965analysis}{{54}{1965}{{Shapiro et Wilk}}{{}}}
|
||||
\bibcite{shephard1991characteristic}{{55}{1991}{{Shephard}}{{}}}
|
||||
\bibcite{spiegel1999schaum}{{56}{1999}{{Spiegel et Liu}}{{}}}
|
||||
\bibcite{stuart1987kendall}{{57}{1987}{{Stuart et Ord}}{{}}}
|
||||
\bibcite{teschl2004topics}{{58}{2004}{{Teschl}}{{}}}
|
||||
\bibcite{wang2003evaluating}{{59}{2003}{{Wang et~al.}}{{Wang, Tsang, et Marsaglia}}}
|
||||
\bibcite{wendel1961non}{{60}{1961}{{Wendel}}{{}}}
|
||||
\bibcite{wolfowitz1957minimum}{{61}{1957}{{Wolfowitz}}{{}}}
|
||||
\bibcite{wooldridge2001econometric}{{62}{2001}{{Wooldridge}}{{}}}
|
||||
\@input{deed.aux}
|
||||
\memsetcounter{lastsheet}{155}
|
||||
\memsetcounter{lastpage}{137}
|
361
memoire/908144032.bbl
Normal file
361
memoire/908144032.bbl
Normal file
|
@ -0,0 +1,361 @@
|
|||
\begin{thebibliography}{62}
|
||||
\providecommand{\natexlab}[1]{#1}
|
||||
\providecommand{\url}[1]{\texttt{#1}}
|
||||
\expandafter\ifx\csname urlstyle\endcsname\relax
|
||||
\providecommand{\doi}[1]{doi: #1}\else
|
||||
\providecommand{\doi}{doi: \begingroup \urlstyle{rm}\Url}\fi
|
||||
|
||||
\bibitem[Abramowitz et Stegun(1965)]{abramowitz1965handbook}
|
||||
Milton Abramowitz et Irene~A Stegun.
|
||||
\newblock \emph{Handbook of mathematical functions: with formulas, graphs, and
|
||||
mathematical tables}, volume~55.
|
||||
\newblock Dover publications, 1965.
|
||||
|
||||
\bibitem[Applebaum(2004)]{applebaum2004levy}
|
||||
David Applebaum.
|
||||
\newblock L{\'e}vy processes: From probability to finance and quantum groups.
|
||||
\newblock \emph{Notices of the AMS}, 51\penalty0 (11):\penalty0 1336--1347,
|
||||
2004.
|
||||
|
||||
\bibitem[Bachelier(1900)]{bachelier1900theorie}
|
||||
Louis Bachelier.
|
||||
\newblock \emph{Th{\'e}orie de la sp{\'e}culation}.
|
||||
\newblock Gauthier-Villars, 1900.
|
||||
|
||||
\bibitem[Barndorff-Nielsen et~al.(2001)Barndorff-Nielsen, Mikosch, et
|
||||
Resnick]{barndorff2001levy}
|
||||
O.E.E. Barndorff-Nielsen, T.E. Mikosch, et S.I.E. Resnick.
|
||||
\newblock \emph{L{\'e}vy Processes: Theory and Applications}.
|
||||
\newblock Birkhäuser, 2001.
|
||||
\newblock ISBN 9780817641672.
|
||||
\newblock URL \url{http://books.google.ca/books?id=ExpTdTauXMwC}.
|
||||
|
||||
\bibitem[Berkson(1980)]{berkson1980minimum}
|
||||
Joseph Berkson.
|
||||
\newblock Minimum chi-square, not maximum likelihood!
|
||||
\newblock \emph{The Annals of Statistics}, pages 457--487, 1980.
|
||||
|
||||
\bibitem[Bingham et Kiesel(2004)]{bingham2004risk}
|
||||
Nicholas~H Bingham et R{\"u}diger Kiesel.
|
||||
\newblock \emph{Risk-neutral valuation: Pricing and hedging of financial
|
||||
derivatives}.
|
||||
\newblock Springer, 2004.
|
||||
|
||||
\bibitem[Black(1976)]{black1976pricing}
|
||||
Fischer Black.
|
||||
\newblock The pricing of commodity contracts.
|
||||
\newblock \emph{Journal of financial economics}, 3\penalty0 (1):\penalty0
|
||||
167--179, 1976.
|
||||
|
||||
\bibitem[Black et Scholes(1973)]{black1973pricing}
|
||||
Fischer Black et Myron Scholes.
|
||||
\newblock The pricing of options and corporate liabilities.
|
||||
\newblock \emph{The journal of political economy}, pages 637--654, 1973.
|
||||
|
||||
\bibitem[Buckle(1995)]{buckle1995bayesian}
|
||||
DJ~Buckle.
|
||||
\newblock Bayesian inference for stable distributions.
|
||||
\newblock \emph{Journal of the American Statistical Association}, 90\penalty0
|
||||
(430):\penalty0 605--613, 1995.
|
||||
|
||||
\bibitem[Butler(2007)]{butler2007saddlepoint}
|
||||
Ronald~W Butler.
|
||||
\newblock \emph{Saddlepoint approximations with applications}, volume~22.
|
||||
\newblock Cambridge University Press, 2007.
|
||||
|
||||
\bibitem[Carr et Madan(1999)]{carr1999option}
|
||||
Peter Carr et Dilip Madan.
|
||||
\newblock Option valuation using the fast fourier transform.
|
||||
\newblock \emph{Journal of Computational Finance}, 2\penalty0 (4):\penalty0
|
||||
61--73, 1999.
|
||||
|
||||
\bibitem[Crowder(1986)]{crowder1986consistency}
|
||||
Martin Crowder.
|
||||
\newblock On consistency and inconsistency of estimating equations.
|
||||
\newblock \emph{Econometric Theory}, pages 305--330, 1986.
|
||||
|
||||
\bibitem[Crowder(1987)]{crowder1987linear}
|
||||
Martin Crowder.
|
||||
\newblock On linear and quadratic estimating functions.
|
||||
\newblock \emph{Biometrika}, 74\penalty0 (3):\penalty0 591--597, 1987.
|
||||
|
||||
\bibitem[Daniels(1954)]{daniels1954saddlepoint}
|
||||
Henry~E Daniels.
|
||||
\newblock Saddlepoint approximations in statistics.
|
||||
\newblock \emph{The Annals of Mathematical Statistics}, pages 631--650, 1954.
|
||||
|
||||
\bibitem[Derman(1996)]{derman1996modelrisk}
|
||||
Emanuel Derman.
|
||||
\newblock Model risk.
|
||||
\newblock Technical report, Goldman Sachs, 1996.
|
||||
|
||||
\bibitem[Dodge(2004)]{dodge2004statistique}
|
||||
Yadolah Dodge.
|
||||
\newblock \emph{Statistique: dictionnaire encyclop{\'e}dique}.
|
||||
\newblock Springer Verlag France, 2004.
|
||||
|
||||
\bibitem[Epps(2007)]{epps2007pricing}
|
||||
Thomas~W Epps.
|
||||
\newblock \emph{Pricing derivative securities}.
|
||||
\newblock World Scientific Publishing Company Incorporated, 2007.
|
||||
|
||||
\bibitem[Epps et Pulley(1983)]{epps1983test}
|
||||
Thomas~W Epps et Lawrence~B Pulley.
|
||||
\newblock A test for normality based on the empirical characteristic function.
|
||||
\newblock \emph{Biometrika}, 70\penalty0 (3):\penalty0 723--726, 1983.
|
||||
|
||||
\bibitem[Everitt et Skrondal(2006)]{everitt2006cambridge}
|
||||
Brian Everitt et Anders Skrondal.
|
||||
\newblock \emph{The Cambridge dictionary of statistics}, volume~4.
|
||||
\newblock Cambridge University Press Cambridge, 2006.
|
||||
|
||||
\bibitem[Fama et French(1993)]{fama1993common}
|
||||
Eugene~F Fama et Kenneth~R French.
|
||||
\newblock Common risk factors in the returns on stocks and bonds.
|
||||
\newblock \emph{Journal of financial economics}, 33\penalty0 (1):\penalty0
|
||||
3--56, 1993.
|
||||
|
||||
\bibitem[Feuerverger et McDunnough(1981)]{feuerverger1981efficiency}
|
||||
Andrey Feuerverger et Philip McDunnough.
|
||||
\newblock On the efficiency of empirical characteristic function procedures.
|
||||
\newblock \emph{Journal of the Royal Statistical Society. Series B
|
||||
(Methodological)}, pages 20--27, 1981.
|
||||
|
||||
\bibitem[Fox et Taqqu(1986)]{fox1986large}
|
||||
Robert Fox et Murad~S Taqqu.
|
||||
\newblock Large-sample properties of parameter estimates for strongly dependent
|
||||
stationary gaussian time series.
|
||||
\newblock \emph{The Annals of Statistics}, 14\penalty0 (2):\penalty0 517--532,
|
||||
1986.
|
||||
|
||||
\bibitem[Gil-Pelaez(1951)]{gil1951note}
|
||||
J~Gil-Pelaez.
|
||||
\newblock Note on the inversion theorem.
|
||||
\newblock \emph{Biometrika}, 38\penalty0 (3-4):\penalty0 481--482, 1951.
|
||||
|
||||
\bibitem[Gourieroux et Monfort(1989)]{gourieroux1989statistique}
|
||||
Christian Gourieroux et Alain Monfort.
|
||||
\newblock \emph{Statistique et mod{\`e}les {\'e}conom{\'e}triques: Notions
|
||||
g{\'e}n{\'e}rales, estimation, pr{\'e}vision, algorithmes}, volume~1.
|
||||
\newblock Economica, 1989.
|
||||
|
||||
\bibitem[Hall(2005)]{hall2005generalized}
|
||||
Alastair~R Hall.
|
||||
\newblock \emph{Generalized method of moments}.
|
||||
\newblock Oxford University Press Oxford, 2005.
|
||||
|
||||
\bibitem[Hamilton(1994)]{hamilton1994time}
|
||||
James~Douglas Hamilton.
|
||||
\newblock \emph{Time series analysis}, volume~2.
|
||||
\newblock Cambridge Univ Press, 1994.
|
||||
|
||||
\bibitem[Hansen(1982)]{hansen1982large}
|
||||
Lars~Peter Hansen.
|
||||
\newblock Large sample properties of generalized method of moments estimators.
|
||||
\newblock \emph{Econometrica: Journal of the Econometric Society}, pages
|
||||
1029--1054, 1982.
|
||||
|
||||
\bibitem[Henze(1990)]{henze1990approximation}
|
||||
N~Henze.
|
||||
\newblock An approximation to the limit distribution of the epps-pulley test
|
||||
statistic for normality.
|
||||
\newblock \emph{Metrika}, 37\penalty0 (1):\penalty0 7--18, 1990.
|
||||
|
||||
\bibitem[Heston(1993)]{heston1993closed}
|
||||
Steven~L Heston.
|
||||
\newblock A closed-form solution for options with stochastic volatility with
|
||||
applications to bond and currency options.
|
||||
\newblock \emph{Review of financial studies}, 6\penalty0 (2):\penalty0
|
||||
327--343, 1993.
|
||||
|
||||
\bibitem[Hinkley et Revankar(1977)]{hinkley1977estimation}
|
||||
David~V Hinkley et Nagesh~S Revankar.
|
||||
\newblock Estimation of the pareto law from underreported data: A further
|
||||
analysis.
|
||||
\newblock \emph{Journal of Econometrics}, 5\penalty0 (1):\penalty0 1--11, 1977.
|
||||
|
||||
\bibitem[Hogg et Craig(1978)]{hogg1978introduction}
|
||||
R.V. Hogg et A.T. Craig.
|
||||
\newblock \emph{Introduction to mathematical statistics}.
|
||||
\newblock Macmillan, 1978.
|
||||
\newblock ISBN 9780029789902.
|
||||
\newblock URL \url{http://books.google.ca/books?id=OZYQAQAAIAAJ}.
|
||||
|
||||
\bibitem[Itkin(2005)]{itkin2005pricing}
|
||||
Andrey Itkin.
|
||||
\newblock Pricing options with vg model using fft.
|
||||
\newblock \emph{arXiv preprint physics/0503137}, 2005.
|
||||
|
||||
\bibitem[Kotz et~al.(2001)Kotz, Kozubowski, et Podg{\'o}rski]{kotz2001laplace}
|
||||
S.~Kotz, T.J. Kozubowski, et K.~Podg{\'o}rski.
|
||||
\newblock \emph{The Laplace Distribution and Generalizations: A Revisit With
|
||||
Applications to Communications, Exonomics, Engineering, and Finance}.
|
||||
\newblock Progress in Mathematics Series. Birkh{\"a}user, 2001.
|
||||
\newblock ISBN 9780817641665.
|
||||
\newblock URL \url{http://books.google.ca/books?id=cb8B07hwULUC}.
|
||||
|
||||
\bibitem[Koutrouvelis(1980)]{KOUTROUVELIS01011980}
|
||||
I.~A. Koutrouvelis.
|
||||
\newblock A goodness-of-fit test of simple hypotheses based on the empirical
|
||||
characteristic function.
|
||||
\newblock \emph{Biometrika}, 67\penalty0 (1):\penalty0 238--240, 1980.
|
||||
\newblock \doi{10.1093/biomet/67.1.238}.
|
||||
\newblock URL \url{http://biomet.oxfordjournals.org/content/67/1/238.abstract}.
|
||||
|
||||
\bibitem[Kozubowski et Podg{\'o}rski(1999)]{kozubowski1999class}
|
||||
Tomasz~J Kozubowski et Krzysztof Podg{\'o}rski.
|
||||
\newblock A class of asymmetric distributions.
|
||||
\newblock \emph{Actuarial Research Clearing House}, 1:\penalty0 113--134, 1999.
|
||||
|
||||
\bibitem[Kozubowski et Podg{\'o}rski(2001)]{kozubowski2001asymmetric}
|
||||
Tomasz~J Kozubowski et Krzysztof Podg{\'o}rski.
|
||||
\newblock Asymmetric laplace laws and modeling financial data.
|
||||
\newblock \emph{Mathematical and computer modelling}, 34\penalty0 (9):\penalty0
|
||||
1003--1021, 2001.
|
||||
|
||||
\bibitem[Kyprianou(2007)]{kyprianou2007introductory}
|
||||
Andreas~E Kyprianou.
|
||||
\newblock \emph{Introductory lectures on fluctuations of L{\'e}vy processes
|
||||
with applications}.
|
||||
\newblock Springer, 2007.
|
||||
|
||||
\bibitem[Lugannani et Rice(1980)]{lugannani1980saddle}
|
||||
Robert Lugannani et Stephen Rice.
|
||||
\newblock Saddle point approximation for the distribution of the sum of
|
||||
independent random variables.
|
||||
\newblock \emph{Advances in applied probability}, pages 475--490, 1980.
|
||||
|
||||
\bibitem[Lukacs(1960)]{lukacs1960characteristic}
|
||||
Eugene Lukacs.
|
||||
\newblock \emph{Characteristic functions}, volume~4.
|
||||
\newblock Griffin London, 1960.
|
||||
|
||||
\bibitem[Luong et Thompson(1987)]{luong1987minimum}
|
||||
A~Luong et ME~Thompson.
|
||||
\newblock Minimum-distance methods based on quadratic distances for transforms.
|
||||
\newblock \emph{Canadian Journal of Statistics}, 15\penalty0 (3):\penalty0
|
||||
239--251, 1987.
|
||||
|
||||
\bibitem[Madan et Seneta(1990)]{madan1990variance}
|
||||
Dilip~B Madan et Eugene Seneta.
|
||||
\newblock The variance gamma (vg) model for share market returns.
|
||||
\newblock \emph{Journal of business}, pages 511--524, 1990.
|
||||
|
||||
\bibitem[Madan et~al.(1998)Madan, Carr, et Chang]{madan1998variance}
|
||||
Dilip~B Madan, Peter~P Carr, et Eric~C Chang.
|
||||
\newblock The variance gamma process and option pricing.
|
||||
\newblock \emph{European Finance Review}, 2\penalty0 (1):\penalty0 79--105,
|
||||
1998.
|
||||
|
||||
\bibitem[Mandelbrot(1963)]{mandelbrot1963variation}
|
||||
B.~Mandelbrot.
|
||||
\newblock The variation of certain speculative prices.
|
||||
\newblock \emph{Journal of business}, pages 394--419, 1963.
|
||||
|
||||
\bibitem[Merton(1976)]{merton1976option}
|
||||
Robert~C Merton.
|
||||
\newblock Option pricing when underlying stock returns are discontinuous.
|
||||
\newblock \emph{Journal of financial economics}, 3\penalty0 (1):\penalty0
|
||||
125--144, 1976.
|
||||
|
||||
\bibitem[Mitchell(1916)]{mitchell1916critique}
|
||||
Wesley~C Mitchell.
|
||||
\newblock A critique of index numbers of the prices of stocks.
|
||||
\newblock \emph{The Journal of Political Economy}, pages 625--693, 1916.
|
||||
|
||||
\bibitem[Newey et McFadden(1994)]{newey1994large}
|
||||
Whitney~K Newey et Daniel McFadden.
|
||||
\newblock Large sample estimation and hypothesis testing.
|
||||
\newblock \emph{Handbook of econometrics}, 4:\penalty0 2111--2245, 1994.
|
||||
|
||||
\bibitem[Newey et West(1987)]{newey1987hypothesis}
|
||||
Whitney~K Newey et Kenneth~D West.
|
||||
\newblock Hypothesis testing with efficient method of moments estimation.
|
||||
\newblock \emph{International Economic Review}, 28\penalty0 (3):\penalty0
|
||||
777--787, 1987.
|
||||
|
||||
\bibitem[Praetz(1972)]{praetz1972distribution}
|
||||
Peter~D Praetz.
|
||||
\newblock The distribution of share price changes.
|
||||
\newblock \emph{Journal of business}, pages 49--55, 1972.
|
||||
|
||||
\bibitem[Press(1967)]{press1967compound}
|
||||
S~James Press.
|
||||
\newblock A compound events model for security prices.
|
||||
\newblock \emph{Journal of Business}, pages 317--335, 1967.
|
||||
|
||||
\bibitem[Sato(1999)]{sato1999levy}
|
||||
K.~Sato.
|
||||
\newblock \emph{L{\'e}vy Processes and Infinitely Divisible Distributions}.
|
||||
\newblock Cambridge Studies in Advanced Mathematics. Cambridge University
|
||||
Press, 1999.
|
||||
\newblock ISBN 9780521553025.
|
||||
\newblock URL \url{http://books.google.ca/books?id=CwT5BNG0-owC}.
|
||||
|
||||
\bibitem[Schoutens(2003)]{schoutens2003levy}
|
||||
Wim Schoutens.
|
||||
\newblock \emph{L{\'e}vy processes in Finance}.
|
||||
\newblock Wiley, 2003.
|
||||
|
||||
\bibitem[Scott et Dong(2012)]{RpackageVarianceGamma}
|
||||
David Scott et Christine~Yang Dong.
|
||||
\newblock \emph{VarianceGamma: The Variance Gamma Distribution}, 2012.
|
||||
\newblock URL \url{http://CRAN.R-project.org/package=VarianceGamma}.
|
||||
\newblock R package version 0.3-1.
|
||||
|
||||
\bibitem[Seneta(2004)]{seneta2004fitting}
|
||||
Eugene Seneta.
|
||||
\newblock Fitting the variance-gamma model to financial data.
|
||||
\newblock \emph{Journal of Applied Probability}, pages 177--187, 2004.
|
||||
|
||||
\bibitem[Shapiro et Wilk(1965)]{shapiro1965analysis}
|
||||
Samuel~Sanford Shapiro et Martin~B Wilk.
|
||||
\newblock An analysis of variance test for normality (complete samples).
|
||||
\newblock \emph{Biometrika}, 52\penalty0 (3/4):\penalty0 591--611, 1965.
|
||||
|
||||
\bibitem[Shephard(1991)]{shephard1991characteristic}
|
||||
Neil~G Shephard.
|
||||
\newblock From characteristic function to distribution function: a simple
|
||||
framework for the theory.
|
||||
\newblock \emph{Econometric Theory}, 7\penalty0 (04):\penalty0 519--529, 1991.
|
||||
|
||||
\bibitem[Spiegel et Liu(1999)]{spiegel1999schaum}
|
||||
Murray~R Spiegel et John Liu.
|
||||
\newblock \emph{Schaum's mathematical handbook of formulas and tables}, volume
|
||||
1000.
|
||||
\newblock McGraw-Hill, 1999.
|
||||
|
||||
\bibitem[Stuart et Ord(1987)]{stuart1987kendall}
|
||||
Alan Stuart et J~Keith Ord.
|
||||
\newblock \emph{Kendall’s advanced theory of statistics, Vol. 1}.
|
||||
\newblock Oxford University Press, New York, 1987.
|
||||
|
||||
\bibitem[Teschl(2004)]{teschl2004topics}
|
||||
Gerald Teschl.
|
||||
\newblock Topics in real and functional analysis.
|
||||
\newblock \emph{unpublished, available online at
|
||||
\url{http://www.mat.univie.ac.at/\~gerald}}, 2004.
|
||||
|
||||
\bibitem[Wang et~al.(2003)Wang, Tsang, et Marsaglia]{wang2003evaluating}
|
||||
Jingbo Wang, Wai~Wan Tsang, et George Marsaglia.
|
||||
\newblock Evaluating kolmogorov's distribution.
|
||||
\newblock \emph{Journal of Statistical Software}, 8\penalty0 (18):\penalty0
|
||||
1--4, 2003.
|
||||
|
||||
\bibitem[Wendel(1961)]{wendel1961non}
|
||||
JG~Wendel.
|
||||
\newblock The non-absolute convergence of gil-pelaez'inversion integral.
|
||||
\newblock \emph{The Annals of Mathematical Statistics}, 32\penalty0
|
||||
(1):\penalty0 338--339, 1961.
|
||||
|
||||
\bibitem[Wolfowitz(1957)]{wolfowitz1957minimum}
|
||||
Jacob Wolfowitz.
|
||||
\newblock The minimum distance method.
|
||||
\newblock \emph{The Annals of Mathematical Statistics}, pages 75--88, 1957.
|
||||
|
||||
\bibitem[Wooldridge(2001)]{wooldridge2001econometric}
|
||||
Jeffrey~M Wooldridge.
|
||||
\newblock \emph{Econometric analysis of cross section and panel data}.
|
||||
\newblock MIT press, 2001.
|
||||
|
||||
\end{thebibliography}
|
64
memoire/908144032.blg
Normal file
64
memoire/908144032.blg
Normal file
|
@ -0,0 +1,64 @@
|
|||
This is BibTeX, Version 0.99d (TeX Live 2012/Debian)
|
||||
Capacity: max_strings=35307, hash_size=35307, hash_prime=30011
|
||||
The top-level auxiliary file: 908144032.aux
|
||||
The style file: plainnatmod.bst
|
||||
A level-1 auxiliary file: resume.aux
|
||||
A level-1 auxiliary file: abstract.aux
|
||||
A level-1 auxiliary file: remerciements.aux
|
||||
A level-1 auxiliary file: introduction.aux
|
||||
A level-1 auxiliary file: chapitre1.aux
|
||||
A level-1 auxiliary file: chapitre2.aux
|
||||
A level-1 auxiliary file: chapitre3.aux
|
||||
A level-1 auxiliary file: chapitre4.aux
|
||||
A level-1 auxiliary file: chapitre5.aux
|
||||
A level-1 auxiliary file: chapitre6.aux
|
||||
A level-1 auxiliary file: chapitre7.aux
|
||||
A level-1 auxiliary file: chapitre8.aux
|
||||
A level-1 auxiliary file: chapitre9.aux
|
||||
A level-1 auxiliary file: conclusion.aux
|
||||
A level-1 auxiliary file: annexe1.aux
|
||||
A level-1 auxiliary file: annexe2.aux
|
||||
A level-1 auxiliary file: annexe3.aux
|
||||
A level-1 auxiliary file: deed.aux
|
||||
Database file #1: memoire.bib
|
||||
You've used 62 entries,
|
||||
2773 wiz_defined-function locations,
|
||||
971 strings with 13495 characters,
|
||||
and the built_in function-call counts, 25173 in all, are:
|
||||
= -- 2351
|
||||
> -- 953
|
||||
< -- 79
|
||||
+ -- 341
|
||||
- -- 279
|
||||
* -- 1701
|
||||
:= -- 3797
|
||||
add.period$ -- 199
|
||||
call.type$ -- 62
|
||||
change.case$ -- 259
|
||||
chr.to.int$ -- 62
|
||||
cite$ -- 124
|
||||
duplicate$ -- 1356
|
||||
empty$ -- 2325
|
||||
format.name$ -- 387
|
||||
if$ -- 5400
|
||||
int.to.chr$ -- 1
|
||||
int.to.str$ -- 1
|
||||
missing$ -- 80
|
||||
newline$ -- 329
|
||||
num.names$ -- 248
|
||||
pop$ -- 578
|
||||
preamble$ -- 1
|
||||
purify$ -- 217
|
||||
quote$ -- 0
|
||||
skip$ -- 1031
|
||||
stack$ -- 0
|
||||
substring$ -- 1122
|
||||
swap$ -- 191
|
||||
text.length$ -- 21
|
||||
text.prefix$ -- 0
|
||||
top$ -- 0
|
||||
type$ -- 582
|
||||
warning$ -- 0
|
||||
while$ -- 275
|
||||
width$ -- 0
|
||||
write$ -- 821
|
30
memoire/908144032.lof
Normal file
30
memoire/908144032.lof
Normal file
|
@ -0,0 +1,30 @@
|
|||
\select@language {french}
|
||||
\select@language {french}
|
||||
\addvspace {10pt}
|
||||
\contentsline {figure}{\numberline {1.1}{\ignorespaces Mod\IeC {\`e}le de Bachelier: probabilit\IeC {\'e} compos\IeC {\'e}e\relax }}{8}{figure.caption.12}
|
||||
\contentsline {figure}{\numberline {1.2}{\ignorespaces Distribution des rendements annuels de 40 titres boursiers, de 1890 \IeC {\`a} 1915, Table XVIII de \cite {mitchell1916critique}\relax }}{10}{figure.caption.13}
|
||||
\addvspace {10pt}
|
||||
\contentsline {figure}{\numberline {2.1}{\ignorespaces Premier incr\IeC {\'e}ment d'un processus subordonn\IeC {\'e}\relax }}{23}{figure.caption.16}
|
||||
\contentsline {figure}{\numberline {2.2}{\ignorespaces Simulation d'un processus de Wiener subordonn\IeC {\'e} par un processus gamma\relax }}{24}{figure.caption.17}
|
||||
\contentsline {figure}{\numberline {2.3}{\ignorespaces Fonction de densit\IeC {\'e} de la distribution Laplace asym\IeC {\'e}trique g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e avec diff\IeC {\'e}rents param\IeC {\`e}tres: $GAL(y;\theta ,\sigma ,\kappa ,\tau )$\relax }}{30}{figure.caption.19}
|
||||
\contentsline {figure}{\numberline {2.4}{\ignorespaces Histogramme et estimateur de densit\IeC {\'e} par noyau de 2500 r\IeC {\'e}alisations de la variable al\IeC {\'e}atoire $Y\sim GAL(\theta =0,\sigma =1,\kappa =2,\tau =1)$\relax }}{34}{figure.caption.20}
|
||||
\addvspace {10pt}
|
||||
\contentsline {figure}{\numberline {3.1}{\ignorespaces Probabilit\IeC {\'e} \IeC {\`a} l'extr\IeC {\'e}mit\IeC {\'e} du support\relax }}{40}{figure.caption.23}
|
||||
\contentsline {figure}{\numberline {3.2}{\ignorespaces Distribution normale tronqu\IeC {\'e}e \IeC {\`a} $w_0$\relax }}{41}{figure.caption.24}
|
||||
\addvspace {10pt}
|
||||
\addvspace {10pt}
|
||||
\addvspace {10pt}
|
||||
\addvspace {10pt}
|
||||
\addvspace {10pt}
|
||||
\addvspace {10pt}
|
||||
\contentsline {figure}{\numberline {9.1}{\ignorespaces Repr\IeC {\'e}sentation en s\IeC {\'e}rie chronologique de l'\IeC {\'e}chantillon $R_1$\relax }}{98}{figure.caption.28}
|
||||
\contentsline {figure}{\numberline {9.2}{\ignorespaces Distribution de la variable al\IeC {\'e}atoire $R_1$\relax }}{99}{figure.caption.31}
|
||||
\contentsline {figure}{\numberline {9.3}{\ignorespaces Graphique Quantile-Quantile\relax }}{100}{figure.caption.33}
|
||||
\contentsline {figure}{\numberline {9.4}{\ignorespaces \IeC {\'E}quation du point de selle pour $r=0.01$\relax }}{104}{figure.caption.37}
|
||||
\contentsline {figure}{\numberline {9.5}{\ignorespaces Densit\IeC {\'e} de $R_1^{*}$ selon la m\IeC {\'e}thode des moments g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e\relax }}{106}{figure.caption.42}
|
||||
\contentsline {figure}{\numberline {9.6}{\ignorespaces Densit\IeC {\'e} de $R_1^{*}$ selon la m\IeC {\'e}thode de l'\IeC {\'e}quation d'estimation optimale\relax }}{107}{figure.caption.43}
|
||||
\contentsline {figure}{\numberline {9.7}{\ignorespaces Prix de l'option selon les param\IeC {\`e}tres estim\IeC {\'e}s avec la m\IeC {\'e}thode des moments g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e\relax }}{110}{figure.caption.49}
|
||||
\contentsline {figure}{\numberline {9.8}{\ignorespaces Prix de l'option selon les param\IeC {\`e}tres estim\IeC {\'e}s avec la m\IeC {\'e}thode de l'\IeC {\'e}quation d'estimation optimale\relax }}{111}{figure.caption.50}
|
||||
\addvspace {10pt}
|
||||
\addvspace {10pt}
|
||||
\addvspace {10pt}
|
2277
memoire/908144032.log
Normal file
2277
memoire/908144032.log
Normal file
File diff suppressed because it is too large
Load diff
38
memoire/908144032.lot
Normal file
38
memoire/908144032.lot
Normal file
|
@ -0,0 +1,38 @@
|
|||
\select@language {french}
|
||||
\select@language {french}
|
||||
\addvspace {10pt}
|
||||
\contentsline {table}{\numberline {1.1}{\ignorespaces Domaine et r\IeC {\^o}le des param\IeC {\`e}tres de la distribution L stable de Mandelbrot\relax }}{12}{table.caption.14}
|
||||
\contentsline {table}{\numberline {1.2}{\ignorespaces Respect des conditions \IeC {\'e}mises par Madan et Seneta pour les diff\IeC {\'e}rents mod\IeC {\`e}les pr\IeC {\'e}sent\IeC {\'e}s\relax }}{17}{table.caption.15}
|
||||
\addvspace {10pt}
|
||||
\contentsline {table}{\numberline {2.1}{\ignorespaces Domaine et r\IeC {\^o}le des param\IeC {\`e}tres de la distribution de Laplace asym\IeC {\'e}trique g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e\relax }}{29}{table.caption.18}
|
||||
\contentsline {table}{\numberline {2.2}{\ignorespaces Cas sp\IeC {\'e}ciaux de la distribution de Laplace asym\IeC {\'e}trique g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e\relax }}{35}{table.caption.21}
|
||||
\contentsline {table}{\numberline {2.3}{\ignorespaces Changements de param\IeC {\'e}trisation\relax }}{38}{table.caption.22}
|
||||
\addvspace {10pt}
|
||||
\addvspace {10pt}
|
||||
\contentsline {table}{\numberline {4.1}{\ignorespaces Tests d'hypoth\IeC {\`e}se param\IeC {\'e}triques pour la m\IeC {\'e}thode des moments g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e\relax }}{63}{table.caption.25}
|
||||
\addvspace {10pt}
|
||||
\contentsline {table}{\numberline {5.1}{\ignorespaces M\IeC {\'e}thodes d'estimation repr\IeC {\'e}sentables par la forme quadratique \textup {\hbox {\mathsurround \z@ \normalfont (\ignorespaces \ref {eq:generalquad}\unskip \@@italiccorr )}} \relax }}{67}{table.caption.26}
|
||||
\addvspace {10pt}
|
||||
\contentsline {table}{\numberline {6.1}{\ignorespaces Contraintes lin\IeC {\'e}aires pour les cas particuliers de la distribution de Laplace asym\IeC {\'e}trique g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e $GAL(\theta ,\sigma ,\mu ,\tau )$\relax }}{77}{table.caption.27}
|
||||
\addvspace {10pt}
|
||||
\addvspace {10pt}
|
||||
\addvspace {10pt}
|
||||
\contentsline {table}{\numberline {9.1}{\ignorespaces Statistiques d'ordre de l'\IeC {\'e}chantillon $R_1$\relax }}{97}{table.caption.29}
|
||||
\contentsline {table}{\numberline {9.2}{\ignorespaces Valeurs relatives aux premiers moments de l'\IeC {\'e}chantillon $R_1$\relax }}{98}{table.caption.30}
|
||||
\contentsline {table}{\numberline {9.3}{\ignorespaces Test de normalit\IeC {\'e} d'Epps-Pulley pour $R_1$\relax }}{98}{table.caption.32}
|
||||
\contentsline {table}{\numberline {9.4}{\ignorespaces Param\IeC {\`e}tres $\theta _1$ de la premi\IeC {\`e}re optimisation\relax }}{100}{table.caption.34}
|
||||
\contentsline {table}{\numberline {9.5}{\ignorespaces Param\IeC {\`e}tres $\theta _1$ de la premi\IeC {\`e}re optimisation\relax }}{102}{table.caption.35}
|
||||
\contentsline {table}{\numberline {9.6}{\ignorespaces Param\IeC {\`e}tres des donn\IeC {\'e}es $R_1$\relax }}{103}{table.caption.36}
|
||||
\contentsline {table}{\numberline {9.7}{\ignorespaces Approximation de la densit\IeC {\'e} de $R_1$\relax }}{104}{table.caption.38}
|
||||
\contentsline {table}{\numberline {9.8}{\ignorespaces Approximation de la fonction de r\IeC {\'e}partition de $R_1$\relax }}{105}{table.caption.39}
|
||||
\contentsline {table}{\numberline {9.9}{\ignorespaces Courbes de densit\IeC {\'e}\relax }}{105}{table.caption.40}
|
||||
\contentsline {table}{\numberline {9.10}{\ignorespaces Valeur de l'int\IeC {\'e}grale de l'approximation de la densit\IeC {\'e} par la m\IeC {\'e}thode du point de selle \relax }}{105}{table.caption.41}
|
||||
\contentsline {table}{\numberline {9.11}{\ignorespaces Test du $\chi ^2$\relax }}{108}{table.caption.44}
|
||||
\contentsline {table}{\numberline {9.12}{\ignorespaces Test de Kolmogorov-Smirnov\relax }}{108}{table.caption.45}
|
||||
\contentsline {table}{\numberline {9.13}{\ignorespaces Test de distance minimale bas\IeC {\'e} sur la fonction g\IeC {\'e}n\IeC {\'e}ratrice des moments\relax }}{109}{table.caption.46}
|
||||
\contentsline {table}{\numberline {9.14}{\ignorespaces Caract\IeC {\'e}ristiques de l'option\relax }}{109}{table.caption.47}
|
||||
\contentsline {table}{\numberline {9.15}{\ignorespaces Param\IeC {\`e}tres neutres au risque\relax }}{109}{table.caption.48}
|
||||
\addvspace {10pt}
|
||||
\addvspace {10pt}
|
||||
\addvspace {10pt}
|
||||
\contentsline {table}{\numberline {C.1}{\ignorespaces Prix du titre Abbey National (penny sterling)\relax }}{129}{table.caption.60}
|
135
memoire/908144032.out
Normal file
135
memoire/908144032.out
Normal file
|
@ -0,0 +1,135 @@
|
|||
\BOOKMARK [0][-]{section*.2}{R\351sum\351}{}% 1
|
||||
\BOOKMARK [0][-]{section*.4}{Abstract}{}% 2
|
||||
\BOOKMARK [0][-]{section*.5}{Table des mati\350res}{}% 3
|
||||
\BOOKMARK [0][-]{section*.6}{Liste des tableaux}{}% 4
|
||||
\BOOKMARK [0][-]{section*.7}{Liste des figures}{}% 5
|
||||
\BOOKMARK [0][-]{section*.9}{Remerciements}{}% 6
|
||||
\BOOKMARK [0][-]{section*.11}{Introduction}{}% 7
|
||||
\BOOKMARK [0][-]{chapter.1}{Les mod\350les de rendements financiers}{}% 8
|
||||
\BOOKMARK [1][-]{section.1.1}{L'utilisation de mod\350les en finance}{chapter.1}% 9
|
||||
\BOOKMARK [2][-]{subsection.1.1.1}{Diff\351rents types de mod\350les}{section.1.1}% 10
|
||||
\BOOKMARK [2][-]{subsection.1.1.2}{Le risque de mod\351lisation}{section.1.1}% 11
|
||||
\BOOKMARK [1][-]{section.1.2}{Les rendements financiers}{chapter.1}% 12
|
||||
\BOOKMARK [2][-]{subsection.1.2.1}{D\351finitions et notation}{section.1.2}% 13
|
||||
\BOOKMARK [2][-]{subsection.1.2.2}{Rendements cumul\351s}{section.1.2}% 14
|
||||
\BOOKMARK [2][-]{subsection.1.2.3}{Donn\351es disponibles}{section.1.2}% 15
|
||||
\BOOKMARK [1][-]{section.1.3}{Les premiers mod\350les}{chapter.1}% 16
|
||||
\BOOKMARK [2][-]{subsection.1.3.1}{Le mod\350le de Bachelier}{section.1.3}% 17
|
||||
\BOOKMARK [2][-]{subsection.1.3.2}{Proposition de Mandelbrot}{section.1.3}% 18
|
||||
\BOOKMARK [2][-]{subsection.1.3.3}{Le mod\350le de Press}{section.1.3}% 19
|
||||
\BOOKMARK [2][-]{subsection.1.3.4}{Le mod\350le de Praetz}{section.1.3}% 20
|
||||
\BOOKMARK [1][-]{section.1.4}{Conditions essentielles de Madan et Seneta}{chapter.1}% 21
|
||||
\BOOKMARK [0][-]{chapter.2}{La distribution de Laplace asym\351trique g\351n\351ralis\351e}{}% 22
|
||||
\BOOKMARK [1][-]{section.2.1}{Le processus de Laplace}{chapter.2}% 23
|
||||
\BOOKMARK [2][-]{subsection.2.1.1}{Le processus gamma}{section.2.1}% 24
|
||||
\BOOKMARK [2][-]{subsection.2.1.2}{Le processus de Wiener}{section.2.1}% 25
|
||||
\BOOKMARK [2][-]{subsection.2.1.3}{Le processus de Laplace est un processus subordonn\351}{section.2.1}% 26
|
||||
\BOOKMARK [1][-]{section.2.2}{Distribution de Laplace asym\351trique g\351n\351ralis\351e}{chapter.2}% 27
|
||||
\BOOKMARK [2][-]{subsection.2.2.1}{Fonction caract\351ristique}{section.2.2}% 28
|
||||
\BOOKMARK [2][-]{subsection.2.2.2}{Invariance d'\351chelle}{section.2.2}% 29
|
||||
\BOOKMARK [2][-]{subsection.2.2.3}{Fonctions g\351n\351ratrices}{section.2.2}% 30
|
||||
\BOOKMARK [2][-]{subsection.2.2.4}{Moments et r\364le des param\350tres}{section.2.2}% 31
|
||||
\BOOKMARK [2][-]{subsection.2.2.5}{Changement d'\351chelle et de localisation}{section.2.2}% 32
|
||||
\BOOKMARK [2][-]{subsection.2.2.6}{Repr\351sentation alternative et simulation}{section.2.2}% 33
|
||||
\BOOKMARK [2][-]{subsection.2.2.7}{Fonction de Bessel et densit\351}{section.2.2}% 34
|
||||
\BOOKMARK [1][-]{section.2.3}{Cas particuliers}{chapter.2}% 35
|
||||
\BOOKMARK [2][-]{subsection.2.3.1}{Distribution de Laplace asym\351trique}{section.2.3}% 36
|
||||
\BOOKMARK [1][-]{section.2.4}{Relation avec le mod\350le de madan1990variance}{chapter.2}% 37
|
||||
\BOOKMARK [0][-]{chapter.3}{Approximation de la densit\351 et de la fonction de r\351partition}{}% 38
|
||||
\BOOKMARK [1][-]{section.3.1}{L'approximation de Laplace}{chapter.3}% 39
|
||||
\BOOKMARK [1][-]{section.3.2}{L'approximation de Temme}{chapter.3}% 40
|
||||
\BOOKMARK [1][-]{section.3.3}{La m\351thode du point de selle}{chapter.3}% 41
|
||||
\BOOKMARK [2][-]{subsection.3.3.1}{Approximation de la densit\351}{section.3.3}% 42
|
||||
\BOOKMARK [2][-]{subsection.3.3.2}{Unicit\351 du point de selle}{section.3.3}% 43
|
||||
\BOOKMARK [2][-]{subsection.3.3.3}{Approximation de la fonction de r\351partition}{section.3.3}% 44
|
||||
\BOOKMARK [2][-]{subsection.3.3.4}{Quelques propri\351t\351s des approximations}{section.3.3}% 45
|
||||
\BOOKMARK [1][-]{section.3.4}{Application de la m\351thode du point de selle}{chapter.3}% 46
|
||||
\BOOKMARK [2][-]{subsection.3.4.1}{Approximation de la densit\351}{section.3.4}% 47
|
||||
\BOOKMARK [2][-]{subsection.3.4.2}{Approximation de la fonction de r\351partition}{section.3.4}% 48
|
||||
\BOOKMARK [0][-]{chapter.4}{M\351thode des moments g\351n\351ralis\351e}{}% 49
|
||||
\BOOKMARK [1][-]{section.4.1}{Introduction}{chapter.4}% 50
|
||||
\BOOKMARK [2][-]{subsection.4.1.1}{M\351thode classique des moments}{section.4.1}% 51
|
||||
\BOOKMARK [1][-]{section.4.2}{M\351thode des moments g\351n\351ralis\351e}{chapter.4}% 52
|
||||
\BOOKMARK [2][-]{subsection.4.2.1}{D\351finition}{section.4.2}% 53
|
||||
\BOOKMARK [2][-]{subsection.4.2.2}{Convergence}{section.4.2}% 54
|
||||
\BOOKMARK [2][-]{subsection.4.2.3}{Matrice de pond\351ration optimale}{section.4.2}% 55
|
||||
\BOOKMARK [2][-]{subsection.4.2.4}{M\351thode des moments g\351n\351ralis\351e it\351rative}{section.4.2}% 56
|
||||
\BOOKMARK [2][-]{subsection.4.2.5}{Distribution asymptotique des estimateurs}{section.4.2}% 57
|
||||
\BOOKMARK [1][-]{section.4.3}{Estimation sous contrainte}{chapter.4}% 58
|
||||
\BOOKMARK [2][-]{subsection.4.3.1}{Distribution asymptotique des estimateurs contraints}{section.4.3}% 59
|
||||
\BOOKMARK [1][-]{section.4.4}{Tests d'hypoth\350ses param\351triques}{chapter.4}% 60
|
||||
\BOOKMARK [2][-]{subsection.4.4.1}{Test de Wald}{section.4.4}% 61
|
||||
\BOOKMARK [2][-]{subsection.4.4.2}{Test du multiplicateur de Lagrange}{section.4.4}% 62
|
||||
\BOOKMARK [2][-]{subsection.4.4.3}{Test bas\351 sur la statistique de m\351trique de distance}{section.4.4}% 63
|
||||
\BOOKMARK [2][-]{subsection.4.4.4}{En r\351sum\351}{section.4.4}% 64
|
||||
\BOOKMARK [0][-]{chapter.5}{M\351thode de l'\351quation d'estimation optimale}{}% 65
|
||||
\BOOKMARK [1][-]{section.5.1}{\311quations quadratiques optimales}{chapter.5}% 66
|
||||
\BOOKMARK [1][-]{section.5.2}{\311quation d'estimation optimale modifi\351e}{chapter.5}% 67
|
||||
\BOOKMARK [0][-]{chapter.6}{Estimation des param\350tres de la distribution de Laplace asym\351trique g\351n\351ralis\351e}{}% 68
|
||||
\BOOKMARK [1][-]{section.6.1}{Vecteur de param\350tres initiaux}{chapter.6}% 69
|
||||
\BOOKMARK [1][-]{section.6.2}{M\351thode des moments g\351n\351ralis\351e}{chapter.6}% 70
|
||||
\BOOKMARK [2][-]{subsection.6.2.1}{Matrice de pond\351ration optimale}{section.6.2}% 71
|
||||
\BOOKMARK [2][-]{subsection.6.2.2}{Variance-covariance des param\350tres}{section.6.2}% 72
|
||||
\BOOKMARK [2][-]{subsection.6.2.3}{Contraintes lin\351aires}{section.6.2}% 73
|
||||
\BOOKMARK [1][-]{section.6.3}{M\351thode des \351quations d'estimation optimales}{chapter.6}% 74
|
||||
\BOOKMARK [0][-]{chapter.7}{Tests statistiques}{}% 75
|
||||
\BOOKMARK [1][-]{section.7.1}{Test de normalit\351}{chapter.7}% 76
|
||||
\BOOKMARK [2][-]{subsection.7.1.1}{Test de Shapiro-Wilk}{section.7.1}% 77
|
||||
\BOOKMARK [2][-]{subsection.7.1.2}{Test d\220Epps-Pulley}{section.7.1}% 78
|
||||
\BOOKMARK [1][-]{section.7.2}{Tests d'ad\351quation}{chapter.7}% 79
|
||||
\BOOKMARK [2][-]{subsection.7.2.1}{Test 2 de Pearson}{section.7.2}% 80
|
||||
\BOOKMARK [2][-]{subsection.7.2.2}{Test de Kolmogorov-Smirnov}{section.7.2}% 81
|
||||
\BOOKMARK [2][-]{subsection.7.2.3}{Test de distance minimale bas\351 sur la fonction g\351n\351ratrice des moments}{section.7.2}% 82
|
||||
\BOOKMARK [0][-]{chapter.8}{\311valuation d'options}{}% 83
|
||||
\BOOKMARK [1][-]{section.8.1}{D\351finitions}{chapter.8}% 84
|
||||
\BOOKMARK [2][-]{subsection.8.1.1}{\311quation martingale}{section.8.1}% 85
|
||||
\BOOKMARK [2][-]{subsection.8.1.2}{Param\350tres neutres au risque}{section.8.1}% 86
|
||||
\BOOKMARK [1][-]{section.8.2}{Aper\347u du mod\350le de Black-Scholes}{chapter.8}% 87
|
||||
\BOOKMARK [1][-]{section.8.3}{M\351thodes d'\351valuation pour options europ\351ennes}{chapter.8}% 88
|
||||
\BOOKMARK [2][-]{subsection.8.3.1}{M\351thode de Heston}{section.8.3}% 89
|
||||
\BOOKMARK [2][-]{subsection.8.3.2}{M\351thode de Carr et Madan}{section.8.3}% 90
|
||||
\BOOKMARK [2][-]{subsection.8.3.3}{Prix d'exercice hors de la monnaie}{section.8.3}% 91
|
||||
\BOOKMARK [2][-]{subsection.8.3.4}{Critique de la m\351thode de Carr-Madan}{section.8.3}% 92
|
||||
\BOOKMARK [2][-]{subsection.8.3.5}{M\351thode d\220Epps}{section.8.3}% 93
|
||||
\BOOKMARK [1][-]{section.8.4}{Particularit\351s}{chapter.8}% 94
|
||||
\BOOKMARK [2][-]{subsection.8.4.1}{Option sur actions avec dividendes}{section.8.4}% 95
|
||||
\BOOKMARK [2][-]{subsection.8.4.2}{Options sur contrats \340 terme et taux de change}{section.8.4}% 96
|
||||
\BOOKMARK [0][-]{chapter.9}{Exemple d'application}{}% 97
|
||||
\BOOKMARK [1][-]{section.9.1}{Description des donn\351es}{chapter.9}% 98
|
||||
\BOOKMARK [1][-]{section.9.2}{Estimation}{chapter.9}% 99
|
||||
\BOOKMARK [1][-]{section.9.3}{Approximation}{chapter.9}% 100
|
||||
\BOOKMARK [1][-]{section.9.4}{Graphiques}{chapter.9}% 101
|
||||
\BOOKMARK [1][-]{section.9.5}{Tests statistiques}{chapter.9}% 102
|
||||
\BOOKMARK [1][-]{section.9.6}{\311valuation d'options}{chapter.9}% 103
|
||||
\BOOKMARK [0][-]{section*.52}{Conclusion}{}% 104
|
||||
\BOOKMARK [0][-]{appendix.A}{\311l\351ments de th\351orie des probabilit\351s}{}% 105
|
||||
\BOOKMARK [1][-]{section.A.1}{D\351finitions de base}{appendix.A}% 106
|
||||
\BOOKMARK [1][-]{section.A.2}{Transform\351es d'une variable al\351atoire}{appendix.A}% 107
|
||||
\BOOKMARK [2][-]{subsection.A.2.1}{La fonction caract\351ristique}{section.A.2}% 108
|
||||
\BOOKMARK [3][-]{section*.53}{Transform\351e de Fourier}{subsection.A.2.1}% 109
|
||||
\BOOKMARK [3][-]{section*.54}{D\351finition}{subsection.A.2.1}% 110
|
||||
\BOOKMARK [3][-]{section*.55}{Les moments}{subsection.A.2.1}% 111
|
||||
\BOOKMARK [2][-]{subsection.A.2.2}{Inversion de la fonction caract\351ristique}{section.A.2}% 112
|
||||
\BOOKMARK [3][-]{section*.56}{La densit\351}{subsection.A.2.2}% 113
|
||||
\BOOKMARK [3][-]{section*.57}{La fonction de r\351partition}{subsection.A.2.2}% 114
|
||||
\BOOKMARK [2][-]{subsection.A.2.3}{La fonction g\351n\351ratrice des moments}{section.A.2}% 115
|
||||
\BOOKMARK [2][-]{subsection.A.2.4}{La fonction g\351n\351ratrice des cumulants}{section.A.2}% 116
|
||||
\BOOKMARK [2][-]{subsection.A.2.5}{La transform\351e d'Esscher}{section.A.2}% 117
|
||||
\BOOKMARK [1][-]{section.A.3}{La transform\351e de Fourier rapide}{appendix.A}% 118
|
||||
\BOOKMARK [1][-]{section.A.4}{Processus de L\351vy}{appendix.A}% 119
|
||||
\BOOKMARK [2][-]{subsection.A.4.1}{D\351finition et propri\351t\351s}{section.A.4}% 120
|
||||
\BOOKMARK [3][-]{section*.58}{Repr\351sentation de L\351vy-Khintchine}{subsection.A.4.1}% 121
|
||||
\BOOKMARK [3][-]{section*.59}{Repr\351sentation de L\351vy-It\364}{subsection.A.4.1}% 122
|
||||
\BOOKMARK [2][-]{subsection.A.4.2}{Processus subordonn\351}{section.A.4}% 123
|
||||
\BOOKMARK [1][-]{section.A.5}{Th\351or\350mes d'int\351gration}{appendix.A}% 124
|
||||
\BOOKMARK [2][-]{subsection.A.5.1}{Th\351or\350me de convergence domin\351e de Lebesgue}{section.A.5}% 125
|
||||
\BOOKMARK [2][-]{subsection.A.5.2}{Th\351or\350me de Fubini}{section.A.5}% 126
|
||||
\BOOKMARK [0][-]{appendix.B}{\311l\351ments de statistique math\351matique}{}% 127
|
||||
\BOOKMARK [1][-]{section.B.1}{Loi faible des grands nombres}{appendix.B}% 128
|
||||
\BOOKMARK [1][-]{section.B.2}{Th\351or\350me central limite}{appendix.B}% 129
|
||||
\BOOKMARK [2][-]{subsection.B.2.1}{Cas univari\351}{section.B.2}% 130
|
||||
\BOOKMARK [2][-]{subsection.B.2.2}{Cas multivari\351}{section.B.2}% 131
|
||||
\BOOKMARK [1][-]{section.B.3}{M\351thode delta multivari\351e}{appendix.B}% 132
|
||||
\BOOKMARK [0][-]{appendix.C}{Donn\351es}{}% 133
|
||||
\BOOKMARK [0][-]{section*.62}{Bibliographie}{}% 134
|
||||
\BOOKMARK [0][-]{section*.64}{Contrat de partage}{}% 135
|
BIN
memoire/908144032.pdf
Normal file
BIN
memoire/908144032.pdf
Normal file
Binary file not shown.
111
memoire/908144032.tex
Normal file
111
memoire/908144032.tex
Normal file
|
@ -0,0 +1,111 @@
|
|||
%% GABARIT POUR MÉMOIRE STANDARD
|
||||
%%
|
||||
%% Consulter la documentation de la classe ulthese pour une
|
||||
%% description détaillée de la classe, de ce gabarit et des options
|
||||
%% disponibles.
|
||||
%%
|
||||
%% [Ne pas hésiter à supprimer les commentaires après les avoir lus.]
|
||||
%%
|
||||
%% Déclaration de la classe avec les langues les plus courantes. Le
|
||||
%% français sera la langue par défaut du document.
|
||||
\documentclass[11pt,english,francais]{ulthese} \usepackage{scrtime}
|
||||
\usepackage{natbib}
|
||||
\usepackage{tikz} \usepackage{multirow}
|
||||
%% Encodage utilisé pour les caractères accentués dans les fichiers
|
||||
%% source du document. Les gabarits sont encodés en UTF-8.
|
||||
\usepackage[utf8]{inputenc}
|
||||
%% Charger ici les autres paquetages nécessaires pour le document.
|
||||
%% Quelques exemples; décommenter au besoin.
|
||||
\usepackage{amsmath} % recommandé pour les mathématiques
|
||||
\numberwithin{equation}{section} % pour numéroter les équations selon les sections
|
||||
\usepackage{amsfonts} \usepackage{amsthm} \usepackage{thmtools}
|
||||
% \usepackage{mathpazo} % texte en Palatino
|
||||
% \usepackage{mathptmx} % texte en Times
|
||||
%% Gestion des hyperliens dans le document. S'assurer que hyperref est
|
||||
%% le dernier paquetage chargé.
|
||||
\usepackage{hyperref} \hypersetup{colorlinks,allcolors=ULlinkcolor}
|
||||
\usepackage{cleveref}
|
||||
\usepackage[hypcap]{caption} % permet de faire le lien au dessus des figures au lieu d en dessous
|
||||
\usepackage[off]{auto-pst-pdf}
|
||||
%% Pour utiliser Computer Modern comme police sans empattements
|
||||
%% (serif) plutôt que Helvetica, décommenter la ligne ci-dessous.
|
||||
% \renewcommand{\sfdefault}{cmss}
|
||||
|
||||
%% Options de mise en forme du mode français de babel. Consulter la
|
||||
%% documentation du paquetage babel pour les options disponibles.
|
||||
\frenchbsetup{%
|
||||
CompactItemize=false, % ne pas compacter les listes
|
||||
ThinSpaceInFrenchNumbers=true % espace fine dans les nombres
|
||||
} \DeclareMathOperator{\sgn}{sgn}
|
||||
%% Style de la bibliographie.
|
||||
\bibliographystyle{plainnatmod}
|
||||
%% Déclarations de la page titre. Remplacer les éléments entre < >.
|
||||
%% Supprimer les caractères < >. Couper un long titre ou un long
|
||||
%% sous-titre manuellement avec \\. Terminer une éventuelle deuxième
|
||||
%% ligne de titre ou de sous-titre avec \vspace*{-\baselineskip}.
|
||||
\titre{Modélisation des rendements financiers \\ à l'aide de la
|
||||
distribution de Laplace asymétrique généralisée
|
||||
\vspace*{-\baselineskip}}
|
||||
% \titre{Ceci est un exemple de long titre \\
|
||||
% avec saut de ligne manuel \vspace*{-\baselineskip}}
|
||||
% \soustitre{Sous-titre le cas échéant}
|
||||
% \soustitre{Ceci est un exemple de long-titre \\
|
||||
% avec saut de ligne manuel \vspace*{-\baselineskip}}
|
||||
\auteur{François Pelletier} \programme{Maîtrise en actuariat}
|
||||
\annee{2013}
|
||||
\MSc % ou l'un de \LLM, \MA, \MMus, \MServSoc, \MScGeogr, \MATDR
|
||||
\setcounter{tocdepth}{4}
|
||||
\begin{document}
|
||||
\newtheorem{theo}{Théorème}[subsection]
|
||||
\newtheorem{hypothese}{Hypothèse}[chapter]
|
||||
|
||||
\frontmatter % pages liminaires
|
||||
|
||||
\pagetitre % production de la page titre
|
||||
|
||||
\include{resume} % résumé français
|
||||
\include{abstract} % résumé anglais
|
||||
\cleardoublepage
|
||||
|
||||
\tableofcontents % production de la TdM
|
||||
\cleardoublepage
|
||||
|
||||
\listoftables % production de la liste des tableaux
|
||||
\cleardoublepage
|
||||
|
||||
\listoffigures % production de la liste des figures
|
||||
\cleardoublepage
|
||||
|
||||
%\dedicace{Dédicace si désiré}
|
||||
%\cleardoublepage
|
||||
|
||||
\epigraphe{Dieu ne se soucie pas de nos difficultés mathématiques. Il intègre empiriquement.}{Albert Einstein}
|
||||
\cleardoublepage
|
||||
|
||||
\include{remerciements} % remerciements
|
||||
|
||||
\mainmatter % corps du document
|
||||
|
||||
\include{introduction} % introduction
|
||||
\include{chapitre1} % chapitre 1
|
||||
\include{chapitre2} % chapitre 2, etc.
|
||||
\include{chapitre3}
|
||||
\include{chapitre4}
|
||||
\include{chapitre5}
|
||||
\include{chapitre6}
|
||||
\include{chapitre7}
|
||||
\include{chapitre8}
|
||||
\include{chapitre9}
|
||||
\include{conclusion} % conclusion
|
||||
|
||||
\appendix % annexes le cas échéant
|
||||
|
||||
\include{annexe1} % Annexe 1
|
||||
\include{annexe2} % Annexe 2
|
||||
\include{annexe3} % Annexe 3
|
||||
|
||||
\bibliography{memoire} % production de la bibliographie
|
||||
|
||||
\include{deed}
|
||||
|
||||
\end{document}
|
137
memoire/908144032.toc
Normal file
137
memoire/908144032.toc
Normal file
|
@ -0,0 +1,137 @@
|
|||
\select@language {french}
|
||||
\select@language {french}
|
||||
\contentsline {chapter}{R\IeC {\'e}sum\IeC {\'e}}{iii}{section*.2}
|
||||
\contentsline {chapter}{Abstract}{v}{section*.4}
|
||||
\contentsline {chapter}{Table des mati{\`e}res}{vii}{section*.5}
|
||||
\contentsline {chapter}{Liste des tableaux}{xi}{section*.6}
|
||||
\contentsline {chapter}{Liste des figures}{xiii}{section*.7}
|
||||
\contentsline {chapter}{Remerciements}{xvii}{section*.9}
|
||||
\contentsline {chapter}{Introduction}{1}{section*.11}
|
||||
\contentsline {chapter}{\chapternumberline {1}Les mod\IeC {\`e}les de rendements financiers}{3}{chapter.1}
|
||||
\contentsline {section}{\numberline {1.1}L'utilisation de mod\IeC {\`e}les en finance}{3}{section.1.1}
|
||||
\contentsline {subsection}{\numberline {1.1.1}Diff\IeC {\'e}rents types de mod\IeC {\`e}les}{3}{subsection.1.1.1}
|
||||
\contentsline {subsection}{\numberline {1.1.2}Le risque de mod\IeC {\'e}lisation}{4}{subsection.1.1.2}
|
||||
\contentsline {section}{\numberline {1.2}Les rendements financiers}{5}{section.1.2}
|
||||
\contentsline {subsection}{\numberline {1.2.1}D\IeC {\'e}finitions et notation}{5}{subsection.1.2.1}
|
||||
\contentsline {subsection}{\numberline {1.2.2}Rendements cumul\IeC {\'e}s}{7}{subsection.1.2.2}
|
||||
\contentsline {subsection}{\numberline {1.2.3}Donn\IeC {\'e}es disponibles}{8}{subsection.1.2.3}
|
||||
\contentsline {section}{\numberline {1.3}Les premiers mod\IeC {\`e}les}{8}{section.1.3}
|
||||
\contentsline {subsection}{\numberline {1.3.1}Le mod\IeC {\`e}le de Bachelier}{8}{subsection.1.3.1}
|
||||
\contentsline {subsection}{\numberline {1.3.2}Proposition de Mandelbrot}{11}{subsection.1.3.2}
|
||||
\contentsline {subsection}{\numberline {1.3.3}Le mod\IeC {\`e}le de Press}{12}{subsection.1.3.3}
|
||||
\contentsline {subsection}{\numberline {1.3.4}Le mod\IeC {\`e}le de Praetz}{15}{subsection.1.3.4}
|
||||
\contentsline {section}{\numberline {1.4}Conditions essentielles de Madan et Seneta}{16}{section.1.4}
|
||||
\contentsline {chapter}{\chapternumberline {2}La distribution de Laplace asym\IeC {\'e}trique g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e}{19}{chapter.2}
|
||||
\contentsline {section}{\numberline {2.1}Le processus de Laplace}{19}{section.2.1}
|
||||
\contentsline {subsection}{\numberline {2.1.1}Le processus gamma}{20}{subsection.2.1.1}
|
||||
\contentsline {subsection}{\numberline {2.1.2}Le processus de Wiener}{21}{subsection.2.1.2}
|
||||
\contentsline {subsection}{\numberline {2.1.3}Le processus de Laplace est un processus subordonn\IeC {\'e}}{22}{subsection.2.1.3}
|
||||
\contentsline {section}{\numberline {2.2}Distribution de Laplace asym\IeC {\'e}trique g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e}{25}{section.2.2}
|
||||
\contentsline {subsection}{\numberline {2.2.1}Fonction caract\IeC {\'e}ristique}{25}{subsection.2.2.1}
|
||||
\contentsline {subsection}{\numberline {2.2.2}Invariance d'\IeC {\'e}chelle}{26}{subsection.2.2.2}
|
||||
\contentsline {subsection}{\numberline {2.2.3}Fonctions g\IeC {\'e}n\IeC {\'e}ratrices}{28}{subsection.2.2.3}
|
||||
\contentsline {subsection}{\numberline {2.2.4}Moments et r\IeC {\^o}le des param\IeC {\`e}tres}{28}{subsection.2.2.4}
|
||||
\contentsline {subsection}{\numberline {2.2.5}Changement d'\IeC {\'e}chelle et de localisation}{31}{subsection.2.2.5}
|
||||
\contentsline {subsection}{\numberline {2.2.6}Repr\IeC {\'e}sentation alternative et simulation}{32}{subsection.2.2.6}
|
||||
\contentsline {subsection}{\numberline {2.2.7}Fonction de Bessel et densit\IeC {\'e}}{33}{subsection.2.2.7}
|
||||
\contentsline {section}{\numberline {2.3}Cas particuliers}{35}{section.2.3}
|
||||
\contentsline {subsection}{\numberline {2.3.1}Distribution de Laplace asym\IeC {\'e}trique}{36}{subsection.2.3.1}
|
||||
\contentsline {section}{\numberline {2.4}Relation avec le mod\IeC {\`e}le de \cite {madan1990variance}}{37}{section.2.4}
|
||||
\contentsline {chapter}{\chapternumberline {3}Approximation de la densit\IeC {\'e} et de la fonction de r\IeC {\'e}partition}{39}{chapter.3}
|
||||
\contentsline {section}{\numberline {3.1}L'approximation de Laplace}{39}{section.3.1}
|
||||
\contentsline {section}{\numberline {3.2}L'approximation de Temme}{41}{section.3.2}
|
||||
\contentsline {section}{\numberline {3.3}La m\IeC {\'e}thode du point de selle}{42}{section.3.3}
|
||||
\contentsline {subsection}{\numberline {3.3.1}Approximation de la densit\IeC {\'e}}{42}{subsection.3.3.1}
|
||||
\contentsline {subsection}{\numberline {3.3.2}Unicit\IeC {\'e} du point de selle}{44}{subsection.3.3.2}
|
||||
\contentsline {subsection}{\numberline {3.3.3}Approximation de la fonction de r\IeC {\'e}partition}{44}{subsection.3.3.3}
|
||||
\contentsline {subsection}{\numberline {3.3.4}Quelques propri\IeC {\'e}t\IeC {\'e}s des approximations}{45}{subsection.3.3.4}
|
||||
\contentsline {section}{\numberline {3.4}Application de la m\IeC {\'e}thode du point de selle}{46}{section.3.4}
|
||||
\contentsline {subsection}{\numberline {3.4.1}Approximation de la densit\IeC {\'e}}{46}{subsection.3.4.1}
|
||||
\contentsline {subsection}{\numberline {3.4.2}Approximation de la fonction de r\IeC {\'e}partition}{47}{subsection.3.4.2}
|
||||
\contentsline {chapter}{\chapternumberline {4}M\IeC {\'e}thode des moments g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e}{49}{chapter.4}
|
||||
\contentsline {section}{\numberline {4.1}Introduction}{49}{section.4.1}
|
||||
\contentsline {subsection}{\numberline {4.1.1}M\IeC {\'e}thode classique des moments}{50}{subsection.4.1.1}
|
||||
\contentsline {section}{\numberline {4.2}M\IeC {\'e}thode des moments g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e}{50}{section.4.2}
|
||||
\contentsline {subsection}{\numberline {4.2.1}D\IeC {\'e}finition}{51}{subsection.4.2.1}
|
||||
\contentsline {subsection}{\numberline {4.2.2}Convergence}{52}{subsection.4.2.2}
|
||||
\contentsline {subsection}{\numberline {4.2.3}Matrice de pond\IeC {\'e}ration optimale}{53}{subsection.4.2.3}
|
||||
\contentsline {subsection}{\numberline {4.2.4}M\IeC {\'e}thode des moments g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e it\IeC {\'e}rative}{55}{subsection.4.2.4}
|
||||
\contentsline {subsection}{\numberline {4.2.5}Distribution asymptotique des estimateurs}{55}{subsection.4.2.5}
|
||||
\contentsline {section}{\numberline {4.3}Estimation sous contrainte}{58}{section.4.3}
|
||||
\contentsline {subsection}{\numberline {4.3.1}Distribution asymptotique des estimateurs contraints}{59}{subsection.4.3.1}
|
||||
\contentsline {section}{\numberline {4.4}Tests d'hypoth\IeC {\`e}ses param\IeC {\'e}triques}{61}{section.4.4}
|
||||
\contentsline {subsection}{\numberline {4.4.1}Test de Wald}{61}{subsection.4.4.1}
|
||||
\contentsline {subsection}{\numberline {4.4.2}Test du multiplicateur de Lagrange}{62}{subsection.4.4.2}
|
||||
\contentsline {subsection}{\numberline {4.4.3}Test bas\IeC {\'e} sur la statistique de m\IeC {\'e}trique de distance}{63}{subsection.4.4.3}
|
||||
\contentsline {subsection}{\numberline {4.4.4}En r\IeC {\'e}sum\IeC {\'e}}{63}{subsection.4.4.4}
|
||||
\contentsline {chapter}{\chapternumberline {5}M\IeC {\'e}thode de l'\IeC {\'e}quation d'estimation optimale}{65}{chapter.5}
|
||||
\contentsline {section}{\numberline {5.1}\IeC {\'E}quations quadratiques optimales}{67}{section.5.1}
|
||||
\contentsline {section}{\numberline {5.2}\IeC {\'E}quation d'estimation optimale modifi\IeC {\'e}e}{70}{section.5.2}
|
||||
\contentsline {chapter}{\chapternumberline {6}Estimation des param\IeC {\`e}tres de la distribution de Laplace asym\IeC {\'e}trique g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e}{73}{chapter.6}
|
||||
\contentsline {section}{\numberline {6.1}Vecteur de param\IeC {\`e}tres initiaux}{73}{section.6.1}
|
||||
\contentsline {section}{\numberline {6.2}M\IeC {\'e}thode des moments g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e}{74}{section.6.2}
|
||||
\contentsline {subsection}{\numberline {6.2.1}Matrice de pond\IeC {\'e}ration optimale}{75}{subsection.6.2.1}
|
||||
\contentsline {subsection}{\numberline {6.2.2}Variance-covariance des param\IeC {\`e}tres}{76}{subsection.6.2.2}
|
||||
\contentsline {subsection}{\numberline {6.2.3}Contraintes lin\IeC {\'e}aires}{77}{subsection.6.2.3}
|
||||
\contentsline {section}{\numberline {6.3}M\IeC {\'e}thode des \IeC {\'e}quations d'estimation optimales}{78}{section.6.3}
|
||||
\contentsline {chapter}{\chapternumberline {7}Tests statistiques}{81}{chapter.7}
|
||||
\contentsline {section}{\numberline {7.1}Test de normalit\IeC {\'e}}{81}{section.7.1}
|
||||
\contentsline {subsection}{\numberline {7.1.1}Test de Shapiro-Wilk}{81}{subsection.7.1.1}
|
||||
\contentsline {subsection}{\numberline {7.1.2}Test d\IeC {\textquoteright }Epps-Pulley}{82}{subsection.7.1.2}
|
||||
\contentsline {section}{\numberline {7.2}Tests d'ad\IeC {\'e}quation}{82}{section.7.2}
|
||||
\contentsline {subsection}{\numberline {7.2.1}Test $\chi ^2$ de Pearson}{83}{subsection.7.2.1}
|
||||
\contentsline {subsection}{\numberline {7.2.2}Test de Kolmogorov-Smirnov}{84}{subsection.7.2.2}
|
||||
\contentsline {subsection}{\numberline {7.2.3}Test de distance minimale bas\IeC {\'e} sur la fonction g\IeC {\'e}n\IeC {\'e}ratrice des moments}{85}{subsection.7.2.3}
|
||||
\contentsline {chapter}{\chapternumberline {8}\IeC {\'E}valuation d'options}{87}{chapter.8}
|
||||
\contentsline {section}{\numberline {8.1}D\IeC {\'e}finitions}{87}{section.8.1}
|
||||
\contentsline {subsection}{\numberline {8.1.1}\IeC {\'E}quation martingale}{88}{subsection.8.1.1}
|
||||
\contentsline {subsection}{\numberline {8.1.2}Param\IeC {\`e}tres neutres au risque}{89}{subsection.8.1.2}
|
||||
\contentsline {section}{\numberline {8.2}Aper\IeC {\c c}u du mod\IeC {\`e}le de Black-Scholes}{90}{section.8.2}
|
||||
\contentsline {section}{\numberline {8.3}M\IeC {\'e}thodes d'\IeC {\'e}valuation pour options europ\IeC {\'e}ennes}{90}{section.8.3}
|
||||
\contentsline {subsection}{\numberline {8.3.1}M\IeC {\'e}thode de Heston}{91}{subsection.8.3.1}
|
||||
\contentsline {subsection}{\numberline {8.3.2}M\IeC {\'e}thode de Carr et Madan}{91}{subsection.8.3.2}
|
||||
\contentsline {subsection}{\numberline {8.3.3}Prix d'exercice hors de la monnaie}{93}{subsection.8.3.3}
|
||||
\contentsline {subsection}{\numberline {8.3.4}Critique de la m\IeC {\'e}thode de Carr-Madan}{93}{subsection.8.3.4}
|
||||
\contentsline {subsection}{\numberline {8.3.5}M\IeC {\'e}thode d\IeC {\textquoteright }Epps}{94}{subsection.8.3.5}
|
||||
\contentsline {section}{\numberline {8.4}Particularit\IeC {\'e}s}{95}{section.8.4}
|
||||
\contentsline {subsection}{\numberline {8.4.1}Option sur actions avec dividendes}{95}{subsection.8.4.1}
|
||||
\contentsline {subsection}{\numberline {8.4.2}Options sur contrats \IeC {\`a} terme et taux de change}{95}{subsection.8.4.2}
|
||||
\contentsline {chapter}{\chapternumberline {9}Exemple d'application}{97}{chapter.9}
|
||||
\contentsline {section}{\numberline {9.1}Description des donn\IeC {\'e}es}{97}{section.9.1}
|
||||
\contentsline {section}{\numberline {9.2}Estimation}{99}{section.9.2}
|
||||
\contentsline {section}{\numberline {9.3}Approximation}{104}{section.9.3}
|
||||
\contentsline {section}{\numberline {9.4}Graphiques}{105}{section.9.4}
|
||||
\contentsline {section}{\numberline {9.5}Tests statistiques}{108}{section.9.5}
|
||||
\contentsline {section}{\numberline {9.6}\IeC {\'E}valuation d'options}{109}{section.9.6}
|
||||
\contentsline {chapter}{Conclusion}{113}{section*.52}
|
||||
\contentsline {appendix}{\chapternumberline {A}\IeC {\'E}l\IeC {\'e}ments de th\IeC {\'e}orie des probabilit\IeC {\'e}s}{115}{appendix.A}
|
||||
\contentsline {section}{\numberline {A.1}D\IeC {\'e}finitions de base}{115}{section.A.1}
|
||||
\contentsline {section}{\numberline {A.2}Transform\IeC {\'e}es d'une variable al\IeC {\'e}atoire}{116}{section.A.2}
|
||||
\contentsline {subsection}{\numberline {A.2.1}La fonction caract\IeC {\'e}ristique}{116}{subsection.A.2.1}
|
||||
\contentsline {subsubsection}{Transform\IeC {\'e}e de Fourier}{116}{section*.53}
|
||||
\contentsline {subsubsection}{D\IeC {\'e}finition}{116}{section*.54}
|
||||
\contentsline {subsubsection}{Les moments}{117}{section*.55}
|
||||
\contentsline {subsection}{\numberline {A.2.2}Inversion de la fonction caract\IeC {\'e}ristique}{117}{subsection.A.2.2}
|
||||
\contentsline {subsubsection}{La densit\IeC {\'e}}{117}{section*.56}
|
||||
\contentsline {subsubsection}{La fonction de r\IeC {\'e}partition}{117}{section*.57}
|
||||
\contentsline {subsection}{\numberline {A.2.3}La fonction g\IeC {\'e}n\IeC {\'e}ratrice des moments}{118}{subsection.A.2.3}
|
||||
\contentsline {subsection}{\numberline {A.2.4}La fonction g\IeC {\'e}n\IeC {\'e}ratrice des cumulants}{119}{subsection.A.2.4}
|
||||
\contentsline {subsection}{\numberline {A.2.5}La transform\IeC {\'e}e d'Esscher}{120}{subsection.A.2.5}
|
||||
\contentsline {section}{\numberline {A.3}La transform\IeC {\'e}e de Fourier rapide}{120}{section.A.3}
|
||||
\contentsline {section}{\numberline {A.4}Processus de L\IeC {\'e}vy}{121}{section.A.4}
|
||||
\contentsline {subsection}{\numberline {A.4.1}D\IeC {\'e}finition et propri\IeC {\'e}t\IeC {\'e}s}{121}{subsection.A.4.1}
|
||||
\contentsline {subsubsection}{Repr\IeC {\'e}sentation de L\IeC {\'e}vy-Khintchine}{122}{section*.58}
|
||||
\contentsline {subsubsection}{Repr\IeC {\'e}sentation de L\IeC {\'e}vy-It\IeC {\^o}}{122}{section*.59}
|
||||
\contentsline {subsection}{\numberline {A.4.2}Processus subordonn\IeC {\'e}}{123}{subsection.A.4.2}
|
||||
\contentsline {section}{\numberline {A.5}Th\IeC {\'e}or\IeC {\`e}mes d'int\IeC {\'e}gration}{123}{section.A.5}
|
||||
\contentsline {subsection}{\numberline {A.5.1}Th\IeC {\'e}or\IeC {\`e}me de convergence domin\IeC {\'e}e de Lebesgue}{124}{subsection.A.5.1}
|
||||
\contentsline {subsection}{\numberline {A.5.2}Th\IeC {\'e}or\IeC {\`e}me de Fubini}{124}{subsection.A.5.2}
|
||||
\contentsline {appendix}{\chapternumberline {B}\IeC {\'E}l\IeC {\'e}ments de statistique math\IeC {\'e}matique}{125}{appendix.B}
|
||||
\contentsline {section}{\numberline {B.1}Loi faible des grands nombres}{125}{section.B.1}
|
||||
\contentsline {section}{\numberline {B.2}Th\IeC {\'e}or\IeC {\`e}me central limite}{125}{section.B.2}
|
||||
\contentsline {subsection}{\numberline {B.2.1}Cas univari\IeC {\'e}}{126}{subsection.B.2.1}
|
||||
\contentsline {subsection}{\numberline {B.2.2}Cas multivari\IeC {\'e}}{126}{subsection.B.2.2}
|
||||
\contentsline {section}{\numberline {B.3}M\IeC {\'e}thode delta multivari\IeC {\'e}e}{127}{section.B.3}
|
||||
\contentsline {appendix}{\chapternumberline {C}Donn\IeC {\'e}es}{129}{appendix.C}
|
||||
\contentsline {chapter}{Bibliographie}{131}{section*.62}
|
||||
\contentsline {chapter}{Contrat de partage}{137}{section*.64}
|
BIN
memoire/Couverture-PageTitre-908144032.pdf
Normal file
BIN
memoire/Couverture-PageTitre-908144032.pdf
Normal file
Binary file not shown.
1
memoire/MD5SUM
Normal file
1
memoire/MD5SUM
Normal file
|
@ -0,0 +1 @@
|
|||
cb86f43ece0fa685e93c596c18426965 908144032.pdf
|
92
memoire/README
Normal file
92
memoire/README
Normal file
|
@ -0,0 +1,92 @@
|
|||
This package contains a LaTeX class and templates for thesis and
|
||||
memoirs at Université Laval, Québec, Canada.
|
||||
|
||||
LICENCE
|
||||
|
||||
LaTeX Project Public License, version 1.3c or (at your option) any
|
||||
later version.
|
||||
|
||||
*** The rest of this file is in French ***
|
||||
|
||||
DESCRIPTION
|
||||
|
||||
La classe LaTeX ulthese permet de composer des thèses et mémoires
|
||||
immédiatement conformes aux règles générales de présentation
|
||||
matérielle de la Faculté des études supérieures et postdoctorales
|
||||
(FESP) de l'Université Laval.
|
||||
|
||||
CONTENU DE L'ARCHIVE
|
||||
|
||||
- ulthese.ins: fichier d'installation de la classe; voir ci-dessous;
|
||||
- ulthese.dtx: fichier source documenté de la classe;
|
||||
- ulthese.pdf: documentation de la classe;
|
||||
- ul_p.eps: logo de l'Université Laval en format EPS;
|
||||
- ul_p.pdf: logo de l'Université Laval en format PDF;
|
||||
- README: le présent fichier.
|
||||
|
||||
INSTALLATION
|
||||
|
||||
Pour installer la classe ulthese, compiler avec LaTeX le fichier
|
||||
ulthese.ins, en exécutant
|
||||
|
||||
latex ulthese.ins
|
||||
|
||||
depuis une invite de commande. On peut aussi ouvrir le fichier
|
||||
ulthese.ins dans son éditeur LaTeX et lancer la compilation avec
|
||||
LaTeX, pdfTeX ou pdfLaTeX depuis celui-ci.
|
||||
|
||||
La compilation du fichier ulthese.ins générera plusieurs fichiers:
|
||||
|
||||
1. la classe elle-même:
|
||||
- ulthese.cls
|
||||
|
||||
2. des gabarits pour les documents maîtres de différents types de
|
||||
thèses et de mémoires:
|
||||
- gabarit-doctorat.tex
|
||||
- gabarit-doctorat-mesure.tex
|
||||
- gabarit-doctorat-multifacultaire.tex
|
||||
- gabarit-doctorat-cotutelle.tex
|
||||
- gabarit-doctorat-extension-UdeS.tex
|
||||
- gabarit-doctorat-extension-UQO.tex
|
||||
- gabarit-maitrise.tex
|
||||
- gabarit-maitrise-mesure.tex
|
||||
- gabarit-maitrise-extension-UQAC.tex
|
||||
|
||||
3. des gabarits pour quelques parties d'un document:
|
||||
- resume.tex
|
||||
- abstract.tex
|
||||
- remerciements.tex
|
||||
- avantpropos.tex
|
||||
- introduction.tex
|
||||
- chapitre1.tex
|
||||
- chapitre2.tex
|
||||
- conclusion.tex
|
||||
- annexe.tex
|
||||
|
||||
Les gabarits inutiles peuvent être supprimés.
|
||||
|
||||
DOCUMENTATION
|
||||
|
||||
Le fichier ulthese.pdf contient la documentation complète de la classe
|
||||
et des gabarits. Le document peut être recréé à partir du code source
|
||||
avec les commandes
|
||||
|
||||
pdflatex ulthese.dtx
|
||||
makeindex -s gind.ist ulthese
|
||||
makeindex -s gglo.ist -o ulthese.gls ulthese.glo
|
||||
|
||||
AIDE ADDITIONNELLE
|
||||
|
||||
Faire appel aux ressources suivantes, dans l'ordre:
|
||||
|
||||
1. consulter le WikiThèse de l'Université Laval
|
||||
|
||||
http://www.theses.ulaval.ca/wiki/
|
||||
|
||||
2. consulter les archives de la liste de distribution ulthese-aide
|
||||
|
||||
http://listes.ulaval.ca/listserv/archives/ulthese-aide.html
|
||||
|
||||
3. écrire à la liste de distribution ulthese-aide
|
||||
|
||||
ulthese-aide@listes.ulaval.ca
|
1
memoire/SHA1SUM
Normal file
1
memoire/SHA1SUM
Normal file
|
@ -0,0 +1 @@
|
|||
6f9a85e6a4f4334ba59be60c2a3030db781143bb 908144032.pdf
|
BIN
memoire/Thumbs.db
Normal file
BIN
memoire/Thumbs.db
Normal file
Binary file not shown.
80
memoire/abstract.aux
Normal file
80
memoire/abstract.aux
Normal file
|
@ -0,0 +1,80 @@
|
|||
\relax
|
||||
\providecommand\hyper@newdestlabel[2]{}
|
||||
\@writefile{toc}{\contentsline {chapter}{Abstract}{v}{section*.4}}
|
||||
\@setckpt{abstract}{
|
||||
\setcounter{page}{6}
|
||||
\setcounter{equation}{0}
|
||||
\setcounter{enumi}{0}
|
||||
\setcounter{enumii}{0}
|
||||
\setcounter{enumiii}{0}
|
||||
\setcounter{enumiv}{0}
|
||||
\setcounter{footnote}{0}
|
||||
\setcounter{mpfootnote}{0}
|
||||
\setcounter{@memmarkcntra}{0}
|
||||
\setcounter{storedpagenumber}{1}
|
||||
\setcounter{book}{0}
|
||||
\setcounter{part}{0}
|
||||
\setcounter{chapter}{0}
|
||||
\setcounter{section}{0}
|
||||
\setcounter{subsection}{0}
|
||||
\setcounter{subsubsection}{0}
|
||||
\setcounter{paragraph}{0}
|
||||
\setcounter{subparagraph}{0}
|
||||
\setcounter{@ppsavesec}{0}
|
||||
\setcounter{@ppsaveapp}{0}
|
||||
\setcounter{vslineno}{0}
|
||||
\setcounter{poemline}{0}
|
||||
\setcounter{modulo@vs}{0}
|
||||
\setcounter{memfvsline}{0}
|
||||
\setcounter{verse}{0}
|
||||
\setcounter{chrsinstr}{0}
|
||||
\setcounter{poem}{0}
|
||||
\setcounter{newflo@tctr}{4}
|
||||
\setcounter{@contsubnum}{0}
|
||||
\setcounter{maxsecnumdepth}{2}
|
||||
\setcounter{sidefootnote}{0}
|
||||
\setcounter{pagenote}{0}
|
||||
\setcounter{pagenoteshadow}{0}
|
||||
\setcounter{memfbvline}{0}
|
||||
\setcounter{bvlinectr}{0}
|
||||
\setcounter{cp@cntr}{0}
|
||||
\setcounter{ism@mctr}{0}
|
||||
\setcounter{xsm@mctr}{0}
|
||||
\setcounter{csm@mctr}{0}
|
||||
\setcounter{ksm@mctr}{0}
|
||||
\setcounter{xksm@mctr}{0}
|
||||
\setcounter{cksm@mctr}{0}
|
||||
\setcounter{msm@mctr}{0}
|
||||
\setcounter{xmsm@mctr}{0}
|
||||
\setcounter{cmsm@mctr}{0}
|
||||
\setcounter{bsm@mctr}{0}
|
||||
\setcounter{workm@mctr}{0}
|
||||
\setcounter{sheetsequence}{6}
|
||||
\setcounter{lastsheet}{155}
|
||||
\setcounter{lastpage}{137}
|
||||
\setcounter{figure}{0}
|
||||
\setcounter{lofdepth}{1}
|
||||
\setcounter{table}{0}
|
||||
\setcounter{lotdepth}{1}
|
||||
\setcounter{NAT@ctr}{0}
|
||||
\setcounter{nprt@mantissa@digitsbefore}{0}
|
||||
\setcounter{nprt@mantissa@digitsafter}{0}
|
||||
\setcounter{nprt@exponent@digitsbefore}{0}
|
||||
\setcounter{nprt@exponent@digitsafter}{0}
|
||||
\setcounter{nprt@digitsfirstblock}{0}
|
||||
\setcounter{nprt@blockcnt}{0}
|
||||
\setcounter{nprt@cntprint}{0}
|
||||
\setcounter{parentequation}{0}
|
||||
\setcounter{thmt@dummyctr}{0}
|
||||
\setcounter{Item}{0}
|
||||
\setcounter{Hfootnote}{0}
|
||||
\setcounter{memhycontfloat}{0}
|
||||
\setcounter{Hpagenote}{0}
|
||||
\setcounter{bookmark@seq@number}{2}
|
||||
\setcounter{ContinuedFloat}{0}
|
||||
\setcounter{app@runs}{1}
|
||||
\setcounter{pspicture}{0}
|
||||
\setcounter{section@level}{0}
|
||||
\setcounter{theo}{0}
|
||||
\setcounter{hypothese}{0}
|
||||
}
|
520
memoire/abstract.log
Normal file
520
memoire/abstract.log
Normal file
|
@ -0,0 +1,520 @@
|
|||
This is pdfTeX, Version 3.1415926-2.4-1.40.13 (TeX Live 2012/Debian) (format=pdflatex 2013.7.6) 24 SEP 2013 22:48
|
||||
entering extended mode
|
||||
restricted \write18 enabled.
|
||||
%&-line parsing enabled.
|
||||
**\input abstract.tex
|
||||
(./abstract.tex
|
||||
! Undefined control sequence.
|
||||
l.1 \chapter
|
||||
*{Abstract} % ne pas numéroter
|
||||
The control sequence at the end of the top line
|
||||
of your error message was never \def'ed. If you have
|
||||
misspelled it (e.g., `\hobx'), type `I' and the correct
|
||||
spelling (e.g., `I\hbox'). Otherwise just continue,
|
||||
and I'll forget about whatever was undefined.
|
||||
|
||||
|
||||
! LaTeX Error: Missing \begin{document}.
|
||||
|
||||
See the LaTeX manual or LaTeX Companion for explanation.
|
||||
Type H <return> for immediate help.
|
||||
...
|
||||
|
||||
l.1 \chapter*
|
||||
{Abstract} % ne pas numéroter
|
||||
You're in trouble here. Try typing <return> to proceed.
|
||||
If that doesn't work, type X <return> to quit.
|
||||
|
||||
Missing character: There is no * in font nullfont!
|
||||
Missing character: There is no A in font nullfont!
|
||||
Missing character: There is no b in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no r in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no c in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
! Undefined control sequence.
|
||||
l.2 \phantomsection
|
||||
\addcontentsline{toc}{chapter}{Abstract} % inclure dans TdM
|
||||
The control sequence at the end of the top line
|
||||
of your error message was never \def'ed. If you have
|
||||
misspelled it (e.g., `\hobx'), type `I' and the correct
|
||||
spelling (e.g., `I\hbox'). Otherwise just continue,
|
||||
and I'll forget about whatever was undefined.
|
||||
|
||||
|
||||
Overfull \hbox (20.0pt too wide) in paragraph at lines 1--3
|
||||
[]
|
||||
[]
|
||||
|
||||
! Undefined control sequence.
|
||||
\foreign@language ...agename }\languageshorthands
|
||||
{none}\csname extras#1\end...
|
||||
l.4 \begin{otherlanguage*}{english}
|
||||
|
||||
The control sequence at the end of the top line
|
||||
of your error message was never \def'ed. If you have
|
||||
misspelled it (e.g., `\hobx'), type `I' and the correct
|
||||
spelling (e.g., `I\hbox'). Otherwise just continue,
|
||||
and I'll forget about whatever was undefined.
|
||||
|
||||
|
||||
! LaTeX Error: Missing \begin{document}.
|
||||
|
||||
See the LaTeX manual or LaTeX Companion for explanation.
|
||||
Type H <return> for immediate help.
|
||||
...
|
||||
|
||||
l.4 \begin{otherlanguage*}{english}
|
||||
|
||||
You're in trouble here. Try typing <return> to proceed.
|
||||
If that doesn't work, type X <return> to quit.
|
||||
|
||||
Missing character: There is no n in font nullfont!
|
||||
Missing character: There is no o in font nullfont!
|
||||
Missing character: There is no n in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no C in font nullfont!
|
||||
Missing character: There is no l in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no c in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no l in font nullfont!
|
||||
Missing character: There is no m in font nullfont!
|
||||
Missing character: There is no o in font nullfont!
|
||||
Missing character: There is no d in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no l in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no n in font nullfont!
|
||||
Missing character: There is no f in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no n in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no n in font nullfont!
|
||||
Missing character: There is no c in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no r in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no b in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no d in font nullfont!
|
||||
Missing character: There is no o in font nullfont!
|
||||
Missing character: There is no n in font nullfont!
|
||||
Missing character: There is no h in font nullfont!
|
||||
Missing character: There is no y in font nullfont!
|
||||
Missing character: There is no p in font nullfont!
|
||||
Missing character: There is no o in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no h in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no h in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no r in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no n in font nullfont!
|
||||
Missing character: There is no o in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no l in font nullfont!
|
||||
Missing character: There is no w in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no y in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no m in font nullfont!
|
||||
Missing character: There is no p in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no r in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no c in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no l in font nullfont!
|
||||
Missing character: There is no l in font nullfont!
|
||||
Missing character: There is no y in font nullfont!
|
||||
Missing character: There is no v in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no r in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no f in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no b in font nullfont!
|
||||
Missing character: There is no l in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no . in font nullfont!
|
||||
Missing character: There is no T in font nullfont!
|
||||
Missing character: There is no h in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no m in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no n in font nullfont!
|
||||
Missing character: There is no o in font nullfont!
|
||||
Missing character: There is no b in font nullfont!
|
||||
Missing character: There is no j in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no c in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no v in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no b in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no h in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no n in font nullfont!
|
||||
Missing character: There is no d in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no h in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no m in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no r in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no h in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no o in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no h in font nullfont!
|
||||
Missing character: There is no o in font nullfont!
|
||||
Missing character: There is no w in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no h in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no h in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no g in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no n in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no r in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no l in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no z in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no d in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no y in font nullfont!
|
||||
Missing character: There is no m in font nullfont!
|
||||
Missing character: There is no m in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no r in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no c in font nullfont!
|
||||
Missing character: There is no L in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no p in font nullfont!
|
||||
Missing character: There is no l in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no c in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no d in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no r in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no b in font nullfont!
|
||||
Missing character: There is no u in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no o in font nullfont!
|
||||
Missing character: There is no n in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no n in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no n in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no r in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no n in font nullfont!
|
||||
Missing character: There is no g in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no l in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no r in font nullfont!
|
||||
Missing character: There is no n in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no v in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no o in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no h in font nullfont!
|
||||
Missing character: There is no o in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no m in font nullfont!
|
||||
Missing character: There is no o in font nullfont!
|
||||
Missing character: There is no d in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no l in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no . in font nullfont!
|
||||
Missing character: There is no T in font nullfont!
|
||||
Missing character: There is no o in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no u in font nullfont!
|
||||
Missing character: There is no p in font nullfont!
|
||||
Missing character: There is no p in font nullfont!
|
||||
Missing character: There is no o in font nullfont!
|
||||
Missing character: There is no r in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no h in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no d in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no , in font nullfont!
|
||||
Missing character: There is no w in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no f in font nullfont!
|
||||
Missing character: There is no o in font nullfont!
|
||||
Missing character: There is no c in font nullfont!
|
||||
Missing character: There is no u in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no o in font nullfont!
|
||||
Missing character: There is no n in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no o in font nullfont!
|
||||
Missing character: There is no m in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no o in font nullfont!
|
||||
Missing character: There is no f in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no p in font nullfont!
|
||||
Missing character: There is no r in font nullfont!
|
||||
Missing character: There is no o in font nullfont!
|
||||
Missing character: There is no p in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no r in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no o in font nullfont!
|
||||
Missing character: There is no d in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no v in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no l in font nullfont!
|
||||
Missing character: There is no o in font nullfont!
|
||||
Missing character: There is no p in font nullfont!
|
||||
Missing character: There is no p in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no r in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no m in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no r in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no c in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no m in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no o in font nullfont!
|
||||
Missing character: There is no n in font nullfont!
|
||||
Missing character: There is no , in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no p in font nullfont!
|
||||
Missing character: There is no p in font nullfont!
|
||||
Missing character: There is no r in font nullfont!
|
||||
Missing character: There is no o in font nullfont!
|
||||
Missing character: There is no x in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no m in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no o in font nullfont!
|
||||
Missing character: There is no n in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no n in font nullfont!
|
||||
Missing character: There is no d in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no n in font nullfont!
|
||||
Missing character: There is no g in font nullfont!
|
||||
Missing character: There is no m in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no h in font nullfont!
|
||||
Missing character: There is no o in font nullfont!
|
||||
Missing character: There is no d in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no , in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no h in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no n in font nullfont!
|
||||
Missing character: There is no w in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no w in font nullfont!
|
||||
Missing character: There is no o in font nullfont!
|
||||
Missing character: There is no r in font nullfont!
|
||||
Missing character: There is no k in font nullfont!
|
||||
Missing character: There is no o in font nullfont!
|
||||
Missing character: There is no u in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no o in font nullfont!
|
||||
Missing character: There is no m in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no p in font nullfont!
|
||||
Missing character: There is no r in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no n in font nullfont!
|
||||
Missing character: There is no c in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no p in font nullfont!
|
||||
Missing character: There is no l in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no o in font nullfont!
|
||||
Missing character: There is no f in font nullfont!
|
||||
Missing character: There is no d in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no r in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no v in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no v in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no p in font nullfont!
|
||||
Missing character: There is no r in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no c in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no n in font nullfont!
|
||||
Missing character: There is no g in font nullfont!
|
||||
Missing character: There is no . in font nullfont!
|
||||
Missing character: There is no F in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no n in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no l in font nullfont!
|
||||
Missing character: There is no l in font nullfont!
|
||||
Missing character: There is no y in font nullfont!
|
||||
Missing character: There is no , in font nullfont!
|
||||
Missing character: There is no w in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no h in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no v in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no n in font nullfont!
|
||||
Missing character: There is no u in font nullfont!
|
||||
Missing character: There is no m in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no r in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no c in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no l in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no x in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no m in font nullfont!
|
||||
Missing character: There is no p in font nullfont!
|
||||
Missing character: There is no l in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no o in font nullfont!
|
||||
Missing character: There is no i in font nullfont!
|
||||
Missing character: There is no l in font nullfont!
|
||||
Missing character: There is no l in font nullfont!
|
||||
Missing character: There is no u in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no r in font nullfont!
|
||||
Missing character: There is no a in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no h in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no c in font nullfont!
|
||||
Missing character: There is no o in font nullfont!
|
||||
Missing character: There is no n in font nullfont!
|
||||
Missing character: There is no c in font nullfont!
|
||||
Missing character: There is no e in font nullfont!
|
||||
Missing character: There is no p in font nullfont!
|
||||
Missing character: There is no t in font nullfont!
|
||||
Missing character: There is no s in font nullfont!
|
||||
Missing character: There is no . in font nullfont!
|
||||
)
|
||||
! Emergency stop.
|
||||
<*> \input abstract.tex
|
||||
|
||||
*** (job aborted, no legal \end found)
|
||||
|
||||
|
||||
Here is how much of TeX's memory you used:
|
||||
8 strings out of 493485
|
||||
178 string characters out of 3143527
|
||||
47818 words of memory out of 3000000
|
||||
3415 multiletter control sequences out of 15000+200000
|
||||
3640 words of font info for 14 fonts, out of 3000000 for 9000
|
||||
957 hyphenation exceptions out of 8191
|
||||
6i,0n,5p,527b,25s stack positions out of 5000i,500n,10000p,200000b,50000s
|
||||
! ==> Fatal error occurred, no output PDF file produced!
|
11
memoire/abstract.tex
Normal file
11
memoire/abstract.tex
Normal file
|
@ -0,0 +1,11 @@
|
|||
\chapter*{Abstract} % ne pas numéroter
|
||||
\phantomsection\addcontentsline{toc}{chapter}{Abstract} % inclure dans TdM
|
||||
|
||||
\begin{otherlanguage*}{english}
|
||||
Classical models in finance are based on a set of hypotheses that are not always empirically verifiable. The main objective behind this master's thesis is to show that the generalized asymmetric Laplace distribution is an interesting alternative to those models. To support this idea, we focus on some of its properties to develop parametric estimation, approximation and testing methods, then we work out some principles of derivatives pricing. Finally, we have a numerical example to illustrate these concepts.
|
||||
\end{otherlanguage*}
|
||||
|
||||
%%% Local Variables:
|
||||
%%% mode: latex
|
||||
%%% TeX-master: "gabarit-maitrise"
|
||||
%%% End:
|
256
memoire/annexe1.aux
Normal file
256
memoire/annexe1.aux
Normal file
|
@ -0,0 +1,256 @@
|
|||
\relax
|
||||
\providecommand\hyper@newdestlabel[2]{}
|
||||
\citation{dodge2004statistique}
|
||||
\citation{dodge2004statistique}
|
||||
\@writefile{lof}{\addvspace {10pt}}
|
||||
\@writefile{lot}{\addvspace {10pt}}
|
||||
\@writefile{toc}{\contentsline {appendix}{\chapternumberline {A}\IeC {\'E}l\IeC {\'e}ments de th\IeC {\'e}orie des probabilit\IeC {\'e}s}{115}{appendix.A}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {A.1}D\IeC {\'e}finitions de base}{115}{section.A.1}}
|
||||
\newlabel{sec:introvariablealeatoire}{{A.1}{115}{Définitions de base}{section.A.1}{}}
|
||||
\newlabel{sec:introvariablealeatoire@cref}{{[subappendix][1][2147483647,1]A.1}{115}}
|
||||
\newlabel{eq:condition1probabilite}{{A.1.1}{115}{Définitions de base}{equation.A.1.0.1}{}}
|
||||
\newlabel{eq:condition1probabilite@cref}{{[equation][1][2147483647,1,1]A.1.1}{115}}
|
||||
\newlabel{eq:condition2probabilite}{{A.1.2}{115}{Définitions de base}{equation.A.1.0.2}{}}
|
||||
\newlabel{eq:condition2probabilite@cref}{{[equation][2][2147483647,1,1]A.1.2}{115}}
|
||||
\newlabel{eq:condition3probabilite}{{A.1.3}{115}{Définitions de base}{equation.A.1.0.3}{}}
|
||||
\newlabel{eq:condition3probabilite@cref}{{[equation][3][2147483647,1,1]A.1.3}{115}}
|
||||
\newlabel{eq:densitedefinition}{{A.1.4}{115}{Définitions de base}{equation.A.1.0.4}{}}
|
||||
\newlabel{eq:densitedefinition@cref}{{[equation][4][2147483647,1,1]A.1.4}{115}}
|
||||
\citation{stuart1987kendall}
|
||||
\newlabel{eq:repartitiondefinition}{{A.1.5}{116}{Définitions de base}{equation.A.1.0.5}{}}
|
||||
\newlabel{eq:repartitiondefinition@cref}{{[equation][5][2147483647,1,1]A.1.5}{116}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {A.2}Transform\IeC {\'e}es d'une variable al\IeC {\'e}atoire}{116}{section.A.2}}
|
||||
\newlabel{sec:transformees}{{A.2}{116}{Transformées d'une variable aléatoire}{section.A.2}{}}
|
||||
\newlabel{sec:transformees@cref}{{[subappendix][2][2147483647,1]A.2}{116}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {A.2.1}La fonction caract\IeC {\'e}ristique}{116}{subsection.A.2.1}}
|
||||
\newlabel{sec:fonctioncaract}{{A.2.1}{116}{La fonction caractéristique}{subsection.A.2.1}{}}
|
||||
\newlabel{sec:fonctioncaract@cref}{{[subsubappendix][1][2147483647,1,2]A.2.1}{116}}
|
||||
\@writefile{toc}{\contentsline {subsubsection}{Transform\IeC {\'e}e de Fourier}{116}{section*.53}}
|
||||
\newlabel{sec:transfourier}{{A.2.1}{116}{Transformée de Fourier}{section*.53}{}}
|
||||
\newlabel{sec:transfourier@cref}{{[subsubappendix][1][2147483647,1,2]A.2.1}{116}}
|
||||
\newlabel{eq:transfourier}{{A.2.1}{116}{Transformée de Fourier}{equation.A.2.0.1}{}}
|
||||
\newlabel{eq:transfourier@cref}{{[equation][1][2147483647,1,2]A.2.1}{116}}
|
||||
\newlabel{eq:transinvfourier}{{A.2.2}{116}{Transformée de Fourier}{equation.A.2.0.2}{}}
|
||||
\newlabel{eq:transinvfourier@cref}{{[equation][2][2147483647,1,2]A.2.2}{116}}
|
||||
\@writefile{toc}{\contentsline {subsubsection}{D\IeC {\'e}finition}{116}{section*.54}}
|
||||
\newlabel{sec:deffncaract}{{A.2.1}{116}{Définition}{section*.54}{}}
|
||||
\newlabel{sec:deffncaract@cref}{{[subsubappendix][1][2147483647,1,2]A.2.1}{116}}
|
||||
\newlabel{eq:deffncaract}{{A.2.3}{116}{Définition}{equation.A.2.0.3}{}}
|
||||
\newlabel{eq:deffncaract@cref}{{[equation][3][2147483647,1,2]A.2.3}{116}}
|
||||
\citation{lukacs1960characteristic}
|
||||
\citation{gil1951note}
|
||||
\citation{epps2007pricing}
|
||||
\citation{wendel1961non}
|
||||
\@writefile{toc}{\contentsline {subsubsection}{Les moments}{117}{section*.55}}
|
||||
\newlabel{sec:momentsfncaract}{{A.2.1}{117}{Les moments}{section*.55}{}}
|
||||
\newlabel{sec:momentsfncaract@cref}{{[subsubappendix][1][2147483647,1,2]A.2.1}{117}}
|
||||
\newlabel{eq:defmoments}{{A.2.4}{117}{Les moments}{equation.A.2.0.4}{}}
|
||||
\newlabel{eq:defmoments@cref}{{[equation][4][2147483647,1,2]A.2.4}{117}}
|
||||
\newlabel{eq:fncaractmoments}{{A.2.5}{117}{Les moments}{equation.A.2.0.5}{}}
|
||||
\newlabel{eq:fncaractmoments@cref}{{[equation][5][2147483647,1,2]A.2.5}{117}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {A.2.2}Inversion de la fonction caract\IeC {\'e}ristique}{117}{subsection.A.2.2}}
|
||||
\newlabel{sec:inversioncaract}{{A.2.2}{117}{Inversion de la fonction caractéristique}{subsection.A.2.2}{}}
|
||||
\newlabel{sec:inversioncaract@cref}{{[subsubappendix][2][2147483647,1,2]A.2.2}{117}}
|
||||
\@writefile{toc}{\contentsline {subsubsection}{La densit\IeC {\'e}}{117}{section*.56}}
|
||||
\newlabel{sec:densitefncaract}{{A.2.2}{117}{La densité}{section*.56}{}}
|
||||
\newlabel{sec:densitefncaract@cref}{{[subsubappendix][2][2147483647,1,2]A.2.2}{117}}
|
||||
\newlabel{eq:caractdensite}{{A.2.6}{117}{La densité}{equation.A.2.0.6}{}}
|
||||
\newlabel{eq:caractdensite@cref}{{[equation][6][2147483647,1,2]A.2.6}{117}}
|
||||
\@writefile{toc}{\contentsline {subsubsection}{La fonction de r\IeC {\'e}partition}{117}{section*.57}}
|
||||
\newlabel{sec:repartitionfncaract}{{A.2.2}{117}{La fonction de répartition}{section*.57}{}}
|
||||
\newlabel{sec:repartitionfncaract@cref}{{[subsubappendix][2][2147483647,1,2]A.2.2}{117}}
|
||||
\newlabel{eq:gilpelaez}{{A.2.7}{117}{La fonction de répartition}{equation.A.2.0.7}{}}
|
||||
\newlabel{eq:gilpelaez@cref}{{[equation][7][2147483647,1,2]A.2.7}{117}}
|
||||
\newlabel{eq:gilpelaez2}{{A.2.8}{117}{La fonction de répartition}{equation.A.2.0.8}{}}
|
||||
\newlabel{eq:gilpelaez2@cref}{{[equation][8][2147483647,1,2]A.2.8}{117}}
|
||||
\citation{shephard1991characteristic}
|
||||
\newlabel{eq:inversionfncaract}{{A.2.9}{118}{La fonction de répartition}{equation.A.2.0.9}{}}
|
||||
\newlabel{eq:inversionfncaract@cref}{{[equation][9][2147483647,1,2]A.2.9}{118}}
|
||||
\newlabel{eq:shepherd}{{A.2.10}{118}{La fonction de répartition}{equation.A.2.0.10}{}}
|
||||
\newlabel{eq:shepherd@cref}{{[equation][10][2147483647,1,2]A.2.10}{118}}
|
||||
\newlabel{eq:approxinvfncaract}{{A.2.11}{118}{La fonction de répartition}{equation.A.2.0.11}{}}
|
||||
\newlabel{eq:approxinvfncaract@cref}{{[equation][11][2147483647,1,2]A.2.11}{118}}
|
||||
\newlabel{eq:convocaract}{{A.2.12}{118}{La fonction de répartition}{equation.A.2.0.12}{}}
|
||||
\newlabel{eq:convocaract@cref}{{[equation][12][2147483647,1,2]A.2.12}{118}}
|
||||
\newlabel{eq:convocaractIID}{{A.2.13}{118}{La fonction de répartition}{equation.A.2.0.13}{}}
|
||||
\newlabel{eq:convocaractIID@cref}{{[equation][13][2147483647,1,2]A.2.13}{118}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {A.2.3}La fonction g\IeC {\'e}n\IeC {\'e}ratrice des moments}{118}{subsection.A.2.3}}
|
||||
\newlabel{sec:fgm}{{A.2.3}{118}{La fonction génératrice des moments}{subsection.A.2.3}{}}
|
||||
\newlabel{sec:fgm@cref}{{[subsubappendix][3][2147483647,1,2]A.2.3}{118}}
|
||||
\newlabel{eq:deffngenmom}{{A.2.14}{118}{La fonction génératrice des moments}{equation.A.2.0.14}{}}
|
||||
\newlabel{eq:deffngenmom@cref}{{[equation][14][2147483647,1,2]A.2.14}{118}}
|
||||
\citation{stuart1987kendall}
|
||||
\newlabel{eq:fgmmoments}{{A.2.15}{119}{La fonction génératrice des moments}{equation.A.2.0.15}{}}
|
||||
\newlabel{eq:fgmmoments@cref}{{[equation][15][2147483647,1,2]A.2.15}{119}}
|
||||
\newlabel{eq:fncaractfgm}{{A.2.16}{119}{La fonction génératrice des moments}{equation.A.2.0.16}{}}
|
||||
\newlabel{eq:fncaractfgm@cref}{{[equation][16][2147483647,1,2]A.2.16}{119}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {A.2.4}La fonction g\IeC {\'e}n\IeC {\'e}ratrice des cumulants}{119}{subsection.A.2.4}}
|
||||
\newlabel{sec:fgc}{{A.2.4}{119}{La fonction génératrice des cumulants}{subsection.A.2.4}{}}
|
||||
\newlabel{sec:fgc@cref}{{[subsubappendix][4][2147483647,1,2]A.2.4}{119}}
|
||||
\newlabel{eq:fgc}{{A.2.17}{119}{La fonction génératrice des cumulants}{equation.A.2.0.17}{}}
|
||||
\newlabel{eq:fgc@cref}{{[equation][17][2147483647,1,2]A.2.17}{119}}
|
||||
\newlabel{eq:cumulantsempiriques}{{A.2.18}{119}{La fonction génératrice des cumulants}{equation.A.2.0.18.18}{}}
|
||||
\newlabel{eq:cumulantsempiriques@cref}{{[equation][18][2147483647,1,2]A.2.18}{119}}
|
||||
\newlabel{eq:cumulantsempiriques1}{{A.2.18a}{119}{La fonction génératrice des cumulants}{equation.A.2.0.18a}{}}
|
||||
\newlabel{eq:cumulantsempiriques1@cref}{{[equation][1][2147483647,1,2,18]A.2.18a}{119}}
|
||||
\newlabel{eq:cumulantsempiriques2}{{A.2.18b}{119}{La fonction génératrice des cumulants}{equation.A.2.0.18b}{}}
|
||||
\newlabel{eq:cumulantsempiriques2@cref}{{[equation][2][2147483647,1,2,18]A.2.18b}{119}}
|
||||
\newlabel{eq:cumulantsempiriques3}{{A.2.18c}{119}{La fonction génératrice des cumulants}{equation.A.2.0.18c}{}}
|
||||
\newlabel{eq:cumulantsempiriques3@cref}{{[equation][3][2147483647,1,2,18]A.2.18c}{119}}
|
||||
\newlabel{eq:cumulantsempiriques4}{{A.2.18d}{119}{La fonction génératrice des cumulants}{equation.A.2.0.18d}{}}
|
||||
\newlabel{eq:cumulantsempiriques4@cref}{{[equation][4][2147483647,1,2,18]A.2.18d}{119}}
|
||||
\newlabel{eq:derivfgc}{{A.2.19}{119}{La fonction génératrice des cumulants}{equation.A.2.0.19}{}}
|
||||
\newlabel{eq:derivfgc@cref}{{[equation][19][2147483647,1,2]A.2.19}{119}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {A.2.5}La transform\IeC {\'e}e d'Esscher}{120}{subsection.A.2.5}}
|
||||
\newlabel{sec:transesscher}{{A.2.5}{120}{La transformée d'Esscher}{subsection.A.2.5}{}}
|
||||
\newlabel{sec:transesscher@cref}{{[subsubappendix][5][2147483647,1,2]A.2.5}{120}}
|
||||
\newlabel{eq:esschertransform}{{A.2.20}{120}{La transformée d'Esscher}{equation.A.2.0.20}{}}
|
||||
\newlabel{eq:esschertransform@cref}{{[equation][20][2147483647,1,2]A.2.20}{120}}
|
||||
\newlabel{eq:esscherMx}{{A.2.21}{120}{La transformée d'Esscher}{equation.A.2.0.21}{}}
|
||||
\newlabel{eq:esscherMx@cref}{{[equation][21][2147483647,1,2]A.2.21}{120}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {A.3}La transform\IeC {\'e}e de Fourier rapide}{120}{section.A.3}}
|
||||
\newlabel{sec:methodeFFT}{{A.3}{120}{La transformée de Fourier rapide}{section.A.3}{}}
|
||||
\newlabel{sec:methodeFFT@cref}{{[subappendix][3][2147483647,1]A.3}{120}}
|
||||
\newlabel{eq:sommefft}{{A.3.1}{120}{La transformée de Fourier rapide}{equation.A.3.0.1}{}}
|
||||
\newlabel{eq:sommefft@cref}{{[equation][1][2147483647,1,3]A.3.1}{120}}
|
||||
\newlabel{eq:sommeifft}{{A.3.2}{120}{La transformée de Fourier rapide}{equation.A.3.0.2}{}}
|
||||
\newlabel{eq:sommeifft@cref}{{[equation][2][2147483647,1,3]A.3.2}{120}}
|
||||
\citation{barndorff2001levy}
|
||||
\newlabel{eq:sommefftdensite}{{A.3.3}{121}{La transformée de Fourier rapide}{equation.A.3.0.3.3}{}}
|
||||
\newlabel{eq:sommefftdensite@cref}{{[equation][3][2147483647,1,3]A.3.3}{121}}
|
||||
\newlabel{eq:sommefftdensite1}{{A.3.3a}{121}{La transformée de Fourier rapide}{equation.A.3.0.3a}{}}
|
||||
\newlabel{eq:sommefftdensite1@cref}{{[equation][1][2147483647,1,3,3]A.3.3a}{121}}
|
||||
\newlabel{eq:sommefftdensite2}{{A.3.3b}{121}{La transformée de Fourier rapide}{equation.A.3.0.3b}{}}
|
||||
\newlabel{eq:sommefftdensite2@cref}{{[equation][2][2147483647,1,3,3]A.3.3b}{121}}
|
||||
\newlabel{eq:signalfftfonction}{{A.3.4}{121}{La transformée de Fourier rapide}{equation.A.3.0.4}{}}
|
||||
\newlabel{eq:signalfftfonction@cref}{{[equation][4][2147483647,1,3]A.3.4}{121}}
|
||||
\newlabel{eq:fftfonction}{{A.3.5}{121}{La transformée de Fourier rapide}{equation.A.3.0.5}{}}
|
||||
\newlabel{eq:fftfonction@cref}{{[equation][5][2147483647,1,3]A.3.5}{121}}
|
||||
\newlabel{eq:densitefftfonction}{{A.3.6}{121}{La transformée de Fourier rapide}{equation.A.3.0.6}{}}
|
||||
\newlabel{eq:densitefftfonction@cref}{{[equation][6][2147483647,1,3]A.3.6}{121}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {A.4}Processus de L\IeC {\'e}vy}{121}{section.A.4}}
|
||||
\newlabel{sec:processuslevy}{{A.4}{121}{Processus de Lévy}{section.A.4}{}}
|
||||
\newlabel{sec:processuslevy@cref}{{[subappendix][4][2147483647,1]A.4}{121}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {A.4.1}D\IeC {\'e}finition et propri\IeC {\'e}t\IeC {\'e}s}{121}{subsection.A.4.1}}
|
||||
\newlabel{sec:defproplevy}{{A.4.1}{121}{Définition et propriétés}{subsection.A.4.1}{}}
|
||||
\newlabel{sec:defproplevy@cref}{{[subsubappendix][1][2147483647,1,4]A.4.1}{121}}
|
||||
\citation{applebaum2004levy}
|
||||
\@writefile{toc}{\contentsline {subsubsection}{Repr\IeC {\'e}sentation de L\IeC {\'e}vy-Khintchine}{122}{section*.58}}
|
||||
\newlabel{sec:levykhintchine}{{A.4.1}{122}{Représentation de Lévy-Khintchine}{section*.58}{}}
|
||||
\newlabel{sec:levykhintchine@cref}{{[subsubappendix][1][2147483647,1,4]A.4.1}{122}}
|
||||
\newlabel{eq:levykhintchine}{{A.4.1}{122}{Représentation de Lévy-Khintchine}{equation.A.4.0.1}{}}
|
||||
\newlabel{eq:levykhintchine@cref}{{[equation][1][2147483647,1,4]A.4.1}{122}}
|
||||
\@writefile{toc}{\contentsline {subsubsection}{Repr\IeC {\'e}sentation de L\IeC {\'e}vy-It\IeC {\^o}}{122}{section*.59}}
|
||||
\newlabel{sec:levyito}{{A.4.1}{122}{Représentation de Lévy-Itô}{section*.59}{}}
|
||||
\newlabel{sec:levyito@cref}{{[subsubappendix][1][2147483647,1,4]A.4.1}{122}}
|
||||
\newlabel{eq:levyitodecomposition}{{A.4.3}{122}{Représentation de Lévy-Itô}{equation.A.4.0.3}{}}
|
||||
\newlabel{eq:levyitodecomposition@cref}{{[equation][3][2147483647,1,4]A.4.3}{122}}
|
||||
\citation{sato1999levy}
|
||||
\citation{schoutens2003levy}
|
||||
\citation{kyprianou2007introductory}
|
||||
\citation{teschl2004topics}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {A.4.2}Processus subordonn\IeC {\'e}}{123}{subsection.A.4.2}}
|
||||
\newlabel{sec:procsubordonne}{{A.4.2}{123}{Processus subordonné}{subsection.A.4.2}{}}
|
||||
\newlabel{sec:procsubordonne@cref}{{[subsubappendix][2][2147483647,1,4]A.4.2}{123}}
|
||||
\newlabel{eq:processussubordonne}{{A.4.5}{123}{Processus subordonné}{equation.A.4.0.5}{}}
|
||||
\newlabel{eq:processussubordonne@cref}{{[equation][5][2147483647,1,4]A.4.5}{123}}
|
||||
\newlabel{eq:exposantcaractYt}{{A.4.6}{123}{Processus subordonné}{equation.A.4.0.6}{}}
|
||||
\newlabel{eq:exposantcaractYt@cref}{{[equation][6][2147483647,1,4]A.4.6}{123}}
|
||||
\newlabel{eq:fncaractYt}{{A.4.7}{123}{Processus subordonné}{equation.A.4.0.7}{}}
|
||||
\newlabel{eq:fncaractYt@cref}{{[equation][7][2147483647,1,4]A.4.7}{123}}
|
||||
\newlabel{eq:densiteprocessusyt}{{A.4.8}{123}{Processus subordonné}{equation.A.4.0.8}{}}
|
||||
\newlabel{eq:densiteprocessusyt@cref}{{[equation][8][2147483647,1,4]A.4.8}{123}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {A.5}Th\IeC {\'e}or\IeC {\`e}mes d'int\IeC {\'e}gration}{123}{section.A.5}}
|
||||
\newlabel{sec:integration}{{A.5}{123}{Théorèmes d'intégration}{section.A.5}{}}
|
||||
\newlabel{sec:integration@cref}{{[subappendix][5][2147483647,1]A.5}{123}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {A.5.1}Th\IeC {\'e}or\IeC {\`e}me de convergence domin\IeC {\'e}e de Lebesgue}{124}{subsection.A.5.1}}
|
||||
\newlabel{sec:theor-de-conv}{{A.5.1}{124}{Théorème de convergence dominée de Lebesgue}{subsection.A.5.1}{}}
|
||||
\newlabel{sec:theor-de-conv@cref}{{[subsubappendix][1][2147483647,1,5]A.5.1}{124}}
|
||||
\newlabel{eq:sequencetheoremconvdom}{{A.5.1}{124}{Théorème de convergence dominée de Lebesgue}{equation.A.5.0.1}{}}
|
||||
\newlabel{eq:sequencetheoremconvdom@cref}{{[equation][1][2147483647,1,5]A.5.1}{124}}
|
||||
\newlabel{eq:theoremeconvdom}{{A.5.2}{124}{Théorème de convergence dominée de Lebesgue}{equation.A.5.0.2}{}}
|
||||
\newlabel{eq:theoremeconvdom@cref}{{[equation][2][2147483647,1,5]A.5.2}{124}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {A.5.2}Th\IeC {\'e}or\IeC {\`e}me de Fubini}{124}{subsection.A.5.2}}
|
||||
\newlabel{sec:theoreme-de-fubini}{{A.5.2}{124}{Théorème de Fubini}{subsection.A.5.2}{}}
|
||||
\newlabel{sec:theoreme-de-fubini@cref}{{[subsubappendix][2][2147483647,1,5]A.5.2}{124}}
|
||||
\newlabel{eq:rectanglefubini}{{A.5.3}{124}{Théorème de Fubini}{equation.A.5.0.3}{}}
|
||||
\newlabel{eq:rectanglefubini@cref}{{[equation][3][2147483647,1,5]A.5.3}{124}}
|
||||
\newlabel{eq:thfubini2}{{A.5.4}{124}{Théorème de Fubini}{equation.A.5.0.4}{}}
|
||||
\newlabel{eq:thfubini2@cref}{{[equation][4][2147483647,1,5]A.5.4}{124}}
|
||||
\@setckpt{annexe1}{
|
||||
\setcounter{page}{125}
|
||||
\setcounter{equation}{4}
|
||||
\setcounter{enumi}{2}
|
||||
\setcounter{enumii}{2}
|
||||
\setcounter{enumiii}{0}
|
||||
\setcounter{enumiv}{0}
|
||||
\setcounter{footnote}{0}
|
||||
\setcounter{mpfootnote}{0}
|
||||
\setcounter{@memmarkcntra}{0}
|
||||
\setcounter{storedpagenumber}{1}
|
||||
\setcounter{book}{0}
|
||||
\setcounter{part}{0}
|
||||
\setcounter{chapter}{1}
|
||||
\setcounter{section}{5}
|
||||
\setcounter{subsection}{2}
|
||||
\setcounter{subsubsection}{0}
|
||||
\setcounter{paragraph}{0}
|
||||
\setcounter{subparagraph}{0}
|
||||
\setcounter{@ppsavesec}{0}
|
||||
\setcounter{@ppsaveapp}{0}
|
||||
\setcounter{vslineno}{0}
|
||||
\setcounter{poemline}{0}
|
||||
\setcounter{modulo@vs}{0}
|
||||
\setcounter{memfvsline}{0}
|
||||
\setcounter{verse}{0}
|
||||
\setcounter{chrsinstr}{0}
|
||||
\setcounter{poem}{0}
|
||||
\setcounter{newflo@tctr}{4}
|
||||
\setcounter{@contsubnum}{0}
|
||||
\setcounter{maxsecnumdepth}{2}
|
||||
\setcounter{sidefootnote}{0}
|
||||
\setcounter{pagenote}{0}
|
||||
\setcounter{pagenoteshadow}{0}
|
||||
\setcounter{memfbvline}{0}
|
||||
\setcounter{bvlinectr}{0}
|
||||
\setcounter{cp@cntr}{0}
|
||||
\setcounter{ism@mctr}{0}
|
||||
\setcounter{xsm@mctr}{0}
|
||||
\setcounter{csm@mctr}{0}
|
||||
\setcounter{ksm@mctr}{0}
|
||||
\setcounter{xksm@mctr}{0}
|
||||
\setcounter{cksm@mctr}{0}
|
||||
\setcounter{msm@mctr}{0}
|
||||
\setcounter{xmsm@mctr}{0}
|
||||
\setcounter{cmsm@mctr}{0}
|
||||
\setcounter{bsm@mctr}{0}
|
||||
\setcounter{workm@mctr}{0}
|
||||
\setcounter{sheetsequence}{143}
|
||||
\setcounter{lastsheet}{155}
|
||||
\setcounter{lastpage}{137}
|
||||
\setcounter{figure}{0}
|
||||
\setcounter{lofdepth}{1}
|
||||
\setcounter{table}{0}
|
||||
\setcounter{lotdepth}{1}
|
||||
\setcounter{NAT@ctr}{0}
|
||||
\setcounter{nprt@mantissa@digitsbefore}{0}
|
||||
\setcounter{nprt@mantissa@digitsafter}{0}
|
||||
\setcounter{nprt@exponent@digitsbefore}{0}
|
||||
\setcounter{nprt@exponent@digitsafter}{0}
|
||||
\setcounter{nprt@digitsfirstblock}{0}
|
||||
\setcounter{nprt@blockcnt}{0}
|
||||
\setcounter{nprt@cntprint}{0}
|
||||
\setcounter{parentequation}{0}
|
||||
\setcounter{thmt@dummyctr}{3}
|
||||
\setcounter{Item}{35}
|
||||
\setcounter{Hfootnote}{3}
|
||||
\setcounter{memhycontfloat}{0}
|
||||
\setcounter{Hpagenote}{0}
|
||||
\setcounter{bookmark@seq@number}{126}
|
||||
\setcounter{ContinuedFloat}{0}
|
||||
\setcounter{app@runs}{1}
|
||||
\setcounter{pspicture}{0}
|
||||
\setcounter{section@level}{0}
|
||||
\setcounter{theo}{0}
|
||||
\setcounter{hypothese}{0}
|
||||
}
|
570
memoire/annexe1.tex
Normal file
570
memoire/annexe1.tex
Normal file
|
@ -0,0 +1,570 @@
|
|||
\chapter{Éléments de théorie des probabilités}
|
||||
|
||||
\section{Définitions de base}
|
||||
\label{sec:introvariablealeatoire}
|
||||
|
||||
Une \textbf{variable aléatoire} est une variable dont la valeur est
|
||||
déterminée par une expérience aléatoire. On associe une probabilité à
|
||||
chacune des valeurs possibles. On appelle \textbf{évènement} tout
|
||||
ensemble de réalisations possible de l'expérience
|
||||
aléatoire. L'entièreté de tous les évènements se nomme
|
||||
l'\textbf{ensemble fondamental} et est notée $\Omega$.
|
||||
|
||||
Une \textbf{probabilité} associée à un évènement $A$ doit satisfaire
|
||||
un ensemble de trois axiomes \citep{dodge2004statistique}.
|
||||
\begin{enumerate}
|
||||
\item Une probabilité est une valeur comprise entre 0 et 1:
|
||||
\begin{equation}
|
||||
\label{eq:condition1probabilite}
|
||||
0 \leq P(A) \leq 1.
|
||||
\end{equation}
|
||||
|
||||
\item La probabilité de l'évènement correspondant à l'ensemble
|
||||
fondamental est 1:
|
||||
\begin{equation}
|
||||
\label{eq:condition2probabilite}
|
||||
P(\Omega) = 1.
|
||||
\end{equation}
|
||||
|
||||
\item Pour chaque séquence d'évènements mutuellement exclusifs
|
||||
$A_1,A_2,\ldots$:
|
||||
\begin{equation}
|
||||
\label{eq:condition3probabilite}
|
||||
P \left[ \bigcup_{i=1}^{\infty} A_i \right] = \sum_{i=1}^{\infty} P(A_i).
|
||||
\end{equation}
|
||||
\end{enumerate}
|
||||
|
||||
Le respect de ces conditions devra notamment être vérifié lors de
|
||||
l'utilisation de méthodes numériques.
|
||||
|
||||
Toujours selon \cite{dodge2004statistique}, on définit:
|
||||
\begin{enumerate}
|
||||
\item La \textbf{densité}, notée $f_X(x)$, permet de déterminer la
|
||||
probabilité qu'une variable aléatoire $X$ prenne une valeur dans un
|
||||
intervalle fixé $\left[ a,b \right]$. En intégrant cette fonction
|
||||
sur l'intervalle $\left[ a,b \right]$, on obtient cette probabilité:
|
||||
\begin{equation}
|
||||
\label{eq:densitedefinition}
|
||||
P(a \leq X \leq b) = \int_{a}^{b} f_X(x) dx.
|
||||
\end{equation}
|
||||
\item La \textbf{fonction de répartition}, notée $F_X(x)$, d’une
|
||||
variable aléatoire est définie comme la probabilité que celle-ci
|
||||
prenne une valeur inférieure ou égale à un certain nombre $b \in
|
||||
\mathbb{R}$:
|
||||
\begin{equation}
|
||||
\label{eq:repartitiondefinition}
|
||||
F_X(b) = P(X \leq b) = \int_{-\infty}^{b} f_X(x) dx.
|
||||
\end{equation}
|
||||
\end{enumerate}
|
||||
|
||||
|
||||
\section{Transformées d'une variable aléatoire}
|
||||
\label{sec:transformees}
|
||||
|
||||
Les transformées d'une variable aléatoire résultent de l'application
|
||||
d'un opérateur intégral, ou à noyau, sur la fonction de densité.
|
||||
|
||||
Certaines d'entre elles permettent de déterminer entièrement leur
|
||||
distribution. Parmi celles-ci, on retrouve la fonction caractéristique
|
||||
et les fonctions génératrice des moments et des cumulants, qui sont
|
||||
les plus couramment utilisées.
|
||||
|
||||
Certaines transformées permettent de modifier la distribution d'une
|
||||
variable aléatoire. Parmi celles-ci, la transformée d'Esscher, qui est
|
||||
employée en actuariat et en finance, est aussi étroitement liée au
|
||||
concept d'utilité en sciences économiques.
|
||||
|
||||
\subsection{La fonction caractéristique}
|
||||
\label{sec:fonctioncaract}
|
||||
|
||||
\subsubsection{Transformée de Fourier}
|
||||
\label{sec:transfourier}
|
||||
|
||||
La transformée de Fourier est une opération qui transforme une
|
||||
fonction $g(\xi)$ en une autre $f(x)$ par l'intégration, sur son
|
||||
domaine, du produit $\mathrm{e}^{-i x\xi}\,g(\xi)$:
|
||||
\begin{equation}
|
||||
\label{eq:transfourier}
|
||||
\mathcal{F}(g):x\mapsto f(x) = \int_{-\infty}^{\infty} \mathrm{e}^{-ix\xi}\,g(\xi)\,\mathrm{d}\xi.
|
||||
\end{equation}
|
||||
|
||||
On définit aussi la transformée de Fourier inverse
|
||||
\index{Transformée!de Fourier!inverse}, qui permet de retrouver la
|
||||
fonction initiale $g(\xi)$ à partir de la transformée $f(x)$:
|
||||
\begin{equation}
|
||||
\label{eq:transinvfourier}
|
||||
g(\xi)=\mathcal{F}^{-1}(f(x)) = {1 \over 2\pi}\, \int_{-\infty}^{\infty} \mathrm{e}^{ix \xi}\,f(x)\, \mathrm{d}x.
|
||||
\end{equation}
|
||||
|
||||
\subsubsection{Définition}
|
||||
\label{sec:deffncaract}
|
||||
|
||||
La fonction caractéristique \index{Fonction!caractéristique} est
|
||||
définie comme étant la transformée de Fourier inverse de la densité
|
||||
\index{Fonction!de densité}, dans le cas continu, ou de masse de
|
||||
probabilité \index{Fonction!de masse de probabilité}, dans le cas
|
||||
discret. C'est donc une application directe de
|
||||
\eqref{eq:transinvfourier} qui s'exprime par l'intégrale de
|
||||
Riemann-Stieltjes:
|
||||
\begin{equation}
|
||||
\label{eq:deffncaract}
|
||||
\phi_X(s) = \int_{-\infty}^{\infty} e^{isx} dF_X(x).
|
||||
\end{equation}
|
||||
|
||||
Cette intégrale est toujours convergente, comme le démontre
|
||||
\cite{stuart1987kendall}.
|
||||
|
||||
\subsubsection{Les moments}
|
||||
\label{sec:momentsfncaract}
|
||||
On définit le moment d'ordre $r$ d'une distribution de probabilités
|
||||
comme étant la quantité représentée par l'espérance de la puissance
|
||||
$r$ d'une variable aléatoire:
|
||||
\begin{equation}
|
||||
\label{eq:defmoments}
|
||||
E[X^r] = \int_{-\infty}^{\infty} x^r dF_X(x).
|
||||
\end{equation}
|
||||
|
||||
La fonction caractéristique\index{Fonction!caractéristique},
|
||||
lorsqu'elle est différenciable, permettra de générer les moments de la
|
||||
distribution en utilisant la propriété suivante
|
||||
\citep{lukacs1960characteristic}:
|
||||
\begin{equation*}
|
||||
\frac{d^r\phi_X(s)}{ds^r} = i^r \int_{-\infty}^{\infty} e^{isx} x^r dF_X(x).
|
||||
\end{equation*}
|
||||
|
||||
En posant $s=0$ par la suite, on obtient, pour les différentes
|
||||
dérivées, l'équation suivante:
|
||||
\begin{equation*}
|
||||
\left[ \frac{d^r\phi_X(s)}{ds^r} \right]_{s=0} = i^r\,E[X^r].
|
||||
\end{equation*}
|
||||
|
||||
Ce qui nous permet de définir les différents moments de la
|
||||
distribution à partir de la fonction caractéristique:
|
||||
\begin{equation}
|
||||
\label{eq:fncaractmoments}
|
||||
E[X^r] = (-i)^r\,\left[ \frac{d^r\phi_X(s)}{ds^r} \right]_{s=0}.
|
||||
\end{equation}
|
||||
|
||||
\subsection{Inversion de la fonction caractéristique}
|
||||
\label{sec:inversioncaract}
|
||||
|
||||
\subsubsection{La densité}
|
||||
\label{sec:densitefncaract}
|
||||
|
||||
On obtient la densité de la variable aléatoire $X$ en calculant la
|
||||
transformée de Fourier \eqref{eq:transfourier} de la fonction
|
||||
caractéristique suivante:
|
||||
\begin{equation}
|
||||
\label{eq:caractdensite}
|
||||
f_X(x) = \frac{1}{2\pi} \int_{-\infty}^{\infty} e^{-isx} \phi_X(s) ds.
|
||||
\end{equation}
|
||||
|
||||
On peut utiliser l'intégration numérique si l'intégrale n'a pas de
|
||||
solution analytique, la méthode de la transformée de Fourier rapide
|
||||
(section \ref{sec:methodeFFT}) ou encore la méthode du point de selle.
|
||||
|
||||
\subsubsection{La fonction de répartition}
|
||||
\label{sec:repartitionfncaract}
|
||||
|
||||
On peut obtenir directement l'expression de la fonction de
|
||||
répartition, sans passer par l'intégration de la densité de
|
||||
probabilité, en utilisant le théorème de \cite{gil1951note}:
|
||||
\begin{equation}
|
||||
\label{eq:gilpelaez}
|
||||
F_X(x) = \frac{1}{2} + \frac{1}{2\pi} \int_{0}^{\infty} \frac{e^{isx}\phi_X(-s)-e^{-isx}\phi_X(s)}{is} ds.
|
||||
\end{equation}
|
||||
|
||||
On peut exprimer cette intégrale sous la forme suivante lorsque la
|
||||
densité $f(x)$ est strictement continue \citep[p.66]{epps2007pricing}:
|
||||
\begin{equation}
|
||||
\label{eq:gilpelaez2}
|
||||
F_X(x) = \frac{1}{2} - \frac{1}{2\pi} \int_{-\infty}^{\infty} \frac{e^{-isx}}{is} \phi(s) ds.
|
||||
\end{equation}
|
||||
Cette forme est moins appropriée pour l'intégration numérique, mais
|
||||
sera utile dans plusieurs calculs. On préfèrera la ramener à la forme
|
||||
suivante avec le théorème 2 de \cite{wendel1961non}:
|
||||
\begin{equation}
|
||||
\label{eq:inversionfncaract}
|
||||
F_X(x) = \frac{1}{2} - \frac{1}{\pi}\int_{0}^{\infty} \frac{Im\left[e^{-isx}\phi_X(s)\right]}{s} ds.
|
||||
\end{equation}
|
||||
|
||||
Cette fonction peut être difficile à intégrer de manière efficace
|
||||
numériquement, surtout lorsqu'on l'évalue en des points situés aux
|
||||
extrémités de la distribution. On peut alors privilégier l'égalité
|
||||
donnée par le théorème 4 de \cite{shephard1991characteristic}, qui
|
||||
utilise le noyau de Fejér afin de réduire l'erreur d'intégration, pour
|
||||
obtenir le résultat suivant:
|
||||
\begin{equation}
|
||||
\label{eq:shepherd}
|
||||
F_X(x) = \frac{1}{2} - \frac{1}{2\pi} \lim_{n\rightarrow\infty} \int_{0}^{n} \underbrace{\left[ 1-\frac{s}{n} \right]}_{\text{Noyau de Fejér}} \left[ \frac{e^{isx}\phi_X(-s)-e^{-isx}\phi_X(s)}{is} \right] ds.
|
||||
\end{equation}
|
||||
|
||||
De même, en utilisant le raisonnement qui permet de passer de la
|
||||
définition de la transformée \eqref{eq:gilpelaez} à celle de son
|
||||
inverse \eqref{eq:inversionfncaract}, on obtient, pour le résultat
|
||||
\eqref{eq:shepherd}, l'expression suivante:
|
||||
\begin{equation}
|
||||
\label{eq:approxinvfncaract}
|
||||
F_X(x) = \frac{1}{2} - \frac{1}{\pi} \lim_{n\rightarrow\infty} \int_{0}^{n} \left[ 1-\frac{s}{n} \right] \frac{Im\left[e^{-isx}\phi_X(s)\right]}{s}ds.
|
||||
\end{equation}
|
||||
|
||||
On peut alors obtenir une approximation en fixant la borne
|
||||
d'intégration supérieure $n$ qui définit la précision
|
||||
désirée. Certains logiciels d'intégration numérique prennent en charge
|
||||
les bornes infinies.
|
||||
|
||||
La fonction caractéristique permet d'identifier la distribution d'une
|
||||
somme de variables aléatoires indépendantes $Z = X_1, \ldots, X_n$,
|
||||
appelée produit de convolution et noté $Z = X_1 * \ldots * X_n$:
|
||||
\begin{equation}
|
||||
\label{eq:convocaract}
|
||||
\phi_{Z}(s) = \phi_{X_1+\ldots+X_n}(s) = \prod_{i=1}^n \phi_{X_i}(s).
|
||||
\end{equation}
|
||||
|
||||
Lorsque les variables aléatoires sommées sont aussi identiquement
|
||||
distribuées, la fonction caractéristique de $Z$ est la $n^e$ puissance
|
||||
de celle de $X$:
|
||||
\begin{equation}
|
||||
\label{eq:convocaractIID}
|
||||
\phi_{Z}(s) = \phi_{X_1+\ldots+X_n}(s) = \left[\phi_{X_i}(s)\right]^n.
|
||||
\end{equation}
|
||||
|
||||
Cette fonction est donc une solution de rechange intéressante à
|
||||
utiliser lorsque aucune forme analytique pour la densité ou la
|
||||
fonction de répartition pour une distribution donnée n'existe.
|
||||
|
||||
\subsection{La fonction génératrice des moments}
|
||||
\label{sec:fgm}
|
||||
La fonction génératrice des moments $M_X(s)$
|
||||
\index{Fonction!génératrice des moments} est définie comme étant la
|
||||
transformée de Laplace inverse \index{Transformée!de Laplace!inverse}
|
||||
de la densité:
|
||||
\begin{equation}
|
||||
\label{eq:deffngenmom}
|
||||
M_X(s) = \int_{-\infty}^{\infty} e^{sx} dF_X(x).
|
||||
\end{equation}
|
||||
|
||||
Cette intégrale, contrairement à \eqref{eq:deffncaract}, ne converge
|
||||
pas toujours, ce qui signifie que certaines distributions n'ont pas de
|
||||
fonction génératrice des moments. Comme son nom l'indique, cette
|
||||
fonction permet de générer les moments de la distribution de la
|
||||
variable $X$, ce qui se fait essentiellement de la même manière
|
||||
qu'avec la définition \eqref{eq:fncaractmoments}. Par contre, on n'a
|
||||
pas à éliminer le terme complexe, ce qui a pour avantage de simplifier
|
||||
les calculs:
|
||||
\begin{equation}
|
||||
\label{eq:fgmmoments}
|
||||
E[X^r] = \left[ \frac{d^r M_X(s)}{ds^r} \right]_{s=0}.
|
||||
\end{equation}
|
||||
|
||||
La fonction génératrice des moments peut aussi être obtenue à partir
|
||||
de la fonction caractéristique :
|
||||
\begin{equation}
|
||||
\label{eq:fncaractfgm}
|
||||
M_X(s) = \phi(-is).
|
||||
\end{equation}
|
||||
|
||||
Ceci permet d'en déduire qu'elles possèdent des caractéristiques
|
||||
communes, notamment le produit de convolution.
|
||||
|
||||
\subsection{La fonction génératrice des cumulants}
|
||||
\label{sec:fgc}
|
||||
La fonction génératrice des cumulants $K_X(s)$ est définie comme le
|
||||
logarithme de la fonction génératrice des moments:
|
||||
\begin{equation}
|
||||
\label{eq:fgc}
|
||||
K_X(s) = \ln{M_X(s)}.
|
||||
\end{equation}
|
||||
|
||||
Cette fonction est utilisée pour générer les cumulants, des quantités
|
||||
étroitement liées aux moments, qui peuvent à leur tour être utilisés
|
||||
dans le cadre de méthodes d'estimation paramétrique. Parmi celles-ci,
|
||||
on retrouve la méthode des cumulants, dont l'objectif est de former un
|
||||
système d'équations où les valeurs empiriques et théoriques de ces
|
||||
quantités sont égales. Les valeurs empiriques peuvent être obtenues à
|
||||
partir des moments échantillonnaux \citep{stuart1987kendall}:
|
||||
\begin{subequations}\label{eq:cumulantsempiriques}
|
||||
\begin{align}
|
||||
\hat{K}_1 &= \hat{m}_1 \label{eq:cumulantsempiriques1}\\
|
||||
\hat{K}_2 &= \hat{m}_2' - \hat{m}_1^2 \label{eq:cumulantsempiriques2}\\
|
||||
\hat{K}_3 &= \hat{m}_3' - 3\hat{m}_1\hat{m}_2' + 2\hat{m}_1^2 \label{eq:cumulantsempiriques3}\\
|
||||
\hat{K}_4 &= \hat{m}_4' - 3\hat{m}_2'^2 - 4\hat{m}_1\hat{m}_3' + 12\hat{m}_1^2\hat{m}_2' -
|
||||
6\hat{m}_1^4 \label{eq:cumulantsempiriques4}.
|
||||
\end{align}
|
||||
\end{subequations}
|
||||
|
||||
On remarquera aussi la forme de la première dérivée de cette dernière,
|
||||
qui sera utilisée pour estimer la densité et la fonction de
|
||||
répartition avec la méthode du point de selle:
|
||||
\begin{equation}
|
||||
\label{eq:derivfgc}
|
||||
\frac{dK_X(s)}{ds} = K^{\prime}_X(s) = \frac{M^{\prime}_X(s)}{M_X(s)}.
|
||||
\end{equation}
|
||||
|
||||
\subsection{La transformée d'Esscher}
|
||||
\label{sec:transesscher}
|
||||
|
||||
La transformée d'Esscher transforme la densité en une autre en
|
||||
utilisant un coefficient exponentiel:
|
||||
\begin{equation}
|
||||
\label{eq:esschertransform}
|
||||
f(x;h)=\frac{e^{hx}f(x)}{\int_{-\infty}^\infty e^{hx} f(x) dx}.
|
||||
\end{equation}
|
||||
|
||||
Lorsque l'on ne dispose pas d'une forme analytique de la densité, on
|
||||
peut exprimer la transformée d'Esscher sous la forme de sa fonction
|
||||
génératrice des moments:
|
||||
\begin{equation}
|
||||
\label{eq:esscherMx}
|
||||
M_X(s;h) = \frac{M_X(s+h)}{M_X(h)}.
|
||||
\end{equation}
|
||||
|
||||
\section{La transformée de Fourier rapide}
|
||||
\label{sec:methodeFFT}
|
||||
|
||||
Étant donné l'importance de la transformée de Fourier et de son
|
||||
inverse en sciences physiques, plusieurs algorithmes ont été
|
||||
développés afin d'en effectuer l'intégration numérique. Ces
|
||||
algorithmes se regroupent sous l'appellation de transformée de Fourier
|
||||
rapide.
|
||||
|
||||
L'existence de ces algorithmes favorise l'utilisation de la fonction
|
||||
caractéristique et de ses propriétés, notamment pour l'agrégation de
|
||||
risques en actuariat, ou encore le calcul de probabilités pour des
|
||||
distributions n'ayant pas de forme explicite pour la fonction de
|
||||
répartition.
|
||||
|
||||
Ces algorithmes numériques sont utilisés respectivement pour calculer
|
||||
de manière optimisée des sommes de la forme
|
||||
\begin{align}
|
||||
\hat{f}(x_u) &= \sum_{j=1}^{N} \phi(\zeta_j)\,e^{-{2\pi i \over N} (j-1)(u-1) } \qquad u = 1,\dots,n. \label{eq:sommefft} \\
|
||||
\hat{\phi}(\zeta_j) &= \sum_{u=1}^{N} f(x_u)\,e^{{2\pi i \over N}
|
||||
(j-1)(u-1) } \qquad j = 1,\dots,n. \label{eq:sommeifft}
|
||||
\end{align}
|
||||
|
||||
Par exemple, pour évaluer l'intégrale \eqref{eq:caractdensite} afin
|
||||
d'obtenir la valeur de la densité sur un certain domaine
|
||||
$\left[a,b\right]$, on devra discrétiser celle-ci sur nombre $N$ de
|
||||
points de discrétisation.On définit alors les différents paramètres de
|
||||
ces deux algorithmes:
|
||||
\begin{itemize}
|
||||
\item $\eta = \frac{b-a}{N}$, le pas de discrétisation pour la
|
||||
variable aléatoire $u$
|
||||
\item $\zeta = \eta(j-1)$, la variable de transformation
|
||||
\item $\lambda = \frac{2\pi}{N\eta}$, le pas de discrétisation pour la
|
||||
variable de transformation $\zeta$
|
||||
\item $c=\frac{N\lambda}{2}$, la borne supérieure d'intégration
|
||||
\end{itemize}
|
||||
|
||||
On obtient alors une sommation de la forme \eqref{eq:sommefft}:
|
||||
\begin{subequations}\label{eq:sommefftdensite}
|
||||
\begin{align}
|
||||
f_{FFT}(x_u) &\approx \frac{1}{2\pi} \sum_{j=1}^N e^{-i\lambda\zeta_j(u-1)} e^{-ic\zeta_j} \phi(-c+\lambda\,(j-1)) \eta, \label{eq:sommefftdensite1}\\
|
||||
&\approx \frac{1}{2\pi} \sum_{j=1}^N
|
||||
e^{-i\frac{2\pi}{N}(j-1)(u-1)} e^{-ic\zeta_j}
|
||||
\phi(-c+\lambda\,(j-1)) \eta.\label{eq:sommefftdensite2}
|
||||
\end{align}
|
||||
\end{subequations}
|
||||
|
||||
Plusieurs logiciels d'analyse numérique possèdent une implémentation
|
||||
de la méthode de la transformée de Fourier rapide. Essentiellement,
|
||||
c'est une fonction $f_{FFT}(X_u)$ qui prend comme argument un vecteur
|
||||
de valeurs, appelé signal, et qui en retourne un autre, de même
|
||||
longueur, le spectre de fréquences. En statistique, la fonction
|
||||
caractéristique empirique constitue le signal et la densité, le
|
||||
spectre de fréquences. Le signal $X_u$ est défini comme suit, à partir
|
||||
des constantes définies précédemment:
|
||||
\begin{align}
|
||||
\label{eq:signalfftfonction}
|
||||
X_u &= e^{-i\lambda\zeta_j(u-1)} \phi\left(-c+(j-1)\lambda\right)
|
||||
\eta.
|
||||
\end{align}
|
||||
|
||||
La somme \eqref{eq:sommefftdensite1} devient alors
|
||||
\begin{align}
|
||||
\label{eq:fftfonction}
|
||||
f_{FFT}(X_u) &\approx \frac{1}{2\pi} \sum_{j=1}^N X_u e^{-ic\zeta_j}.
|
||||
\end{align}
|
||||
|
||||
On recouvre la densité aux points $x_u=a+(j-1)\eta, j=1,\ldots,N$ en
|
||||
appliquant la transformation suivante au vecteur $f_{FFT}(X_u)$:
|
||||
\begin{align}
|
||||
\label{eq:densitefftfonction}
|
||||
f(x_u) = \frac{1}{N} e^{icx_u} f_{FFT}(X_u).
|
||||
\end{align}
|
||||
|
||||
\section{Processus de Lévy}
|
||||
\label{sec:processuslevy}
|
||||
|
||||
\subsection{Définition et propriétés}
|
||||
\label{sec:defproplevy}
|
||||
|
||||
Le processus de Lévy, tel que présenté par \cite{barndorff2001levy},
|
||||
est une classe générale de processus stochastiques regroupant entre
|
||||
autres les processus de Poisson composés et les processus de Wiener.
|
||||
Il est défini comme continu à droite, limité à gauche (càdlàg), ayant
|
||||
pour point de départ l'origine et ayant des incréments indépendants et
|
||||
homogènes. Il est infiniment divisible, tout processus de Lévy peut
|
||||
ainsi être considéré comme une convolution de plusieurs autres. Cette
|
||||
propriété est très intéressante dans un contexte de rendements
|
||||
financiers, car la même distribution pourra être utilisée avec
|
||||
n'importe quel intervalle d'échantillonnage des prix.
|
||||
|
||||
\subsubsection{Représentation de Lévy-Khintchine}
|
||||
\label{sec:levykhintchine}
|
||||
|
||||
Le processus de Lévy est généralement représenté par sa fonction
|
||||
caractéristique sous la forme de Lévy-Khintchine:
|
||||
\begin{align}
|
||||
\mathbb{E}\Big[e^{i\theta X(t)} \Big] &= \exp \Bigg(
|
||||
\underbrace{ait\theta}_{\text{composante de dérive}} \nonumber\\
|
||||
&\qquad -
|
||||
\underbrace{\frac{1}{2}\sigma^2t\theta^2}_{\text{composante de
|
||||
diffusion}} \nonumber\\ &\qquad + \underbrace{t
|
||||
\int_{\mathbb{R}\backslash\{0\}} \big( e^{i\theta x}-1 -i\theta x \mathbf{I}_{|x|<1}\big)\,\nu(dx)}_{\text{composante de saut}} \Bigg)\label{eq:levykhintchine}\\
|
||||
&= \exp \bigg(-t\Psi(\theta) \bigg).
|
||||
\end{align}
|
||||
|
||||
$\Psi(\theta)$ est appelé l'exposant caractéristique de l'incrément de
|
||||
longueur 1 $(X(t+1)-X(t))$. Un processus de Lévy est souvent décrit
|
||||
par son triplet générateur $(a,\sigma^2,\nu)$. Cette description
|
||||
permettra de classer certains processus de Lévy selon deux catégories:
|
||||
\begin{itemize}
|
||||
\item Si $\sigma^2=0$, $\lbrace X(t) \rbrace$ est un processus de
|
||||
sauts
|
||||
\item Si $a=0 \mbox{ et } \sigma^2=0$, alors le processus $\lbrace
|
||||
X(t) \rbrace$ est un processus de sauts purs
|
||||
\end{itemize}
|
||||
|
||||
L'élément $\nu(dx)$ de la composante de saut est appelé la mesure de
|
||||
Lévy. Un exemple de processus de Lévy représenté sous la forme de
|
||||
Lévy-Khintchine qui ne fait pas partie de ces deux catégories est
|
||||
défini par le modèle de Press \eqref{eq:fncaractpress}.
|
||||
|
||||
\subsubsection{Représentation de Lévy-Itô}
|
||||
\label{sec:levyito}
|
||||
La décomposition de Lévy-Itô est une représentation alternative
|
||||
décrivant la trajectoire d'une réalisation du processus. Cette
|
||||
dernière a une interprétation intéressante en finance décrite par
|
||||
\cite{applebaum2004levy}:
|
||||
\begin{align}
|
||||
\label{eq:levyitodecomposition}
|
||||
X(t) &= \underbrace{at + B_{\sigma^2}(t)}_{\text{mouvement brownien}} \nonumber\\ &\quad+ \underbrace{\int_{|x|<1}x N(t,dx)-t\nu(dx)}_{\text{martingale de sauts purs de carré intégrable}} \nonumber\\ &\quad+ \underbrace{\int_{|x|>1}x N(t,dx)}_{\text{processus de Poisson composé}} \\
|
||||
&= X_1(t) + X_2(t) + X_3(t).
|
||||
\end{align}
|
||||
|
||||
La portion mouvement brownien ($X_1(t)$) décrit le comportement
|
||||
général du processus, en spécifiant le rendement espéré $a$ et la
|
||||
volatilité du titre $\sigma^2$. La première intégrale ($X_2(t)$)
|
||||
décrit le bruit causé par les transactions financières quotidiennes
|
||||
qui font varier un peu le prix, alors que la seconde ($X_3(t)$)
|
||||
introduit les sauts occasionnés par des évènements plus rares, comme
|
||||
les catastrophes naturelles et les crises politiques. Dans les deux
|
||||
cas, $N(t,dx)$ est une mesure aléatoire de Poisson.
|
||||
|
||||
\subsection{Processus subordonné}
|
||||
\label{sec:procsubordonne}
|
||||
|
||||
On considère les processus de Lévy $\lbrace X(t) \rbrace$ et $\lbrace
|
||||
Z(t) \rbrace$. Celui qui suit est défini comme étant un processus
|
||||
subordonné et aussi un processus de Lévy, comme le démontre
|
||||
\cite{sato1999levy} et \cite{schoutens2003levy}:
|
||||
\begin{equation}
|
||||
\label{eq:processussubordonne}
|
||||
\lbrace Y(t) \rbrace = \lbrace X\left(Z(t)\right) \rbrace.
|
||||
\end{equation}
|
||||
|
||||
Les processus de Lévy les plus couramment utilisés en finance sont des
|
||||
mouvements browniens subordonnés. Ils sont plus faciles à manipuler et
|
||||
permettent néanmoins de représenter les phénomènes de queues longues
|
||||
présents dans les distributions de rendements. Une bonne introduction
|
||||
à ce sujet est faite par \cite{kyprianou2007introductory}.
|
||||
|
||||
Si $\Lambda(\theta)$ est l'exposant caractéristique du processus
|
||||
$\lbrace X(t)\rbrace$ et $\Xi(\theta)$, celui du processus subordonné
|
||||
$\lbrace Z(t)\rbrace$, alors celui du processus $\lbrace Y(t)\rbrace$
|
||||
prend la forme suivante:
|
||||
\begin{align}
|
||||
\label{eq:exposantcaractYt}
|
||||
\Psi(\theta) &= \Xi(\theta)\circ i\Lambda(\theta) \nonumber\\
|
||||
&= \Xi(i\Lambda(\theta)).
|
||||
\end{align}
|
||||
|
||||
La fonction caractéristique du processus $\lbrace Y(t) \rbrace$ est
|
||||
alors
|
||||
\begin{equation}
|
||||
\label{eq:fncaractYt}
|
||||
\phi_{Y(t)}(\xi) = e^{-t\Xi(i\Lambda(\xi))}.
|
||||
\end{equation}
|
||||
|
||||
La densité de la variable aléatoire $Y(t)$ s'obtient à l'aide de la
|
||||
formule de l'espérance conditionnelle:
|
||||
\begin{align}
|
||||
f_{Y(t)}(y) &= E\left[ f_{X(t)}(y|Z(t)=z) \right] \nonumber\\
|
||||
&= \int_{-\infty}^{\infty} f_{X(t)}(y|Z(t)=z) \cdot f_{Z(t)}(z)
|
||||
dz \label{eq:densiteprocessusyt}.
|
||||
\end{align}
|
||||
|
||||
\section{Théorèmes d'intégration}
|
||||
\label{sec:integration}
|
||||
|
||||
Ces deux théorèmes sont présentés sans démonstration afin de
|
||||
complémenter la démonstration de la méthode d'Epps de la section
|
||||
\ref{sec:epps2007}. La démonstration de ceux-ci nécessite des
|
||||
connaissances en théorie de l'intégration. On peut retrouver davantage
|
||||
d'explications sur ceux-ci dans \cite{teschl2004topics}.
|
||||
|
||||
\subsection{Théorème de convergence dominée de Lebesgue}
|
||||
\label{sec:theor-de-conv}
|
||||
|
||||
Le théorème de convergence dominée de Lebesgue est un des principaux
|
||||
éléments de la théorie de l'intégration. Il sert à démontrer qu'une
|
||||
fonction est intégrable, sachant qu'une autre l'est aussi et qu'elle
|
||||
répond à certaines conditions.
|
||||
|
||||
Soit $(f_n)_{n\in \mathbb{N}}$, une suite de fonctions réelles ou
|
||||
complexes intégrables dans un intervalle $\mathit{I}$ qui convergent
|
||||
vers une fonction $f$:
|
||||
\begin{align}
|
||||
\label{eq:sequencetheoremconvdom}
|
||||
f(x) = \lim_{n \to \infty} f_n(x).
|
||||
\end{align}
|
||||
|
||||
On suppose qu'une fonction $g$ intégrable dans l'intervalle
|
||||
$\mathit{I}$ existe telle que pour toute valeur de $n$ et pour tout
|
||||
point $x\in I$ où elle est définie, la valeur absolue de $f_n(x)$ est
|
||||
inférieure ou égale à $g(x)$:
|
||||
\begin{align}
|
||||
\label{eq:theoremeconvdom}
|
||||
\forall n \in \mathbb{N}, \forall x \in \mathit{I}, |f_n(x)| \leq
|
||||
g(x).
|
||||
\end{align}
|
||||
|
||||
Alors, la fonction $f$ est intégrable.
|
||||
|
||||
\subsection{Théorème de Fubini}
|
||||
\label{sec:theoreme-de-fubini}
|
||||
|
||||
Le théorème de Fubini permet, entre autres, d'inverser l'ordre
|
||||
d'intégration lorsque certaines conditions sont remplies.
|
||||
|
||||
Soit une fonction $f$ continue sur le rectangle $\mathit{R}$ suivant:
|
||||
\begin{align}
|
||||
\label{eq:rectanglefubini}
|
||||
\mathit{R} &= \left\{(x,y) | a \leq x \leq b, c \leq y \leq d \right\}.
|
||||
\end{align}
|
||||
|
||||
on peut inverser l'ordre d'intégration:
|
||||
\begin{align}
|
||||
\label{eq:thfubini2}
|
||||
\int_{X\times Y}f(x,y)~ d(\mu\times\nu)(x,y)=\int_X\left[\int_Y
|
||||
f(x,y)~ d\nu(y)\right]~ d\mu(x)=\int_Y\left[\int_X f(x,y)~
|
||||
d\mu(x)\right]~ d\nu(y).
|
||||
\end{align}
|
||||
|
||||
Il est possible de généraliser cet énoncé en utilisant la théorie de
|
||||
la mesure.
|
||||
%%% Local Variables:
|
||||
%%% mode: latex
|
||||
%%% TeX-master: "gabarit-maitrise"
|
||||
%%% End:
|
111
memoire/annexe2.aux
Normal file
111
memoire/annexe2.aux
Normal file
|
@ -0,0 +1,111 @@
|
|||
\relax
|
||||
\providecommand\hyper@newdestlabel[2]{}
|
||||
\@writefile{lof}{\addvspace {10pt}}
|
||||
\@writefile{lot}{\addvspace {10pt}}
|
||||
\@writefile{toc}{\contentsline {appendix}{\chapternumberline {B}\IeC {\'E}l\IeC {\'e}ments de statistique math\IeC {\'e}matique}{125}{appendix.B}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {B.1}Loi faible des grands nombres}{125}{section.B.1}}
|
||||
\newlabel{sec:loifaible}{{B.1}{125}{Loi faible des grands nombres}{section.B.1}{}}
|
||||
\newlabel{sec:loifaible@cref}{{[subappendix][1][2147483647,2]B.1}{125}}
|
||||
\newlabel{loifaible}{{B.1.1}{125}{Loi faible des grands nombres}{equation.B.1.0.1}{}}
|
||||
\newlabel{loifaible@cref}{{[equation][1][2147483647,2,1]B.1.1}{125}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {B.2}Th\IeC {\'e}or\IeC {\`e}me central limite}{125}{section.B.2}}
|
||||
\newlabel{sec:theor-centr-limite}{{B.2}{125}{Théorème central limite}{section.B.2}{}}
|
||||
\newlabel{sec:theor-centr-limite@cref}{{[subappendix][2][2147483647,2]B.2}{125}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {B.2.1}Cas univari\IeC {\'e}}{126}{subsection.B.2.1}}
|
||||
\newlabel{sec:cas-univarie}{{B.2.1}{126}{Cas univarié}{subsection.B.2.1}{}}
|
||||
\newlabel{sec:cas-univarie@cref}{{[subsubappendix][1][2147483647,2,2]B.2.1}{126}}
|
||||
\newlabel{eq:TCL}{{B.2.1}{126}{Cas univarié}{equation.B.2.0.1}{}}
|
||||
\newlabel{eq:TCL@cref}{{[equation][1][2147483647,2,2]B.2.1}{126}}
|
||||
\newlabel{eq:TCL2}{{B.2.2}{126}{Cas univarié}{equation.B.2.0.2}{}}
|
||||
\newlabel{eq:TCL2@cref}{{[equation][2][2147483647,2,2]B.2.2}{126}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {B.2.2}Cas multivari\IeC {\'e}}{126}{subsection.B.2.2}}
|
||||
\newlabel{sec:cas-multivarie}{{B.2.2}{126}{Cas multivarié}{subsection.B.2.2}{}}
|
||||
\newlabel{sec:cas-multivarie@cref}{{[subsubappendix][2][2147483647,2,2]B.2.2}{126}}
|
||||
\newlabel{eq:defmultiX}{{B.2.3}{126}{Cas multivarié}{equation.B.2.0.3}{}}
|
||||
\newlabel{eq:defmultiX@cref}{{[equation][3][2147483647,2,2]B.2.3}{126}}
|
||||
\newlabel{eq:TCLmulti1}{{B.2.4}{126}{Cas multivarié}{equation.B.2.0.4}{}}
|
||||
\newlabel{eq:TCLmulti1@cref}{{[equation][4][2147483647,2,2]B.2.4}{126}}
|
||||
\newlabel{eq:TCLmulti2}{{B.2.5}{126}{Cas multivarié}{equation.B.2.0.5}{}}
|
||||
\newlabel{eq:TCLmulti2@cref}{{[equation][5][2147483647,2,2]B.2.5}{126}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {B.3}M\IeC {\'e}thode delta multivari\IeC {\'e}e}{127}{section.B.3}}
|
||||
\newlabel{sec:deltamethod}{{B.3}{127}{Méthode delta multivariée}{section.B.3}{}}
|
||||
\newlabel{sec:deltamethod@cref}{{[subappendix][3][2147483647,2]B.3}{127}}
|
||||
\newlabel{eq:deltamethodmult}{{B.3.4}{127}{Méthode delta multivariée}{equation.B.3.0.4}{}}
|
||||
\newlabel{eq:deltamethodmult@cref}{{[equation][4][2147483647,2,3]B.3.4}{127}}
|
||||
\@setckpt{annexe2}{
|
||||
\setcounter{page}{128}
|
||||
\setcounter{equation}{4}
|
||||
\setcounter{enumi}{2}
|
||||
\setcounter{enumii}{2}
|
||||
\setcounter{enumiii}{0}
|
||||
\setcounter{enumiv}{0}
|
||||
\setcounter{footnote}{0}
|
||||
\setcounter{mpfootnote}{0}
|
||||
\setcounter{@memmarkcntra}{0}
|
||||
\setcounter{storedpagenumber}{1}
|
||||
\setcounter{book}{0}
|
||||
\setcounter{part}{0}
|
||||
\setcounter{chapter}{2}
|
||||
\setcounter{section}{3}
|
||||
\setcounter{subsection}{0}
|
||||
\setcounter{subsubsection}{0}
|
||||
\setcounter{paragraph}{0}
|
||||
\setcounter{subparagraph}{0}
|
||||
\setcounter{@ppsavesec}{0}
|
||||
\setcounter{@ppsaveapp}{0}
|
||||
\setcounter{vslineno}{0}
|
||||
\setcounter{poemline}{0}
|
||||
\setcounter{modulo@vs}{0}
|
||||
\setcounter{memfvsline}{0}
|
||||
\setcounter{verse}{0}
|
||||
\setcounter{chrsinstr}{0}
|
||||
\setcounter{poem}{0}
|
||||
\setcounter{newflo@tctr}{4}
|
||||
\setcounter{@contsubnum}{0}
|
||||
\setcounter{maxsecnumdepth}{2}
|
||||
\setcounter{sidefootnote}{0}
|
||||
\setcounter{pagenote}{0}
|
||||
\setcounter{pagenoteshadow}{0}
|
||||
\setcounter{memfbvline}{0}
|
||||
\setcounter{bvlinectr}{0}
|
||||
\setcounter{cp@cntr}{0}
|
||||
\setcounter{ism@mctr}{0}
|
||||
\setcounter{xsm@mctr}{0}
|
||||
\setcounter{csm@mctr}{0}
|
||||
\setcounter{ksm@mctr}{0}
|
||||
\setcounter{xksm@mctr}{0}
|
||||
\setcounter{cksm@mctr}{0}
|
||||
\setcounter{msm@mctr}{0}
|
||||
\setcounter{xmsm@mctr}{0}
|
||||
\setcounter{cmsm@mctr}{0}
|
||||
\setcounter{bsm@mctr}{0}
|
||||
\setcounter{workm@mctr}{0}
|
||||
\setcounter{sheetsequence}{146}
|
||||
\setcounter{lastsheet}{155}
|
||||
\setcounter{lastpage}{137}
|
||||
\setcounter{figure}{0}
|
||||
\setcounter{lofdepth}{1}
|
||||
\setcounter{table}{0}
|
||||
\setcounter{lotdepth}{1}
|
||||
\setcounter{NAT@ctr}{0}
|
||||
\setcounter{nprt@mantissa@digitsbefore}{0}
|
||||
\setcounter{nprt@mantissa@digitsafter}{0}
|
||||
\setcounter{nprt@exponent@digitsbefore}{0}
|
||||
\setcounter{nprt@exponent@digitsafter}{0}
|
||||
\setcounter{nprt@digitsfirstblock}{0}
|
||||
\setcounter{nprt@blockcnt}{0}
|
||||
\setcounter{nprt@cntprint}{0}
|
||||
\setcounter{parentequation}{0}
|
||||
\setcounter{thmt@dummyctr}{3}
|
||||
\setcounter{Item}{35}
|
||||
\setcounter{Hfootnote}{3}
|
||||
\setcounter{memhycontfloat}{0}
|
||||
\setcounter{Hpagenote}{0}
|
||||
\setcounter{bookmark@seq@number}{132}
|
||||
\setcounter{ContinuedFloat}{0}
|
||||
\setcounter{app@runs}{1}
|
||||
\setcounter{pspicture}{0}
|
||||
\setcounter{section@level}{0}
|
||||
\setcounter{theo}{0}
|
||||
\setcounter{hypothese}{0}
|
||||
}
|
145
memoire/annexe2.tex
Normal file
145
memoire/annexe2.tex
Normal file
|
@ -0,0 +1,145 @@
|
|||
\chapter{Éléments de statistique mathématique}
|
||||
|
||||
\section{Loi faible des grands nombres}
|
||||
\label{sec:loifaible}
|
||||
|
||||
La \textbf{loi faible des grands nombres} est un résultat important en
|
||||
probabilité, car il permet de définir la notion d'estimateur
|
||||
convergent. Soit une suite de variables aléatoires indépendantes et
|
||||
identiquement distribuées $\left\{X_T \right\}_{T=1}^{\infty}$ ayant
|
||||
une espérance $E\left[ X \right]$ et une variance $V\left[ X \right]$
|
||||
finies. Selon la loi faible des grands nombres, pour tout nombre réel
|
||||
strictement positif $\varepsilon$, la probabilité que la différence
|
||||
entre la moyenne empirique $Y_T=\frac{X_1+X_2+\cdots+X_T}{T}$ et
|
||||
l'espérance $E\left[ X \right]$ soit supérieure à la valeur
|
||||
$\varepsilon$ tend vers 0 lorsque $T$ tend vers l'infini.
|
||||
\begin{align}
|
||||
\label{loifaible}
|
||||
\lim_{T \to +\infty} \mathbb{P}\left(\left|Y_T - E\left[ X
|
||||
\right]\right| \geq \varepsilon\right) = 0 ,\quad
|
||||
\forall\varepsilon>0
|
||||
\end{align}
|
||||
|
||||
On dit alors que la suite d'estimateurs
|
||||
$\left\{Y_T\right\}_{T=1}^{\infty}$ converge en probabilité vers
|
||||
l'espérance $E\left[ X \right]$. L'estimateur de l'espérance $Y_T$ est
|
||||
alors \textbf{convergent}.
|
||||
|
||||
\section{Théorème central limite}
|
||||
\label{sec:theor-centr-limite}
|
||||
|
||||
Le \textbf{théorème central limite} est un résultat fondamental en
|
||||
probabilité qui énonce le rôle de la distribution normale. Il démontre
|
||||
que toute somme de variables aléatoires indépendantes et identiquement
|
||||
distribuées suit approximativement une loi normale. Ce résultat permet
|
||||
entre autres d'identifier la distribution limite d'un estimateur
|
||||
convergent.
|
||||
|
||||
\subsection{Cas univarié}
|
||||
\label{sec:cas-univarie}
|
||||
|
||||
Soit une suite d'observations $X_1, \ldots, X_T$ d'un échantillon
|
||||
aléatoire d'une distribution de moyenne $\mu$ et de variance
|
||||
$\sigma^2$:
|
||||
\begin{align}
|
||||
\label{eq:TCL}
|
||||
Y_T &= \frac{1}{\sqrt{T}\sigma} \left(\sum_{t=1}^T X_t - T\mu\right) \nonumber\\
|
||||
&= \frac{\sqrt{T}}{\sigma}\left(\overline{X}_T-\mu\right).
|
||||
\end{align}
|
||||
Alors, cette variable aléatoire converge en distribution vers une
|
||||
variable aléatoire normale centrée réduite:
|
||||
\begin{align}
|
||||
\label{eq:TCL2}
|
||||
Y_T \stackrel{L}{\rightarrow} \mathcal{N}(0,1).
|
||||
\end{align}
|
||||
|
||||
\subsection{Cas multivarié}
|
||||
\label{sec:cas-multivarie}
|
||||
|
||||
On peut aussi généraliser ce théorème pour des observations
|
||||
multivariées. On considère alors une série d'observations
|
||||
multivariées $\mathbf{X_1}, \ldots, \mathbf{X_T}$ où
|
||||
\begin{align}
|
||||
\label{eq:defmultiX}
|
||||
\mathbf{X_t}=\begin{bmatrix} X_{t(1)} \\ \vdots \\
|
||||
X_{t(k)} \end{bmatrix}, \quad t=1,\ldots,T.
|
||||
\end{align}
|
||||
|
||||
On définit maintenant la variable aléatoire correspondante:
|
||||
\begin{align}
|
||||
\label{eq:TCLmulti1}
|
||||
\mathbf{Y}_T &= \frac{1}{T}\begin{bmatrix} \sum_{t=1}^{T} \left [
|
||||
X_{t(1)} \right ] \\ \vdots \\ \sum_{t=1}^{T} \left [ X_{t(k)}
|
||||
\right ] \end{bmatrix}.
|
||||
\end{align}
|
||||
|
||||
Dans cette situation, la variable aléatoire converge en distribution
|
||||
vers une variable aléatoire de distribution normale multivariée
|
||||
centrée de matrice de variance-covariance $\mathbf{\Sigma}$:
|
||||
\begin{align}
|
||||
\label{eq:TCLmulti2}
|
||||
\sqrt{T}\left(\mathbf{Y}_T - \mu\right)\ \stackrel{L}{\rightarrow}\
|
||||
\mathcal{N}_k(0,\mathbf{\Sigma})
|
||||
\end{align}
|
||||
|
||||
où
|
||||
\begin{align*}
|
||||
\mathbf{\Sigma} &= \begin{bmatrix}
|
||||
\omega_{(1,1)} &\cdots& \omega_{(1,k)} \\
|
||||
\vdots & \ddots & \vdots \\
|
||||
\omega_{(k,1)} &\cdots& \omega_{(k,k)} \\
|
||||
\end{bmatrix} ,\quad \mbox{avec } \omega_{(j,k)} = \begin{cases}
|
||||
Var\left[X_{1(j)}\right] , &(j=k) \\
|
||||
Cov\left[X_{1(j)},X_{1(k)}\right] , &(j \neq k).
|
||||
\end{cases}
|
||||
\end{align*}
|
||||
|
||||
\section{Méthode delta multivariée}
|
||||
\label{sec:deltamethod}
|
||||
|
||||
Dans le cas univarié, on utilise la méthode delta pour évaluer la
|
||||
distribution d'une fonction d'un estimateur, en supposant que la
|
||||
distribution de cet estimateur est asymptotiquement normale de
|
||||
variance connue.
|
||||
|
||||
Dans le cas multivarié, on estime la distribution d'une fonction d'un
|
||||
vecteur d'estimateurs, dont la distribution asymptotique est normale
|
||||
multivariée, avec une matrice de variance-covariance $\Sigma$.
|
||||
|
||||
On a donc, pour un estimateur convergent $\hat\theta_T$, en appliquant
|
||||
le théorème central limite, le résultat suivant:
|
||||
\begin{align}
|
||||
\sqrt{T} (\hat\theta_T - \theta_0) \stackrel{L}{\longrightarrow}
|
||||
\mathcal{N}(0,\Sigma).
|
||||
\end{align}
|
||||
On cherche la distribution d'une fonction $h(\hat\theta_T)$. On
|
||||
développe cette fonction sous la forme d'une série de Taylor et en
|
||||
conservant seulement les deux premiers termes:
|
||||
\begin{align}
|
||||
h(\hat\theta_T) \approx h(\theta_0) + \nabla
|
||||
\left[h(\theta_0)\right]'\cdot(\hat\theta_T - \theta_0).
|
||||
\end{align}
|
||||
On a donc, après quelques manipulations, que la variance de la
|
||||
fonction $h(\hat\theta_T)$ est approximativement
|
||||
\begin{align}
|
||||
Var\left[h(\hat\theta_T) \right] \approx \nabla
|
||||
\left[h(\theta_0)\right]' \left(\frac{\Sigma}{T}\right) \nabla
|
||||
\left[h(\theta_0)\right].
|
||||
\end{align}
|
||||
|
||||
La distribution de la fonction $h(\hat\theta_T)$ est alors
|
||||
asymptotiquement
|
||||
\begin{align}
|
||||
\label{eq:deltamethodmult}
|
||||
h(\hat\theta_T) \stackrel{L}{\longrightarrow}
|
||||
N\left(h(\theta_0),\nabla \left[h(\theta_0)\right]'
|
||||
\left(\frac{\Sigma}{T}\right) \nabla
|
||||
\left[h(\theta_0)\right]\right).
|
||||
\end{align}
|
||||
|
||||
|
||||
|
||||
%%% Local Variables:
|
||||
%%% mode: latex
|
||||
%%% TeX-master: "gabarit-maitrise"
|
||||
%%% End:
|
87
memoire/annexe3.aux
Normal file
87
memoire/annexe3.aux
Normal file
|
@ -0,0 +1,87 @@
|
|||
\relax
|
||||
\providecommand\hyper@newdestlabel[2]{}
|
||||
\@writefile{lof}{\addvspace {10pt}}
|
||||
\@writefile{lot}{\addvspace {10pt}}
|
||||
\@writefile{toc}{\contentsline {appendix}{\chapternumberline {C}Donn\IeC {\'e}es}{129}{appendix.C}}
|
||||
\newlabel{chap:donnees}{{C}{129}{Données}{appendix.C}{}}
|
||||
\newlabel{chap:donnees@cref}{{[appendix][3][2147483647]C}{129}}
|
||||
\@writefile{lot}{\contentsline {table}{\numberline {C.1}{\ignorespaces Prix du titre Abbey National (penny sterling) du 31 juillet au 8 octobre 1991\relax }}{129}{table.caption.60}}
|
||||
\newlabel{prixabbeyn}{{C.1}{129}{Prix du titre Abbey National (penny sterling) du 31 juillet au 8 octobre 1991\relax }{table.caption.60}{}}
|
||||
\newlabel{prixabbeyn@cref}{{[table][1][2147483647,3]C.1}{129}}
|
||||
\@setckpt{annexe3}{
|
||||
\setcounter{page}{130}
|
||||
\setcounter{equation}{0}
|
||||
\setcounter{enumi}{2}
|
||||
\setcounter{enumii}{2}
|
||||
\setcounter{enumiii}{0}
|
||||
\setcounter{enumiv}{0}
|
||||
\setcounter{footnote}{0}
|
||||
\setcounter{mpfootnote}{0}
|
||||
\setcounter{@memmarkcntra}{-1}
|
||||
\setcounter{storedpagenumber}{1}
|
||||
\setcounter{book}{0}
|
||||
\setcounter{part}{0}
|
||||
\setcounter{chapter}{3}
|
||||
\setcounter{section}{0}
|
||||
\setcounter{subsection}{0}
|
||||
\setcounter{subsubsection}{0}
|
||||
\setcounter{paragraph}{0}
|
||||
\setcounter{subparagraph}{0}
|
||||
\setcounter{@ppsavesec}{0}
|
||||
\setcounter{@ppsaveapp}{0}
|
||||
\setcounter{vslineno}{0}
|
||||
\setcounter{poemline}{0}
|
||||
\setcounter{modulo@vs}{0}
|
||||
\setcounter{memfvsline}{0}
|
||||
\setcounter{verse}{0}
|
||||
\setcounter{chrsinstr}{0}
|
||||
\setcounter{poem}{0}
|
||||
\setcounter{newflo@tctr}{4}
|
||||
\setcounter{@contsubnum}{0}
|
||||
\setcounter{maxsecnumdepth}{2}
|
||||
\setcounter{sidefootnote}{0}
|
||||
\setcounter{pagenote}{0}
|
||||
\setcounter{pagenoteshadow}{0}
|
||||
\setcounter{memfbvline}{0}
|
||||
\setcounter{bvlinectr}{0}
|
||||
\setcounter{cp@cntr}{0}
|
||||
\setcounter{ism@mctr}{0}
|
||||
\setcounter{xsm@mctr}{0}
|
||||
\setcounter{csm@mctr}{0}
|
||||
\setcounter{ksm@mctr}{0}
|
||||
\setcounter{xksm@mctr}{0}
|
||||
\setcounter{cksm@mctr}{0}
|
||||
\setcounter{msm@mctr}{0}
|
||||
\setcounter{xmsm@mctr}{0}
|
||||
\setcounter{cmsm@mctr}{0}
|
||||
\setcounter{bsm@mctr}{0}
|
||||
\setcounter{workm@mctr}{0}
|
||||
\setcounter{sheetsequence}{148}
|
||||
\setcounter{lastsheet}{155}
|
||||
\setcounter{lastpage}{137}
|
||||
\setcounter{figure}{0}
|
||||
\setcounter{lofdepth}{1}
|
||||
\setcounter{table}{1}
|
||||
\setcounter{lotdepth}{1}
|
||||
\setcounter{NAT@ctr}{0}
|
||||
\setcounter{nprt@mantissa@digitsbefore}{0}
|
||||
\setcounter{nprt@mantissa@digitsafter}{0}
|
||||
\setcounter{nprt@exponent@digitsbefore}{0}
|
||||
\setcounter{nprt@exponent@digitsafter}{0}
|
||||
\setcounter{nprt@digitsfirstblock}{0}
|
||||
\setcounter{nprt@blockcnt}{0}
|
||||
\setcounter{nprt@cntprint}{0}
|
||||
\setcounter{parentequation}{0}
|
||||
\setcounter{thmt@dummyctr}{3}
|
||||
\setcounter{Item}{35}
|
||||
\setcounter{Hfootnote}{3}
|
||||
\setcounter{memhycontfloat}{0}
|
||||
\setcounter{Hpagenote}{0}
|
||||
\setcounter{bookmark@seq@number}{133}
|
||||
\setcounter{ContinuedFloat}{0}
|
||||
\setcounter{app@runs}{1}
|
||||
\setcounter{pspicture}{0}
|
||||
\setcounter{section@level}{0}
|
||||
\setcounter{theo}{0}
|
||||
\setcounter{hypothese}{0}
|
||||
}
|
31
memoire/annexe3.tex
Normal file
31
memoire/annexe3.tex
Normal file
|
@ -0,0 +1,31 @@
|
|||
\chapter{Données}
|
||||
\label{chap:donnees}
|
||||
|
||||
Ce tableau présente l'échantillon de données utilisées au chapitre 9.
|
||||
|
||||
\begin{table}[htbp]
|
||||
\caption{Prix du titre Abbey National (penny sterling) du 31 juillet au 8 octobre 1991}
|
||||
\begin{center}
|
||||
\begin{tabular}{cccccccccccccc}
|
||||
\hline
|
||||
\textbf{Date} & \multicolumn{1}{c}{\textbf{Prix}} & & \textbf{Date} & \multicolumn{1}{c}{\textbf{Prix}} & & \textbf{Date} & \multicolumn{1}{c}{\textbf{Prix}} & & \textbf{Date} & \multicolumn{1}{c}{\textbf{Prix}} & & \textbf{Date} & \multicolumn{1}{c}{\textbf{Prix}} \\ \hline
|
||||
31/07 & 296 & & 14/08 & 294 & & 28/08 & 303 & & 11/09 & 296 & & 25/09 & 306 \\
|
||||
01/08 & 296 & & 15/08 & 293 & & 29/08 & 304 & & 12/09 & 301 & & 26/09 & 303 \\
|
||||
02/08 & 300 & & 16/08 & 295 & & 30/08 & 304 & & 13/09 & 298 & & 27/09 & 301 \\
|
||||
05/08 & 302 & & 19/08 & 287 & & 02/09 & 309 & & 16/09 & 295 & & 30/09 & 303 \\
|
||||
06/08 & 300 & & 20/08 & 288 & & 03/09 & 309 & & 17/09 & 295 & & 01/10 & 308 \\
|
||||
07/08 & 304 & & 21/08 & 297 & & 04/09 & 309 & & 18/09 & 293 & & 02/10 & 305 \\
|
||||
08/08 & 303 & & 22/08 & 305 & & 05/09 & 307 & & 19/09 & 292 & & 03/10 & 302 \\
|
||||
09/08 & 299 & & 23/08 & 307 & & 06/09 & 306 & & 20/09 & 297 & & 04/10 & 301 \\
|
||||
12/08 & 293 & & 26/08 & 307 & & 09/09 & 304 & & 23/09 & 294 & & 07/10 & 297 \\
|
||||
13/08 & 294 & & 27/08 & 304 & & 10/09 & 300 & & 24/09 & 293 & & 08/10 & 299 \\
|
||||
\hline
|
||||
\end{tabular}
|
||||
\end{center}
|
||||
\label{prixabbeyn}
|
||||
\end{table}
|
||||
|
||||
%%% Local Variables:
|
||||
%%% mode: latex
|
||||
%%% TeX-master: "gabarit-maitrise"
|
||||
%%% End:
|
78
memoire/avantpropos.aux
Normal file
78
memoire/avantpropos.aux
Normal file
|
@ -0,0 +1,78 @@
|
|||
\relax
|
||||
\@writefile{toc}{\contentsline {chapter}{Avant-propos}{xxi}{section*.11}}
|
||||
\@setckpt{avantpropos}{
|
||||
\setcounter{page}{22}
|
||||
\setcounter{equation}{0}
|
||||
\setcounter{enumi}{0}
|
||||
\setcounter{enumii}{0}
|
||||
\setcounter{enumiii}{0}
|
||||
\setcounter{enumiv}{0}
|
||||
\setcounter{footnote}{0}
|
||||
\setcounter{mpfootnote}{0}
|
||||
\setcounter{@memmarkcntra}{0}
|
||||
\setcounter{storedpagenumber}{1}
|
||||
\setcounter{book}{0}
|
||||
\setcounter{part}{0}
|
||||
\setcounter{chapter}{0}
|
||||
\setcounter{section}{0}
|
||||
\setcounter{subsection}{0}
|
||||
\setcounter{subsubsection}{0}
|
||||
\setcounter{paragraph}{0}
|
||||
\setcounter{subparagraph}{0}
|
||||
\setcounter{@ppsavesec}{0}
|
||||
\setcounter{@ppsaveapp}{0}
|
||||
\setcounter{vslineno}{0}
|
||||
\setcounter{poemline}{0}
|
||||
\setcounter{modulo@vs}{0}
|
||||
\setcounter{memfvsline}{0}
|
||||
\setcounter{verse}{0}
|
||||
\setcounter{chrsinstr}{0}
|
||||
\setcounter{poem}{0}
|
||||
\setcounter{newflo@tctr}{4}
|
||||
\setcounter{@contsubnum}{0}
|
||||
\setcounter{maxsecnumdepth}{2}
|
||||
\setcounter{sidefootnote}{0}
|
||||
\setcounter{pagenote}{0}
|
||||
\setcounter{pagenoteshadow}{0}
|
||||
\setcounter{memfbvline}{0}
|
||||
\setcounter{bvlinectr}{0}
|
||||
\setcounter{cp@cntr}{0}
|
||||
\setcounter{ism@mctr}{0}
|
||||
\setcounter{xsm@mctr}{0}
|
||||
\setcounter{csm@mctr}{0}
|
||||
\setcounter{ksm@mctr}{0}
|
||||
\setcounter{xksm@mctr}{0}
|
||||
\setcounter{cksm@mctr}{0}
|
||||
\setcounter{msm@mctr}{0}
|
||||
\setcounter{xmsm@mctr}{0}
|
||||
\setcounter{cmsm@mctr}{0}
|
||||
\setcounter{bsm@mctr}{0}
|
||||
\setcounter{workm@mctr}{0}
|
||||
\setcounter{sheetsequence}{22}
|
||||
\setcounter{lastsheet}{159}
|
||||
\setcounter{lastpage}{137}
|
||||
\setcounter{figure}{0}
|
||||
\setcounter{lofdepth}{1}
|
||||
\setcounter{table}{0}
|
||||
\setcounter{lotdepth}{1}
|
||||
\setcounter{NAT@ctr}{0}
|
||||
\setcounter{nprt@mantissa@digitsbefore}{0}
|
||||
\setcounter{nprt@mantissa@digitsafter}{0}
|
||||
\setcounter{nprt@exponent@digitsbefore}{0}
|
||||
\setcounter{nprt@exponent@digitsafter}{0}
|
||||
\setcounter{nprt@digitsfirstblock}{0}
|
||||
\setcounter{nprt@blockcnt}{0}
|
||||
\setcounter{nprt@cntprint}{0}
|
||||
\setcounter{parentequation}{0}
|
||||
\setcounter{thmt@dummyctr}{0}
|
||||
\setcounter{Item}{0}
|
||||
\setcounter{Hfootnote}{0}
|
||||
\setcounter{memhycontfloat}{0}
|
||||
\setcounter{bookmark@seq@number}{7}
|
||||
\setcounter{ContinuedFloat}{0}
|
||||
\setcounter{app@runs}{1}
|
||||
\setcounter{pspicture}{0}
|
||||
\setcounter{section@level}{0}
|
||||
\setcounter{theo}{0}
|
||||
\setcounter{hypothese}{0}
|
||||
}
|
4
memoire/avantpropos.tex
Normal file
4
memoire/avantpropos.tex
Normal file
|
@ -0,0 +1,4 @@
|
|||
\chapter*{Avant-propos} % ne pas numéroter
|
||||
\phantomsection\addcontentsline{toc}{chapter}{Avant-propos} % inclure dans TdM
|
||||
|
||||
L'avant-propos est surtout nécessaire pour une thèse par article.
|
BIN
memoire/by-sa.pdf
Normal file
BIN
memoire/by-sa.pdf
Normal file
Binary file not shown.
BIN
memoire/by.pdf
Normal file
BIN
memoire/by.pdf
Normal file
Binary file not shown.
204
memoire/chapitre1.aux
Normal file
204
memoire/chapitre1.aux
Normal file
|
@ -0,0 +1,204 @@
|
|||
\relax
|
||||
\providecommand\hyper@newdestlabel[2]{}
|
||||
\citation{derman1996modelrisk}
|
||||
\citation{black1973pricing}
|
||||
\@writefile{lof}{\addvspace {10pt}}
|
||||
\@writefile{lot}{\addvspace {10pt}}
|
||||
\@writefile{toc}{\contentsline {chapter}{\chapternumberline {1}Les mod\IeC {\`e}les de rendements financiers}{3}{chapter.1}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {1.1}L'utilisation de mod\IeC {\`e}les en finance}{3}{section.1.1}}
|
||||
\newlabel{sec:utilisationmodeles}{{1.1}{3}{L'utilisation de modèles en finance}{section.1.1}{}}
|
||||
\newlabel{sec:utilisationmodeles@cref}{{[section][1][1]1.1}{3}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {1.1.1}Diff\IeC {\'e}rents types de mod\IeC {\`e}les}{3}{subsection.1.1.1}}
|
||||
\newlabel{sec:differentsmodeles}{{1.1.1}{3}{Différents types de modèles}{subsection.1.1.1}{}}
|
||||
\newlabel{sec:differentsmodeles@cref}{{[subsection][1][1,1]1.1.1}{3}}
|
||||
\citation{fama1993common}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {1.1.2}Le risque de mod\IeC {\'e}lisation}{4}{subsection.1.1.2}}
|
||||
\newlabel{sec:modelerisque}{{1.1.2}{4}{Le risque de modélisation}{subsection.1.1.2}{}}
|
||||
\newlabel{sec:modelerisque@cref}{{[subsection][2][1,1]1.1.2}{4}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {1.2}Les rendements financiers}{5}{section.1.2}}
|
||||
\newlabel{sec:prixrendements}{{1.2}{5}{Les rendements financiers}{section.1.2}{}}
|
||||
\newlabel{sec:prixrendements@cref}{{[section][2][1]1.2}{5}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {1.2.1}D\IeC {\'e}finitions et notations}{5}{subsection.1.2.1}}
|
||||
\newlabel{sec:defrendements}{{1.2.1}{5}{Définitions et notations}{subsection.1.2.1}{}}
|
||||
\newlabel{sec:defrendements@cref}{{[subsection][1][1,2]1.2.1}{5}}
|
||||
\newlabel{eq:solutiondiffrendement}{{1.2.1}{6}{Définitions et notations}{equation.1.2.1}{}}
|
||||
\newlabel{eq:solutiondiffrendement@cref}{{[equation][1][1,2]1.2.1}{6}}
|
||||
\@writefile{loe}{\addvspace {10\p@ }}
|
||||
\@writefile{loe}{\contentsline {hypothese}{\numberline {1.1}Hypoth\IeC {\`e}se}{6}{hypothese.1.1}}
|
||||
\newlabel{eq:rendementlogprix}{{1.2.2}{6}{Définitions et notations}{equation.1.2.2}{}}
|
||||
\newlabel{eq:rendementlogprix@cref}{{[equation][2][1,2]1.2.2}{6}}
|
||||
\newlabel{eq:rendementcumL}{{1.2.3}{6}{Définitions et notations}{equation.1.2.3}{}}
|
||||
\newlabel{eq:rendementcumL@cref}{{[equation][3][1,2]1.2.3}{6}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {1.2.2}Rendements cumul\IeC {\'e}s}{7}{subsection.1.2.2}}
|
||||
\newlabel{sec:rendementscum}{{1.2.2}{7}{Rendements cumulés}{subsection.1.2.2}{}}
|
||||
\newlabel{sec:rendementscum@cref}{{[subsection][2][1,2]1.2.2}{7}}
|
||||
\@writefile{loe}{\contentsline {hypothese}{\numberline {1.2}Hypoth\IeC {\`e}se}{7}{hypothese.1.2}}
|
||||
\newlabel{eq:convolutionLR}{{1.2.5}{7}{Rendements cumulés}{equation.1.2.5}{}}
|
||||
\newlabel{eq:convolutionLR@cref}{{[equation][5][1,2]1.2.5}{7}}
|
||||
\@writefile{loe}{\contentsline {hypothese}{\numberline {1.3}Hypoth\IeC {\`e}se}{7}{hypothese.1.3}}
|
||||
\newlabel{eq:rendementsIID}{{1.2.6}{7}{Rendements cumulés}{equation.1.2.6}{}}
|
||||
\newlabel{eq:rendementsIID@cref}{{[equation][6][1,2]1.2.6}{7}}
|
||||
\newlabel{eq:convolution2}{{1.2.7}{7}{Rendements cumulés}{equation.1.2.7}{}}
|
||||
\newlabel{eq:convolution2@cref}{{[equation][7][1,2]1.2.7}{7}}
|
||||
\citation{bachelier1900theorie}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {1.2.3}Donn\IeC {\'e}es disponibles}{8}{subsection.1.2.3}}
|
||||
\newlabel{sec:donneesdisponibles}{{1.2.3}{8}{Données disponibles}{subsection.1.2.3}{}}
|
||||
\newlabel{sec:donneesdisponibles@cref}{{[subsection][3][1,2]1.2.3}{8}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {1.3}Les premiers mod\IeC {\`e}les}{8}{section.1.3}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {1.3.1}Le mod\IeC {\`e}le de Bachelier}{8}{subsection.1.3.1}}
|
||||
\newlabel{sec:bachelier}{{1.3.1}{8}{Le modèle de Bachelier}{subsection.1.3.1}{}}
|
||||
\newlabel{sec:bachelier@cref}{{[subsection][1][1,3]1.3.1}{8}}
|
||||
\@writefile{lof}{\contentsline {figure}{\numberline {1.1}{\ignorespaces Mod\IeC {\`e}le de Bachelier: probabilit\IeC {\'e} compos\IeC {\'e}e\relax }}{8}{figure.caption.12}}
|
||||
\providecommand*\caption@xref[2]{\@setref\relax\@undefined{#1}}
|
||||
\newlabel{fig:bachelier1}{{1.1}{8}{Modèle de Bachelier: probabilité composée\relax }{figure.caption.12}{}}
|
||||
\newlabel{fig:bachelier1@cref}{{[figure][1][1]1.1}{8}}
|
||||
\newlabel{eq:probcomposeeB}{{1.3.1}{8}{Le modèle de Bachelier}{equation.1.3.1}{}}
|
||||
\newlabel{eq:probcomposeeB@cref}{{[equation][1][1,3]1.3.1}{8}}
|
||||
\citation{mitchell1916critique}
|
||||
\citation{mitchell1916critique}
|
||||
\citation{mitchell1916critique}
|
||||
\newlabel{eq:formeprobB}{{1.3.2}{9}{Le modèle de Bachelier}{equation.1.3.2}{}}
|
||||
\newlabel{eq:formeprobB@cref}{{[equation][2][1,3]1.3.2}{9}}
|
||||
\newlabel{eq:bachelier00}{{1.3.5}{9}{Le modèle de Bachelier}{equation.1.3.5}{}}
|
||||
\newlabel{eq:bachelier00@cref}{{[equation][5][1,3]1.3.5}{9}}
|
||||
\newlabel{eq:browniengeom}{{1.3.6}{9}{Le modèle de Bachelier}{equation.1.3.6}{}}
|
||||
\newlabel{eq:browniengeom@cref}{{[equation][6][1,3]1.3.6}{9}}
|
||||
\newlabel{eq:bachelierwiener2}{{1.3.7}{9}{Le modèle de Bachelier}{equation.1.3.7}{}}
|
||||
\newlabel{eq:bachelierwiener2@cref}{{[equation][7][1,3]1.3.7}{9}}
|
||||
\@writefile{lof}{\contentsline {figure}{\numberline {1.2}{\ignorespaces Distribution des rendements annuels de 40 titres boursiers, de 1890 \IeC {\`a} 1915, Table XVIII de \cite {mitchell1916critique}\relax }}{10}{figure.caption.13}}
|
||||
\newlabel{fig:mitchell1}{{1.2}{10}{Distribution des rendements annuels de 40 titres boursiers, de 1890 à 1915, Table XVIII de \cite {mitchell1916critique}\relax }{figure.caption.13}{}}
|
||||
\newlabel{fig:mitchell1@cref}{{[figure][2][1]1.2}{10}}
|
||||
\citation{mandelbrot1963variation}
|
||||
\citation{walterlevy}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {1.3.2}Proposition de Mandelbrot}{11}{subsection.1.3.2}}
|
||||
\newlabel{sec:mandelbrot}{{1.3.2}{11}{Proposition de Mandelbrot}{subsection.1.3.2}{}}
|
||||
\newlabel{sec:mandelbrot@cref}{{[subsection][2][1,3]1.3.2}{11}}
|
||||
\newlabel{enum:mandelbrot}{{1.3.2}{11}{Proposition de Mandelbrot}{subsection.1.3.2}{}}
|
||||
\newlabel{enum:mandelbrot@cref}{{[subsection][2][1,3]1.3.2}{11}}
|
||||
\citation{press1967compound}
|
||||
\@writefile{lot}{\contentsline {table}{\numberline {1.1}{\ignorespaces Domaine et r\IeC {\^o}le des param\IeC {\`e}tres de la distribution L stable de Mandelbrot\relax }}{12}{table.caption.14}}
|
||||
\newlabel{tab:roleparam}{{1.1}{12}{Domaine et rôle des paramètres de la distribution L stable de Mandelbrot\relax }{table.caption.14}{}}
|
||||
\newlabel{tab:roleparam@cref}{{[table][1][1]1.1}{12}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {1.3.3}Le mod\IeC {\`e}le de Press}{12}{subsection.1.3.3}}
|
||||
\newlabel{sec:press}{{1.3.3}{12}{Le modèle de Press}{subsection.1.3.3}{}}
|
||||
\newlabel{sec:press@cref}{{[subsection][3][1,3]1.3.3}{12}}
|
||||
\newlabel{eq:press67}{{1.3.11}{13}{Le modèle de Press}{equation.1.3.11}{}}
|
||||
\newlabel{eq:press67@cref}{{[equation][11][1,3]1.3.11}{13}}
|
||||
\newlabel{eq:fncaractpress}{{1.3.12}{13}{Le modèle de Press}{equation.1.3.12}{}}
|
||||
\newlabel{eq:fncaractpress@cref}{{[equation][12][1,3]1.3.12}{13}}
|
||||
\newlabel{eq:fncaractpress2}{{1.3.13}{13}{Le modèle de Press}{equation.1.3.13}{}}
|
||||
\newlabel{eq:fncaractpress2@cref}{{[equation][13][1,3]1.3.13}{13}}
|
||||
\citation{merton1976option}
|
||||
\newlabel{eq:cumulantspress}{{1.3.14}{14}{Le modèle de Press}{equation.1.3.0.14.14}{}}
|
||||
\newlabel{eq:cumulantspress@cref}{{[equation][14][1,3]1.3.14}{14}}
|
||||
\newlabel{eq:presscum}{{1.3.15}{14}{Le modèle de Press}{equation.1.3.0.15.15}{}}
|
||||
\newlabel{eq:presscum@cref}{{[equation][15][1,3]1.3.15}{14}}
|
||||
\newlabel{eq:presscumtheta}{{1.3.15a}{14}{Le modèle de Press}{equation.1.3.0.15a}{}}
|
||||
\newlabel{eq:presscumtheta@cref}{{[equation][1][1,3,15]1.3.15a}{14}}
|
||||
\newlabel{eq:presscumlambda}{{1.3.15b}{14}{Le modèle de Press}{equation.1.3.0.15b}{}}
|
||||
\newlabel{eq:presscumlambda@cref}{{[equation][2][1,3,15]1.3.15b}{14}}
|
||||
\newlabel{eq:presscumsigma2}{{1.3.15c}{14}{Le modèle de Press}{equation.1.3.0.15c}{}}
|
||||
\newlabel{eq:presscumsigma2@cref}{{[equation][3][1,3,15]1.3.15c}{14}}
|
||||
\newlabel{eq:presscumsigma1}{{1.3.15d}{14}{Le modèle de Press}{equation.1.3.0.15d}{}}
|
||||
\newlabel{eq:presscumsigma1@cref}{{[equation][4][1,3,15]1.3.15d}{14}}
|
||||
\newlabel{eq:modelemerton}{{1.3.16}{14}{Le modèle de Press}{equation.1.3.0.16}{}}
|
||||
\newlabel{eq:modelemerton@cref}{{[equation][16][1,3]1.3.16}{14}}
|
||||
\citation{praetz1972distribution}
|
||||
\newlabel{eq:fncaractmerton}{{1.3.18}{15}{Le modèle de Press}{equation.1.3.0.18}{}}
|
||||
\newlabel{eq:fncaractmerton@cref}{{[equation][18][1,3]1.3.18}{15}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {1.3.4}Le mod\IeC {\`e}le de Praetz}{15}{subsection.1.3.4}}
|
||||
\newlabel{eq:praetz72}{{1.3.20}{15}{Le modèle de Praetz}{equation.1.3.0.20}{}}
|
||||
\newlabel{eq:praetz72@cref}{{[equation][20][1,3]1.3.20}{15}}
|
||||
\newlabel{eq:gpraetz}{{1.3.21}{15}{Le modèle de Praetz}{equation.1.3.0.21}{}}
|
||||
\newlabel{eq:gpraetz@cref}{{[equation][21][1,3]1.3.21}{15}}
|
||||
\citation{madan1990variance}
|
||||
\citation{kotz2001laplace}
|
||||
\newlabel{eq:hpraetz}{{1.3.22}{16}{Le modèle de Praetz}{equation.1.3.0.22}{}}
|
||||
\newlabel{eq:hpraetz@cref}{{[equation][22][1,3]1.3.22}{16}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {1.4}Conditions essentielles de Madan et Seneta}{16}{section.1.4}}
|
||||
\newlabel{sec:madanseneta90}{{1.4}{16}{Conditions essentielles de Madan et Seneta}{section.1.4}{}}
|
||||
\newlabel{sec:madanseneta90@cref}{{[section][4][1]1.4}{16}}
|
||||
\newlabel{eq:condmadan1}{{1.4.1}{16}{Conditions essentielles de Madan et Seneta}{equation.1.4.0.1}{}}
|
||||
\newlabel{eq:condmadan1@cref}{{[enumi][1][]1}{16}}
|
||||
\newlabel{eq:condmadan2}{{1.4.2}{16}{Conditions essentielles de Madan et Seneta}{equation.1.4.0.2}{}}
|
||||
\newlabel{eq:condmadan2@cref}{{[equation][2][1,4]1.4.2}{16}}
|
||||
\@writefile{lot}{\contentsline {table}{\numberline {1.2}{\ignorespaces Respect des conditions \IeC {\'e}mises par Madan et Seneta pour les diff\IeC {\'e}rents mod\IeC {\`e}les pr\IeC {\'e}sent\IeC {\'e}s\relax }}{17}{table.caption.15}}
|
||||
\newlabel{tab:condmadan}{{1.2}{17}{Respect des conditions émises par Madan et Seneta pour les différents modèles présentés\relax }{table.caption.15}{}}
|
||||
\newlabel{tab:condmadan@cref}{{[table][2][1]1.2}{17}}
|
||||
\@setckpt{chapitre1}{
|
||||
\setcounter{page}{18}
|
||||
\setcounter{equation}{2}
|
||||
\setcounter{enumi}{4}
|
||||
\setcounter{enumii}{2}
|
||||
\setcounter{enumiii}{0}
|
||||
\setcounter{enumiv}{0}
|
||||
\setcounter{footnote}{1}
|
||||
\setcounter{mpfootnote}{0}
|
||||
\setcounter{@memmarkcntra}{0}
|
||||
\setcounter{storedpagenumber}{1}
|
||||
\setcounter{book}{0}
|
||||
\setcounter{part}{0}
|
||||
\setcounter{chapter}{1}
|
||||
\setcounter{section}{4}
|
||||
\setcounter{subsection}{0}
|
||||
\setcounter{subsubsection}{0}
|
||||
\setcounter{paragraph}{0}
|
||||
\setcounter{subparagraph}{0}
|
||||
\setcounter{@ppsavesec}{0}
|
||||
\setcounter{@ppsaveapp}{0}
|
||||
\setcounter{vslineno}{0}
|
||||
\setcounter{poemline}{0}
|
||||
\setcounter{modulo@vs}{0}
|
||||
\setcounter{memfvsline}{0}
|
||||
\setcounter{verse}{0}
|
||||
\setcounter{chrsinstr}{0}
|
||||
\setcounter{poem}{0}
|
||||
\setcounter{newflo@tctr}{4}
|
||||
\setcounter{@contsubnum}{0}
|
||||
\setcounter{maxsecnumdepth}{2}
|
||||
\setcounter{sidefootnote}{0}
|
||||
\setcounter{pagenote}{0}
|
||||
\setcounter{pagenoteshadow}{0}
|
||||
\setcounter{memfbvline}{0}
|
||||
\setcounter{bvlinectr}{0}
|
||||
\setcounter{cp@cntr}{0}
|
||||
\setcounter{ism@mctr}{0}
|
||||
\setcounter{xsm@mctr}{0}
|
||||
\setcounter{csm@mctr}{0}
|
||||
\setcounter{ksm@mctr}{0}
|
||||
\setcounter{xksm@mctr}{0}
|
||||
\setcounter{cksm@mctr}{0}
|
||||
\setcounter{msm@mctr}{0}
|
||||
\setcounter{xmsm@mctr}{0}
|
||||
\setcounter{cmsm@mctr}{0}
|
||||
\setcounter{bsm@mctr}{0}
|
||||
\setcounter{workm@mctr}{0}
|
||||
\setcounter{sheetsequence}{36}
|
||||
\setcounter{lastsheet}{155}
|
||||
\setcounter{lastpage}{137}
|
||||
\setcounter{figure}{2}
|
||||
\setcounter{lofdepth}{1}
|
||||
\setcounter{table}{2}
|
||||
\setcounter{lotdepth}{1}
|
||||
\setcounter{NAT@ctr}{0}
|
||||
\setcounter{nprt@mantissa@digitsbefore}{0}
|
||||
\setcounter{nprt@mantissa@digitsafter}{0}
|
||||
\setcounter{nprt@exponent@digitsbefore}{0}
|
||||
\setcounter{nprt@exponent@digitsafter}{0}
|
||||
\setcounter{nprt@digitsfirstblock}{0}
|
||||
\setcounter{nprt@blockcnt}{0}
|
||||
\setcounter{nprt@cntprint}{0}
|
||||
\setcounter{parentequation}{0}
|
||||
\setcounter{thmt@dummyctr}{3}
|
||||
\setcounter{Item}{13}
|
||||
\setcounter{Hfootnote}{1}
|
||||
\setcounter{memhycontfloat}{0}
|
||||
\setcounter{Hpagenote}{0}
|
||||
\setcounter{bookmark@seq@number}{21}
|
||||
\setcounter{ContinuedFloat}{0}
|
||||
\setcounter{app@runs}{1}
|
||||
\setcounter{pspicture}{0}
|
||||
\setcounter{section@level}{0}
|
||||
\setcounter{theo}{0}
|
||||
\setcounter{hypothese}{3}
|
||||
}
|
29893
memoire/chapitre1.log
Normal file
29893
memoire/chapitre1.log
Normal file
File diff suppressed because it is too large
Load diff
834
memoire/chapitre1.tex
Normal file
834
memoire/chapitre1.tex
Normal file
|
@ -0,0 +1,834 @@
|
|||
\chapter{Les modèles de rendements financiers}
|
||||
|
||||
\section{L'utilisation de modèles en finance}
|
||||
\label{sec:utilisationmodeles}
|
||||
|
||||
On doit considérer les implications de l'utilisation de modèles en
|
||||
finance avant d'entreprendre leur étude. On doit aussi prendre
|
||||
connaissance des différents types ainsi que les risques liés à chacun
|
||||
d'entre eux. Pour ce faire, on se réfère à la note «Model Risk»
|
||||
publiée par \cite{derman1996modelrisk}.
|
||||
|
||||
Durant les dernières décennies, plusieurs modèles sont apparus afin de
|
||||
fournir une approche fondamentale aux concepts de tarification,
|
||||
d'offre et de demande et d'arbitrage aux intervenants des milieux
|
||||
financiers. Au cours des années 1970, on se préoccupe particulièrement
|
||||
des fluctuations des taux d'intérêt, un phénomène qui marque cette
|
||||
époque. Les notions de duration et de convexité font alors leurs
|
||||
débuts. Sur les marchés de capitaux propres, on s'intéresse à la
|
||||
discordance entre le prix négocié des contrats à terme et le prix
|
||||
raisonnable calculé selon une perspective théorique.
|
||||
|
||||
Puis, la confiance développée envers le modèle de tarification
|
||||
d'options de \cite{black1973pricing} et ses extensions a favorisé la
|
||||
croissance du marché des produits dérivés. La puissance de calcul
|
||||
croissante des ordinateurs a aussi permis l'élaboration et
|
||||
l'utilisation de modèles de plus en plus sophistiqués. La dépendance
|
||||
qui peut se développer envers ceux-ci apporte son lot de
|
||||
considérations. On doit donc se rappeler l'utilisation désirée par les
|
||||
auteurs de ceux-ci et le risque associé à leur usage à grande échelle.
|
||||
|
||||
\subsection{Différents types de modèles}
|
||||
\label{sec:differentsmodeles}
|
||||
|
||||
Toujours selon Derman, un modèle financier peut être classé parmi au
|
||||
moins trois catégories:
|
||||
|
||||
\begin{enumerate}
|
||||
\item Le \textbf{modèle fondamental}, basé sur un système de postulats
|
||||
et de données, entre lesquels on peut établir différentes
|
||||
relations. Le modèle de Black-Scholes en est un exemple.
|
||||
\item Le \textbf{modèle phénoménologique}, qui présente une
|
||||
description ou une analogie, afin d'illustrer quelque chose qui ne
|
||||
peut être directement observé. C'est un modèle moins fondamental,
|
||||
basé aussi sur des liens de cause à effet. Un modèle qui chercherait
|
||||
à expliquer l'impact du retrait du porteur de parts majoritaire
|
||||
d'une entreprise sur la valeur des actions de celle-ci serait
|
||||
phénoménologique.
|
||||
\item Le \textbf{modèle statistique}, basé sur une régression ou un
|
||||
réglage optimal entre différents ensembles de données. On ne cherche
|
||||
pas ici à expliquer une dynamique, mais à décrire une tendance ou
|
||||
une corrélation. Le modèle d'évaluation des actifs financiers et
|
||||
celui des trois facteurs de \cite{fama1993common} en sont des exemples.
|
||||
\end{enumerate}
|
||||
|
||||
Un modèle financier est en partie basé sur des variables qui
|
||||
représentent des opinions et des anticipations, et non seulement des
|
||||
quantités mesurables. Ces variables peuvent être, entre autres, le
|
||||
rendement et la volatilité future espérés. Cette considération sera
|
||||
importante notamment lorsque l'on voudra déterminer le prix
|
||||
raisonnable d'un produit dérivé. En effet, un modèle de tarification
|
||||
est essentiellement un moyen de refléter l'intuition des acteurs du
|
||||
marché à propos de ces variables sous la forme d'un prix exprimé dans
|
||||
une unité monétaire. Un bon modèle doit faciliter l'extrapolation de
|
||||
ce prix sous certaines conditions de marché.
|
||||
|
||||
Contrairement à la physique classique, un principe fondamental en
|
||||
finance est l'incertitude. On ne peut anticiper la valeur d'un titre à
|
||||
un moment donné dans le futur avec la même précision qu'on peut
|
||||
prévoir la position d'un objet à cet instant. Les outils mathématiques
|
||||
principalement utilisés seront alors les processus stochastiques, les
|
||||
statistiques et les distributions de probabilités, en plus du calcul
|
||||
différentiel et intégral.
|
||||
|
||||
\subsection{Le risque de modélisation}
|
||||
\label{sec:modelerisque}
|
||||
|
||||
Plusieurs risques inhérents à la modélisation en finance
|
||||
existent. Quelques-uns d'entre eux seront décrits dans cette section.
|
||||
|
||||
La modélisation peut tout simplement ne pas être applicable à la
|
||||
situation étudiée. L'exemple le plus probant serait de tenter de
|
||||
prévoir les mouvements du prix d'un titre financier à court terme.
|
||||
|
||||
Un modèle peut être incorrect pour plusieurs raisons. Entre autres, il
|
||||
peut ignorer certains facteurs ou poser une hypothèse déterministe
|
||||
inappropriée sur ceux-ci. Il peut aussi considérer une dynamique
|
||||
incorrecte pour un des facteurs ou encore une relation inappropriée
|
||||
entre ceux-ci. Enfin, il peut n'être applicable que sous certaines
|
||||
conditions bien précises ou encore que son utilisation soit limitée à
|
||||
court terme, notamment lorsqu'il nécessite un temps de calibration
|
||||
pour être statistiquement valable. Il peut aussi être inutilisable par
|
||||
une mauvaise estimation des paramètres.
|
||||
|
||||
Un modèle peut aussi être correct, mais avoir une solution
|
||||
erronée. Cela se produit notamment lorsqu'on tente de dériver une
|
||||
solution analytique ou que l'on doit utiliser des méthodes numériques
|
||||
pour obtenir celle-ci. On se doit, dans ce cas, de connaître l'erreur
|
||||
maximale possible de la méthode utilisée. Un modèle correct peut aussi
|
||||
être utilisé dans le mauvais contexte. Par exemple, on pourrait avoir
|
||||
recours à des paramètres inadéquats de simulation, ou encore réutiliser le
|
||||
modèle dans une autre situation sans tenir compte des
|
||||
conditions de validité de celui-ci.
|
||||
|
||||
Son utilisation peut génèrer des prix déraisonnables; on parle alors
|
||||
d'arbitrage de modèle. Par exemple, si un titre est évalué à l'aide du
|
||||
modèle d'évaluation des actifs financiers, son prix sera différent de
|
||||
celui qui serait obtenu avec la régression à trois facteurs de Fama et
|
||||
French. Un investisseur peut alors faire du profit en achetant le
|
||||
titre à celui qui demande le prix le plus faible pour le revendre à
|
||||
celui qui offre le plus élevé.
|
||||
|
||||
L'utilisation de données instables peut produire des résultats
|
||||
différents selon la période étudiée. La possibilité qu'une estimation
|
||||
basée sur des données historiques soit erronée doit être considérée.
|
||||
|
||||
Enfin, comme la plupart des modèles financiers sont implémentés sous
|
||||
forme de logiciels, différents bogues informatiques peuvent se
|
||||
retrouver dans le code source. On considère entre autres des erreurs
|
||||
d'arrondissement, de logique et de clarté du code, ainsi que des
|
||||
particularités du matériel qui n'auraient pas été prises en compte par
|
||||
le programmeur. Ces erreurs peuvent être difficiles à détecter, c'est
|
||||
pourquoi un grand nombre de tests devrait être effectués avant de
|
||||
publier un logiciel de modélisation financière.
|
||||
|
||||
\section{Les rendements financiers}
|
||||
\label{sec:prixrendements}
|
||||
|
||||
Le \textbf{rendement} est défini comme étant le gain ou la perte de
|
||||
valeur d'un actif sur une période donnée. Il est constitué des revenus
|
||||
occasionnés et des gains en capitaux d'un investissement et est
|
||||
habituellement représenté sous la forme d'un pourcentage. Ces derniers
|
||||
peuvent prendre la forme de coupons pour les titres à revenus fixes et
|
||||
de dividendes pour les actions échangées sur les marchés boursiers. On
|
||||
ne considèrera, dans ce texte, que les titres boursiers sans
|
||||
dividende, dont le rendement est lié uniquement aux gains en capitaux.
|
||||
|
||||
\subsection{Définitions et notations}
|
||||
\label{sec:defrendements}
|
||||
|
||||
On définit le prix $S(t)>0$ d'un titre financier observé au temps
|
||||
$t$. Implicitement, le prix considéré est celui à la fermeture. On
|
||||
définit aussi le taux de rendement effectif $R(t)$ sur une période
|
||||
comprise dans l'intervalle de temps $\left[t-1,t\right]$. C'est le
|
||||
taux composé continument, aussi appelé force d'intérêt, qui aurait
|
||||
occasionné les mêmes gains ou pertes sur un montant déposé en banque
|
||||
au cours de la période concernée. Le taux de rendement est la variable
|
||||
d'intérêt dans le contexte de la modélisation financière.
|
||||
|
||||
On associe le taux de rendement effectif à la différence entre le
|
||||
logarithme du prix initial et final. Dans la situation où le taux de
|
||||
rendement est déterministe et non aléatoire, on obtient l'équation
|
||||
différentielle suivante:
|
||||
\begin{align*}
|
||||
\frac{dS(t)}{dt} &= R(t) \cdot S(t).
|
||||
\end{align*}
|
||||
|
||||
On peut interpréter cette équation en affirmant que la variation du
|
||||
prix $dS(t)$ sur un intervalle de temps infiniment petit $dt$ est
|
||||
proportionnelle à la valeur actuelle $S(t)$. Cette équation
|
||||
différentielle a pour solution générale:
|
||||
\begin{align}
|
||||
\label{eq:solutiondiffrendement}
|
||||
S(t) &= S(0)e^{R(t) \cdot t}.
|
||||
\end{align}
|
||||
|
||||
Afin de définir les propriétés de l'échantillon sélectionné, on pose
|
||||
comme hypothèse:
|
||||
\begin{hypothese}
|
||||
Le rendement $R(t)$ est constant durant la période définie par
|
||||
l'intervalle de temps $\left[t-1,t\right]$, mais il est différent
|
||||
d'une à l'autre: $R(s) \neq R(t), s \neq t$.
|
||||
\end{hypothese}
|
||||
|
||||
On peut alors représenter le rendement $R(t)$ comme étant la
|
||||
différence entre les logarithmes des prix observés au temps $t$ et
|
||||
$t-1$, ou encore le logarithme du quotient de ces mêmes prix:
|
||||
\begin{align}
|
||||
R(t) &= \ln{(S(t))} - \ln{(S(t-1))} \nonumber\\
|
||||
&=
|
||||
\ln{\left(\frac{S(t)}{S(t-1)}\right)}. \label{eq:rendementlogprix}
|
||||
\end{align}
|
||||
|
||||
On définit aussi le \textbf{rendement cumulé} $L(t)$. Il correspond à
|
||||
la somme des rendements effectifs observés sur l'intervalle
|
||||
$\left[0,t\right]$:
|
||||
\begin{align}
|
||||
L(t) &= \sum_{i=1}^{t} R(i) \nonumber\\
|
||||
&= \sum_{i=1}^{t} \left[\ln{(S(i)} - \ln{(S(i-1))}\right] \nonumber\\
|
||||
&= \ln{(S(t))} - \ln{(S(0))} \nonumber\\
|
||||
&= \ln{\left(\frac{S(t)}{S(0)}\right)}. \label{eq:rendementcumL}
|
||||
\end{align}
|
||||
|
||||
Cette représentation permet d'exprimer le prix actuel $S(t)$ en
|
||||
fonction de la valeur initiale $S(0)$ sous une forme similaire à la
|
||||
solution \eqref{eq:solutiondiffrendement}, mais tenant compte de
|
||||
l'hypothèse émise précédemment:
|
||||
\begin{align}
|
||||
e^{L(t)} &= \frac{S(t)}{S(0)} \nonumber\\
|
||||
S(t) &= S(0) \cdot e^{L(t)} \nonumber\\
|
||||
&= S(0) \cdot \exp\left(\sum_{i=1}^{t} R(i)\right).
|
||||
\end{align}
|
||||
|
||||
\subsection{Rendements cumulés}
|
||||
\label{sec:rendementscum}
|
||||
|
||||
On pose l'hypothèse suivante:
|
||||
\begin{hypothese}
|
||||
Les rendements $R(i), i \in 1, \ldots, t$ sont indépendants, mais
|
||||
pas nécessairement identiquement distribués.
|
||||
\end{hypothese}
|
||||
|
||||
On peut alors obtenir la distribution du rendement cumulé $L(t)$ en
|
||||
utilisant le produit de convolution \eqref{eq:convocaract}.
|
||||
Considérons $\phi_{R(i)}(\xi)$ la fonction caractéristique d'un
|
||||
rendement $R(i)$ et $\phi_{L(t)}(\xi)$ celle du cumulé $L(t)$. On
|
||||
obtient alors que cette dernière est égale au produit des fonctions
|
||||
caractéristiques des rendements effectifs sur chacune des périodes de
|
||||
l'intervalle $\left[0,t\right]$:
|
||||
\begin{equation}
|
||||
\label{eq:convolutionLR}
|
||||
\phi_{L(t)}(\xi) = \prod_{i=1}^t \phi_{R(i)}(\xi).
|
||||
\end{equation}
|
||||
|
||||
On considère la situation où l'on posera plutôt l'hypothèse suivante:
|
||||
\begin{hypothese}
|
||||
Les rendements $R(i), i \in 1, \ldots, t$ sont à la fois
|
||||
indépendants et identiquement distribués.
|
||||
\end{hypothese}
|
||||
|
||||
Alors, la fonction caractéristique des rendements est égale pour
|
||||
chaque période:
|
||||
\begin{align}
|
||||
\label{eq:rendementsIID}
|
||||
\phi_{R}(\xi) = \phi_{R(1)}(\xi) = \ldots &= \phi_{R(t)}(\xi).
|
||||
\end{align}
|
||||
|
||||
On peut donc simplifier l'expression \eqref{eq:convolutionLR} pour
|
||||
obtenir la fonction caractéristique:
|
||||
\begin{equation}
|
||||
\label{eq:convolution2}
|
||||
\phi_{L(t)}(\xi) = \left[\phi_{R}(\xi)\right]^t.
|
||||
\end{equation}
|
||||
|
||||
Considérer une distribution qui est fermée sous la convolution pour
|
||||
modéliser les rendements sur une période $R(i)$ peut alors être
|
||||
intéressant. Le rendement cumulé $L(t)$ pourra aussi être
|
||||
modélisé à l'aide de la même distribution. Pour ce faire, on modifie
|
||||
un paramètre d’échelle en fonction de la longueur $t$ de l'intervalle
|
||||
de temps considéré.
|
||||
|
||||
\subsection{Données disponibles}
|
||||
\label{sec:donneesdisponibles}
|
||||
|
||||
Les données disponibles auprès des fournisseurs d'informations
|
||||
financières prennent habituellement la forme de séries chronologiques
|
||||
discontinues. Celles-ci incluent les prix à l'ouverture, le plus bas
|
||||
et le plus élevé au courant de la journée ainsi qu'à la fermeture,
|
||||
pour chaque jour où les marchés financiers sont en activité. Afin de
|
||||
mesurer le rendement quotidien d'un titre, seuls les prix à la
|
||||
fermeture seront considérés.
|
||||
|
||||
\section{Les premiers modèles}
|
||||
|
||||
\subsection{Le modèle de Bachelier}
|
||||
\label{sec:bachelier}
|
||||
|
||||
Un des premiers modèles proposés afin de représenter les rendements
|
||||
financiers a été celui de \cite{bachelier1900theorie} .
|
||||
|
||||
Le prix d'un titre peut varier, durant une période, de n'importe
|
||||
quelle valeur comprise dans l'intervalle $\left[ -S(t),\infty
|
||||
\right]$. Il propose donc que cet intervalle soit remplacé par
|
||||
l'ensemble du domaine réel $\mathbb{R}$. La probabilité que le titre
|
||||
atteigne une valeur nulle ou négative ou que celle-ci double devrait
|
||||
donc être négligeable. Il ajoute aussi que la variation est
|
||||
indépendante du prix actuel du titre $S(t)$ et que la distribution de
|
||||
probabilités de celle-ci est symétrique et centrée en ce point.
|
||||
|
||||
Il utilise le principe selon lequel la probabilité que deux évènements
|
||||
indépendants consécutifs aient lieu est le produit de celles que
|
||||
chacun d'entre eux se réalise, pour établir la distribution des
|
||||
variations du prix. Par exemple, la variation du prix sur une première
|
||||
période prend la valeur $x$ et celle sur une seconde, $z-x$, comme
|
||||
illustré à la figure \ref{fig:bachelier1}.
|
||||
|
||||
%% ligne du temps
|
||||
\begin{figure}[!ht]
|
||||
\centering
|
||||
\begin{tikzpicture}
|
||||
\draw [->] (0,0) -- (6,0); \foreach \x in {0,2,4} \draw (\x
|
||||
cm,3pt) -- (\x cm,-3pt); \draw (0,0) node[below=3pt] {$ 0 $}
|
||||
node[above=3pt] {$ S(0) $}; \draw (2,0) node[below=3pt] {$ t_1 $}
|
||||
node[above=3pt] {$ S(0)+x $}; \draw (4,0) node[below=3pt] {$
|
||||
t_1+t_2 $} node[above=3pt] {$ S(0)+z $};
|
||||
\end{tikzpicture}
|
||||
\caption{Modèle de Bachelier: probabilité composée}
|
||||
\label{fig:bachelier1}
|
||||
\end{figure}
|
||||
|
||||
On définit $f(x,t)$ la fonction de densité de la variation du prix
|
||||
$S(t)$ par rapport au niveau initial $S(0)$. Alors, selon le principe
|
||||
précédent, on obtient l'expression
|
||||
\begin{align}
|
||||
\label{eq:probcomposeeB}
|
||||
f(z,t_1+t_2) = \int_{-\infty}^{\infty} f(x,t_1)\cdot f(z-x,t_2)
|
||||
\cdot dx.
|
||||
\end{align}
|
||||
|
||||
La solution proposée est que la densité de probabilité soit de la forme
|
||||
\begin{align*}
|
||||
\label{eq:formeprobB}
|
||||
f(x,t) = A \cdot \exp \left\{-B^2x^2 \right\}.
|
||||
\end{align*}
|
||||
|
||||
Afin que la fonction $f(x,t)$ soit une densité de probabilité, la
|
||||
condition suivante doit être respectée:
|
||||
\begin{align}
|
||||
\int_{-\infty}^{\infty} A \cdot \exp \left\{-B^2x^2 \right\} dx = 1.
|
||||
\end{align}
|
||||
|
||||
Ceci implique que
|
||||
\begin{align*}
|
||||
B&= A\sqrt{\pi}.
|
||||
\end{align*}
|
||||
|
||||
En posant $x=0$, on a $A=f(0,t)$ et l'on en déduit:
|
||||
\begin{align}
|
||||
f(x,t) = f(0,t) \cdot \exp \left\{-\pi \cdot f(0,t)^2 \cdot x^2
|
||||
\right\}.
|
||||
\end{align}
|
||||
|
||||
En reprenant l'intégrale \eqref{eq:probcomposeeB}, on obtient que la
|
||||
densité de probabilité $f(z,t_1+t_2)$ soit aussi de la forme
|
||||
\eqref{eq:formeprobB}:
|
||||
\begin{align}
|
||||
f(z,t_1+t_2) = \frac{f(x,1)f(z-x,2)}{\sqrt{f(x,1)^2+f(z-x,2)^2}}
|
||||
\exp \left\{-\pi \frac{f(x,1)f(z-x,2)}{f(x,1)^2+f(z-x,2)^2} z^2
|
||||
\right\}.
|
||||
\end{align}
|
||||
|
||||
On reconnaitra que cette densité est, à un changement de variable
|
||||
près, une loi normale. La démarche suggère qu'il recherchait une
|
||||
distribution qui était fermée sous la convolution, une propriété
|
||||
souhaitable pour un modèle cohérent des rendements financiers.
|
||||
|
||||
Ce modèle implique un processus de Wiener-Bachelier selon lequel les
|
||||
incréments, ou les changements de prix, suivent une distribution
|
||||
normale:
|
||||
\begin{equation}
|
||||
\label{eq:bachelier00}
|
||||
S(T)-S(t) \sim N\left(0,\sigma^2 \left(T-t\right)\right).
|
||||
\end{equation}
|
||||
|
||||
On doit noter que ce modèle implique que la variance des fluctuations
|
||||
n'est pas proportionnelle au prix initial. Une première correction
|
||||
sera apportée au modèle afin de considérer le logarithme du prix. Ce
|
||||
changement permettra d'obtenir un modèle où elle est désormais
|
||||
proportionnelle au prix initial. Le processus du prix suivra alors un
|
||||
mouvement brownien géométrique:
|
||||
\begin{align}
|
||||
\label{eq:browniengeom}
|
||||
S(T)-S(t) &\sim LN \left(0, \sigma (T-t) \right).
|
||||
\end{align}
|
||||
|
||||
Le logarithme du prix suivra alors un processus de Wiener-Bachelier:
|
||||
\begin{align}
|
||||
\label{eq:bachelierwiener2}
|
||||
\ln\left(S(T)\right)-\ln\left(S(t)\right) &\sim N\left(0,\sigma
|
||||
\left(T-t\right)\right).
|
||||
\end{align}
|
||||
|
||||
Un des principaux avantages du processus de Bachelier modifié est que
|
||||
le rendement cumulé $L(t)$ est aussi une variable aléatoire
|
||||
gaussienne. Cette propriété est appelée L-stabilité ou invariance sous
|
||||
l'addition. La distribution gaussienne est la seule ayant cette
|
||||
propriété où le second moment est fini. Le sujet des distributions L
|
||||
stables sera aussi abordé à la section \ref{sec:mandelbrot}.
|
||||
|
||||
Quelques années après sa publication, ce modèle est l'objet de
|
||||
critiques de la part d'économistes et de financiers. En se référant à
|
||||
\cite{mitchell1916critique}, on observe que, sur une base annuelle,
|
||||
les variations négatives par rapport à la moyenne (149) sont plus
|
||||
fréquentes que celles qui sont positives (126), pour un ensemble de 40
|
||||
titres boursiers, entre 1890 et 1915 (figure \ref{fig:mitchell1}).
|
||||
Une asymétrie négative des rendements sera alors présente.
|
||||
\begin{figure}[!ht]
|
||||
\centering
|
||||
\includegraphics[scale=0.75]{../varia/mitchell1.pdf}
|
||||
\caption{Distribution des rendements annuels de 40 titres boursiers,
|
||||
de 1890 à 1915, Table XVIII de \cite{mitchell1916critique}}
|
||||
\label{fig:mitchell1}
|
||||
\end{figure}
|
||||
|
||||
De plus, les variations extrêmes sont plus fréquentes que ne pourrait
|
||||
le prédire un modèle basé sur un mouvement brownien. La distribution
|
||||
des rendements aurait donc des queues plus épaisses
|
||||
\footnote{traduction de l'anglais heavy tailed} que la normale. On
|
||||
doit trouver un modèle qui permet de tenir compte de ces
|
||||
particularités.
|
||||
|
||||
\subsection{Proposition de Mandelbrot}
|
||||
\label{sec:mandelbrot}
|
||||
|
||||
|
||||
\cite{mandelbrot1963variation} propose un modèle qui vise à combler
|
||||
les lacunes du processus brownien géométrique
|
||||
\eqref{eq:browniengeom}. Il explique que les distributions empiriques
|
||||
des changements de prix sont habituellement trop \emph{pointues} pour
|
||||
être considérées comme des échantillons d'une population gaussienne.
|
||||
|
||||
Il identifie différentes caractéristiques qu'un bon modèle des
|
||||
rendements financiers devrait posséder:
|
||||
|
||||
\begin{enumerate}
|
||||
\label{enum:mandelbrot}
|
||||
\item Il doit tenir compte de la fréquence des grands changements de
|
||||
prix. Il doit donc être basé sur une distribution leptocurtique,
|
||||
plus pointue au centre que la normale.
|
||||
\item Il doit permettre des changements instantanés et imprévisibles
|
||||
de toute amplitude.
|
||||
\item Il doit admettre une probabilité non nulle que plusieurs
|
||||
changements consécutifs semblent corrélés.
|
||||
\item Il doit admettre un processus de prix non stationnaire, car la
|
||||
variance échantillonnale prend différentes valeurs à travers le
|
||||
temps.
|
||||
\end{enumerate}
|
||||
|
||||
La famille de distributions L stable semble être celle qui répond le
|
||||
mieux à l'ensemble de ces conditions \citep{walterlevy}. L'équation
|
||||
suivante définit la propriété de L-stabilité de la distribution de la
|
||||
variable aléatoire des rendements sur une période $R$:
|
||||
\begin{align}
|
||||
(a_1 R_1 + b_1) + (a_2 R_2 + b_2) &\stackrel{d}{=} aR + b \\
|
||||
\forall a_1,a_2 > 0, \forall b_1, b_2.
|
||||
\end{align}
|
||||
|
||||
La solution générale de cette équation a été découverte par Lévy en
|
||||
1925. Le logarithme de la fonction caractéristique de celle-ci prend
|
||||
la forme suivante:
|
||||
\begin{align}
|
||||
\ln{(\phi_{R}(\xi))} = i\delta \xi - \gamma |\xi|^{\alpha}
|
||||
\left[1+\frac{i\beta \xi}{|\xi|} \tan{\frac{\alpha\pi}{2}} \right].
|
||||
\end{align}
|
||||
|
||||
Le domaine et le rôle des paramètres de la distribution L stable est
|
||||
décrit à la table \ref{tab:roleparam}. La flexibilité apportée par les
|
||||
quatre paramètres permet de remplir les quatre conditions établies au
|
||||
début de cette section. De plus, l'absence, dans la majorité des cas,
|
||||
de moments finis d'ordre supérieur à l'espérance, permet de tenir
|
||||
compte du mouvement erratique des prix et ainsi produire de larges
|
||||
discontinuités de son processus. Elle permet aussi d'expliquer
|
||||
l'apparence de corrélation sérielle, en considérant une probabilité
|
||||
non négligeable que cette caractéristique soit présente. Cependant, ce
|
||||
modèle est difficile à appliquer à l'évaluation de produits dérivés
|
||||
pour cette raison, étant donné que l'on devra être en mesure de
|
||||
quantifier la volatilité.
|
||||
\begin{table}[!ht]
|
||||
\centering
|
||||
\begin{tabular}{|c|p{1.75cm}|p{2.5cm}|p{6.25cm}|}
|
||||
\hline
|
||||
\textbf{Paramètre} & \textbf{Domaine} & \textbf{Rôle} & \textbf{Observations} \\
|
||||
\hline
|
||||
$\alpha$ & $\left]0,2\right]$ & Aplatissement & Plus sa valeur est petite, plus la distribution est leptocurtique. $\alpha=2$ correspond à la distribution normale. \\
|
||||
$\beta$ & $\left] -1, 1 \right]$ & Asymétrie & Défini seulement lorsque $\alpha \neq 1$. Lorsque $\alpha=1$ et $\beta=0$, on obtient la distribution de Cauchy. \\
|
||||
$\gamma = s^{\alpha}$ & $\mathbb{R}\setminus\{0 \}$ & Échelle & On doit prendre la racine $\alpha$ pour obtenir un paramètre d'échelle $s$ tel que défini par Pearson. \\
|
||||
$\delta$ & $\mathbb{R}$ & Localisation & \\
|
||||
\hline
|
||||
\end{tabular}
|
||||
\caption{Domaine et rôle des paramètres de la distribution L stable de Mandelbrot}
|
||||
\label{tab:roleparam}
|
||||
\end{table}
|
||||
|
||||
L'approche classique, selon Mandelbrot, pour expliquer les grands
|
||||
changements de prix a été de considérer un mélange de deux
|
||||
distributions normales, dont une pour les fluctuations régulières et
|
||||
une qui a une variance plus importante, pour les discontinuités. Il
|
||||
remarque que pour expliquer adéquatement le comportement des données
|
||||
empiriques, on doit introduire un mélange de plusieurs distributions
|
||||
normales, ce qui rendrait le modèle plus complexe. Par contre, on
|
||||
retrouve une approche intéressante avec le modèle présenté à la
|
||||
section suivante.
|
||||
|
||||
\subsection{Le modèle de Press}
|
||||
\label{sec:press}
|
||||
|
||||
\cite{press1967compound} propose un modèle statistique basé sur un
|
||||
processus de Poisson composé auquel on ajoute un mouvement brownien
|
||||
$W(t)$. C'est donc d'un processus ayant des incréments stationnaires
|
||||
et indépendants. Il présente donc les caractéristiques d'un processus
|
||||
de Lévy. Press utilise aussi la transformation logarithmique
|
||||
\eqref{eq:browniengeom} afin que la variation soit proportionnelle au
|
||||
prix. Il remarque aussi que le modèle logarithmique de Bachelier est
|
||||
inadéquat, car il ne tient pas compte des queues de la distribution
|
||||
empirique des rendements qui sont plus épaisses que celles de la
|
||||
normale. Il ajoute que le modèle proposé par Mandelbrot est
|
||||
discutable, car il ne trouve aucune évidence, à partir des données
|
||||
observées, que la distribution de la population aurait une variance
|
||||
infinie.
|
||||
|
||||
Le processus de Poisson $\left\{N(t)\right\}$ de paramètre $\lambda t$
|
||||
est un processus de comptage qui détermine les occurrences des sauts
|
||||
$Y_k, k = 1, \ldots, N(t)$. Ces sauts surviennent généralement
|
||||
lorsqu'une information importante est rendue publique par rapport à un
|
||||
titre. Ceux-ci sont aussi de distribution normale, mais leur espérance
|
||||
n'est pas nulle et leur variance est différente de celle du processus
|
||||
$W(t)$. Cette composante que l'on ajoute au modèle de Bachelier
|
||||
modifié permet d'expliquer les variations plus importantes et moins
|
||||
fréquentes observées empiriquement.
|
||||
|
||||
Le processus du logarithme du prix $\left\{s(t)\right\} \equiv
|
||||
\left\{\ln{(S(t))}\right\}$ est donc représenté par l'équation
|
||||
suivante:
|
||||
\begin{align}
|
||||
\label{eq:press67}
|
||||
s(t) &= s(0) + \sum_{k=1}^{N(t)} Y_k + W(t).
|
||||
\end{align}
|
||||
|
||||
On définit les différentes variables aléatoires composant le processus
|
||||
comme suit:
|
||||
\begin{align*}
|
||||
Y_k &\sim N(\theta,\sigma_2^2) \\
|
||||
W(t) &\sim N(0,\sigma_1^2 t) \\
|
||||
N(t) &\sim Poisson(\lambda t)
|
||||
\end{align*}
|
||||
|
||||
Comme pour la plupart des processus de Lévy, on ne peut obtenir une
|
||||
forme explicite pour la fonction de densité, car celle-ci se présente
|
||||
sous la forme d'une série infinie. On représente alors ces processus
|
||||
par leur fonction caractéristique, formée par le produit de celles de
|
||||
leurs différentes composantes.
|
||||
|
||||
La distribution du logarithme du prix $s(t)$ est définie par la
|
||||
fonction caractéristique $\phi_{s(t)}(\xi)$, qui est le produit de
|
||||
celle de la constante et celles des processus de Wiener et de Poisson
|
||||
composé:
|
||||
\begin{align}
|
||||
\label{eq:fncaractpress}
|
||||
\phi_{s(t)}\left(\xi\right) &= E\left[e^{i \xi s(t)} \right] \nonumber \\
|
||||
&= exp\left\{ i\xi \cdot s(0) \right\} \times exp \left\{ -\frac{t \sigma_1^2 \xi^2}{2} \right\} \times exp \left\{ \lambda t \left[e^{i \theta \xi-(\sigma_2^2 \xi^2/2)}-1 \right] \right\} \nonumber \\
|
||||
&= exp\left\{ i\xi \cdot s(0)- \frac{t}{2}\sigma_1^2\xi^2 + \lambda
|
||||
t \left[e^{i \theta \xi-(\sigma_2^2 \xi^2/2)}-1 \right] \right\}.
|
||||
\end{align}
|
||||
|
||||
Afin d'estimer le modèle, on s'intéressera plutôt à la distribution
|
||||
d'un incrément $\Delta s(t) = s(t)-s(t-1)$ de ce processus. La
|
||||
fonction caractéristique $\phi_{\Delta s(t)}(\xi)$ de cette variable
|
||||
aléatoire peut être facilement identifiée à partir de celle du
|
||||
processus \eqref{eq:fncaractpress}. Essentiellement, on pose $s(0)=0
|
||||
\mbox{ et } t=1$, pour obtenir:
|
||||
\begin{align}
|
||||
\label{eq:fncaractpress2}
|
||||
\phi_{\Delta s(t)}\left(\xi\right) &= E\left[e^{i\xi\Delta s(t)} \right] \nonumber \\
|
||||
&= exp\left\{-\frac{\sigma_1^2 \xi^2}{2} + \lambda \left[e^{i
|
||||
\xi\theta -(\sigma_2^2 \xi^2/2)}-1 \right] \right\}.
|
||||
\end{align}
|
||||
|
||||
Pour estimer les paramètres du modèle, on privilégie la méthode des
|
||||
cumulants, qui est similaire à la méthode des moments. Considérons les
|
||||
quatre premiers cumulants de la distribution de l'incrément $\Delta
|
||||
s(t)$:
|
||||
\begin{subequations}\label{eq:cumulantspress}
|
||||
\begin{align}
|
||||
K_1 &= \lambda\theta \\
|
||||
K_2 &= \sigma_1^2+\lambda(\theta^2+\sigma_2^2) \\
|
||||
K_3 &= \lambda\theta(\theta^2+3\sigma_2^2) \\
|
||||
K_4 &= \lambda(\theta^4 + 6 \theta^2 \sigma_2^2 + 3 \sigma_2^4).
|
||||
\end{align}
|
||||
\end{subequations}
|
||||
|
||||
En utilisant les quatre premiers cumulants empiriques
|
||||
\eqref{eq:cumulantsempiriques}, on obtient les équations suivantes:
|
||||
\begin{subequations}\label{eq:presscum}
|
||||
\begin{align}
|
||||
0 &= \hat\theta^4 - \frac{\overline{K}_3}{\overline{K}_1} \hat\theta^2 + \frac{3\overline{K}_4}{2\overline{K}_1} \hat\theta - \frac{\overline{K}_3^2}{2\overline{K}_1^2} \label{eq:presscumtheta}\\
|
||||
\hat\lambda &= \frac{\overline{K}_1}{\hat\theta} \label{eq:presscumlambda}\\
|
||||
\hat\sigma_2^2 &= \frac{\overline{K}_3-\hat\theta^2\overline{K}_1}{3\overline{K}_1} \label{eq:presscumsigma2}\\
|
||||
\hat\sigma_1^2 &= \overline{K}_2 -
|
||||
\frac{\overline{K}_1}{\hat\theta}\left(\hat\theta^2 +
|
||||
\frac{\overline{K}_3 - \overline{K}_3 \theta^2}{3\overline{K}_1}
|
||||
\right). \label{eq:presscumsigma1}
|
||||
\end{align}
|
||||
\end{subequations}
|
||||
|
||||
En résolvant numériquement l'équation \eqref{eq:presscumtheta} pour le
|
||||
$\hat\theta$, puis par substitutions successives dans les équations
|
||||
\eqref{eq:presscum}, on obtient des estimateurs convergents pour les
|
||||
quatre paramètres du modèle.
|
||||
|
||||
Un modèle similaire a aussi été présenté par \cite{merton1976option},
|
||||
cependant, il inclut un paramètre de dérive $\alpha$, et considère que
|
||||
les sauts $Y$, qui sont des facteurs multiplicatifs, peuvent suivre une autre distribution que la normale. Il
|
||||
présente le modèle sous la forme d'une équation différentielle
|
||||
stochastique:
|
||||
\begin{align}
|
||||
\label{eq:modelemerton}
|
||||
\frac{dS}{S} = (\alpha - \lambda k)dt + \sigma dW + dq.
|
||||
\end{align}
|
||||
La constante $k$ représente l'espérance de la variation relative si un
|
||||
saut se produit et $q$, le processus de Poisson composé. La solution
|
||||
de cette équation est, selon le lemme d'Itô:
|
||||
\begin{align}
|
||||
S(t) &= \tilde{S}(0) \exp \left\{
|
||||
(\alpha-\frac{1}{2}\sigma^2-\lambda k)t +
|
||||
\sigma W(t) \right\}
|
||||
\end{align}
|
||||
où
|
||||
\begin{align}
|
||||
\tilde{S}(0) &= \begin{cases}
|
||||
S(0) & \text{si } N(t) = 0\\
|
||||
S(0) \sum_{k=1}^{N(t)} Y_k & \text{si } N(t) \geq 1. \nonumber
|
||||
\end{cases}
|
||||
\end{align}
|
||||
|
||||
En spécifiant un paramètre de dérive $\delta =
|
||||
\alpha-\frac{1}{2}\sigma^2-\lambda k$ et en considérant que les
|
||||
sauts $Y$ sont de distribution lognormale, on peut réécrire la
|
||||
fonction caractéristique d'un incrément \eqref{eq:fncaractpress2} du
|
||||
modèle de Press:
|
||||
\begin{align}
|
||||
\label{eq:fncaractmerton}
|
||||
\phi_{\Delta s(t)}\left(\xi\right) &= E\left[e^{i\xi\Delta s(t)} \right] \nonumber \\
|
||||
&= \exp\left\{i\delta \xi -\frac{\sigma^2 \xi^2}{2} + \lambda
|
||||
\left[e^{i \xi\theta -(\sigma^2 \xi^2/2)}-1 \right] \right\}.
|
||||
\end{align}
|
||||
|
||||
L'utilisation de ce modèle présente deux désavantages. L'estimation du
|
||||
modèle est difficile lorsque la moyenne s'approche de 0, car le
|
||||
quotient \eqref{eq:presscumlambda} tend alors vers une
|
||||
indétermination. De plus, contrairement à d'autres modèles, il est
|
||||
difficile d'identifier le rôle des paramètres par rapport à un moment
|
||||
en particulier (classification de Pearson), contrairement à ce qu'on
|
||||
pourra observer avec la distribution de Laplace asymétrique
|
||||
généralisée.
|
||||
|
||||
\subsection{Le modèle de Praetz}
|
||||
|
||||
\cite{praetz1972distribution} propose un modèle inspiré par la
|
||||
physique des particules. Il pose comme hypothèse que deux intervalles
|
||||
qui ne se chevauchent pas forment une marche aléatoire, et que les
|
||||
éléments qui composent la séquence des rendements financiers $\left\{
|
||||
R(t) \right\}$ sont mutuellement indépendants. Il considère qu'un
|
||||
état stable existe où les rendements suivent une loi normale de
|
||||
paramètres $\mu$ et $\sigma^2$.
|
||||
|
||||
Cependant, cet état stable n'est jamais réellement atteint, et la
|
||||
fonction de densité empirique généralement observée suppose une
|
||||
distribution symétrique concave, pointue au centre et ayant des queues
|
||||
épaisses. Il fait une analogie entre la température d'un gaz et le
|
||||
niveau d'activité sur les marchés, où la variance du mouvement
|
||||
brownien est proportionnelle à ces deux quantités. Il propose que le
|
||||
paramètre de variance de la normale $\sigma^2$ suive une distribution
|
||||
$g(\sigma^2)$ ayant un support positif. La distribution conditionnelle
|
||||
est normale lorsque ce paramètre est connu.
|
||||
\begin{align}
|
||||
h_{R(t)}(r) &= \int_0^{\infty} f_{R(t)}(r|\sigma^2) g(\sigma^2) d\sigma^2 \\
|
||||
f_{R(t)}(r|\sigma^2) &= \frac{1}{\sigma\sqrt{2\pi}}exp\left\{-\frac{(r-\mu)^2}{2\sigma^2} \right\} \label{eq:praetz72}
|
||||
\end{align}
|
||||
|
||||
Il propose comme solution acceptable pour la densité $g(\sigma^2)$, la
|
||||
distribution gamma inverse de paramètres $m$ et $s^2$:
|
||||
\begin{align}
|
||||
\label{eq:gpraetz}
|
||||
g(\sigma^2) &=
|
||||
\frac{s^{2m}(m-1)^me^{-(m-1)\frac{s^2}{\sigma^2}}}{\sigma^{2(m-1)}\Gamma(m)}.
|
||||
\end{align}
|
||||
|
||||
Cette distribution a pour moyenne $s^2$ et variance $\frac{s^2}{m-2}$.
|
||||
La distribution non conditionnelle des rendements $h_{R(t)}$ est
|
||||
approximativement une Student avec $2m$ degrés de liberté à un facteur
|
||||
d'échelle de $\left(\frac{m}{m-1}\right)^{1/2}$ près:
|
||||
\begin{align}
|
||||
\label{eq:hpraetz}
|
||||
h_{R(t)}(r) &= \frac{\Gamma(m)\left[\ 2(m-1)\pi
|
||||
\right]^{1/2}s}{\left[1+\frac{(y-\mu)^2}{s^2(2m-2)}
|
||||
\right]^{m+1/2}}.
|
||||
\end{align}
|
||||
|
||||
D'autres distributions pourraient être utilisées au lieu de la gamma
|
||||
inverse. En utilisant la loi gamma, on obtient la distribution de
|
||||
Laplace asymétrique généralisée, qui sera l'objet d'une étude
|
||||
approfondie aux chapitres suivants. Il propose enfin d'utiliser aussi
|
||||
la distribution a priori gamma inverse pour le paramètre $\mu$. Par
|
||||
contre, il remarque qu'il obtient aussi une distribution similaire à
|
||||
celle de Student. Cette généralisation n'est donc pas nécessaire.
|
||||
|
||||
\section{Conditions essentielles de Madan et Seneta}
|
||||
\label{sec:madanseneta90}
|
||||
|
||||
Inspirés par les travaux de Mandelbrot, Press et Praetz,
|
||||
\cite{madan1990variance} présentent un ensemble de conditions
|
||||
considérées essentielles dans l'élaboration d'un modèle de rendements
|
||||
financiers. Ils se baseront sur celles-ci pour proposer le modèle
|
||||
Variance Gamma:
|
||||
|
||||
\begin{enumerate}
|
||||
\item La distribution des rendements $R$ doit avoir une queue
|
||||
épaisse. Ainsi, la probabilité que cette variable aléatoire ait une
|
||||
valeur supérieure à $r+t$ avec un $t$ petit, sachant qu'elle est
|
||||
supérieure à $r$, doit tendre vers 1, ce qui signifie que la
|
||||
fonction de survie converge lorsque cette quantité est grande.
|
||||
\begin{eqnarray}
|
||||
\label{eq:condmadan1}
|
||||
\lim_{r\rightarrow \infty} P\left[R > r+t | R > r \right] &=& 1 \\
|
||||
\bar{F}(r+t) &\sim& \bar{F}(r), \qquad r \rightarrow \infty \nonumber
|
||||
\end{eqnarray}
|
||||
\item La distribution doit posséder des moments finis pour les $n$
|
||||
premières puissances des rendements $R$. Étant donné que l'on
|
||||
cherche à modéliser la queue de la distribution, on fixe $n=4$.
|
||||
\begin{equation}
|
||||
\label{eq:condmadan2}
|
||||
E\left[R^k\right] < \infty, \qquad k \in \lbrace 1,2,3,4 \rbrace
|
||||
\end{equation}
|
||||
\item
|
||||
\begin{enumerate}
|
||||
\item Le modèle doit proposer un processus de temps continu ayant
|
||||
des accroissements stationnaires et indépendants.
|
||||
\item Les distributions des accroissements doivent appartenir à la
|
||||
même famille, quelle que soit leur longueur. Cette condition est
|
||||
essentielle afin de permettre l'échantillonnage et l'analyse des
|
||||
séries chronologiques.
|
||||
\end{enumerate}
|
||||
\item Le modèle doit permettre une extension multivariée avec une
|
||||
distribution elliptique afin de conserver la validité du modèle
|
||||
d'évaluation des actifs financiers.
|
||||
\end{enumerate}
|
||||
|
||||
Chacun des modèles présentés précédemment respecte la majorité ou
|
||||
toutes ces conditions. Les résultats se retrouvent à la table
|
||||
\ref{tab:condmadan}.
|
||||
\begin{table}[!ht]
|
||||
\centering
|
||||
\begin{tabular}{ccccc}
|
||||
& \multicolumn{4}{c}{\textbf{Conditions}} \\
|
||||
\hline
|
||||
\textbf{Modèles} & 1 & 2 & 3 & 4 \\
|
||||
\hline
|
||||
Mouvement brownien de Bachelier & & $\ast$ & $\ast$ & $\ast$ \\
|
||||
Distribution stable symétrique de Mandelbrot & $\ast$ & & & $\ast$ \\
|
||||
Processus de Poisson composé de Press & $\ast$ & $\ast$ & $\ast$ & $\ast$ \\
|
||||
Mélange gaussien/inverse gamma de Praetz & $\ast$ & $\ast$ & & $\ast$ \\
|
||||
Modèle Variance Gamma de Madan et Seneta & $\ast$ & $\ast$ & $\ast$ & $\ast$ \\
|
||||
\hline
|
||||
\end{tabular}
|
||||
\caption{Respect des conditions émises par Madan et Seneta pour les différents modèles présentés}
|
||||
\label{tab:condmadan}
|
||||
\end{table}
|
||||
|
||||
On remarque que le modèle de Press remplit toutes les conditions
|
||||
émises par Madan et Seneta. Cependant, ils remarqueront que ce n'est
|
||||
pas un processus de sauts, car il contient aussi une composante de
|
||||
diffusion (Section \ref{sec:levykhintchine}), ce qui va à l'encontre
|
||||
de l'intuition derrière la continuité de la trajectoire du prix. C'est
|
||||
cette dernière observation qui les incitera à proposer le modèle
|
||||
Variance Gamma, qui est un processus de sauts. Ce modèle, aussi étudié
|
||||
sous le nom de distribution de Laplace asymétrique généralisée par
|
||||
\cite{kotz2001laplace}, a acquis beaucoup de notoriété dans le domaine
|
||||
de la finance mathématique. De plus, avec le développement de
|
||||
l'informatique et des méthodes numériques, on peut maintenant utiliser
|
||||
de manière efficace la fonction caractéristique dans le cadre de la
|
||||
calibration, des tests statistiques et de la tarification
|
||||
d'options. C'est pourquoi un intérêt particulier est apporté à cette
|
||||
distribution dans ce texte.
|
||||
|
||||
% \section{La volatilité}
|
||||
% \label{sec:volatilite}
|
||||
|
||||
% La \textbf{volatilité} est une mesure de l'ampleur des variations du
|
||||
% prix d'un actif. Elle sert à quantifier le risque lié à un
|
||||
% investissement, le plus souvent sur un horizon à court terme. Elle se
|
||||
% calcule le plus souvent à partir des prix des options observés sur les
|
||||
% marchés, on parle alors de volatilité implicite. Comme elle n'est pas
|
||||
% mesurable, cette volatilité est le reflet de l'anticipation des
|
||||
% investisseurs quant aux perspectives du marché.
|
||||
|
||||
% Cependant, on peut toujours mesurer la volatilité historique du prix
|
||||
% d'un titre à travers les rendements passés. La première étude à ce
|
||||
% sujet a été faite par Black et Scholes, les auteurs du célèbre modèle
|
||||
% qui porte désormais leur nom. Ils ont conclu que leur modèle
|
||||
% surestimait le prix des options pour des actifs sous-jacents ayant une
|
||||
% volatilité historique élevée, le contraire se produisait lorsqu'elle
|
||||
% l'était peu. Leur modèle est donc utile à condition que les
|
||||
% investisseurs puissent faire de bonnes prévisions
|
||||
% \citep{musiela2005martingale}.
|
||||
|
||||
% De plus, comme il a été expliqué précédemment, les données historiques
|
||||
% démontrent que la volatilité n'est pas constante avec le temps, mais
|
||||
% plutôt aléatoire. Dans cette perspective, on pourrait identifier la
|
||||
% distribution de la volatilité à travers le temps.
|
||||
% \subsection{Mesure de la volatilité historique}
|
||||
% \label{sec:mesurevolatilite}
|
||||
|
||||
% Afin d'obtenir un ensemble d'observations de la volatilité historique,
|
||||
% on utilise une approche par fenêtre mobile. \cite{randal2004non}
|
||||
% considère un estimateur de variance mobile $\hat\sigma^2(t)$, basé sur
|
||||
% les rendements centrés $R(t) = Y(t)-E\left[Y(t)\right]$ de la forme
|
||||
% \begin{align}
|
||||
% \hat\sigma^2(t) = \frac{1}{2r+1} \sum_{j=-r}^r R(t+j)^2, \qquad
|
||||
% t\in\left[r+1,n-r\right] \label{mobilevariance}
|
||||
% \end{align}
|
||||
|
||||
% Étant donné la taille limitée $n$ de l'échantillon des rendements, on
|
||||
% doit faire un compromis entre la précision des observations de la
|
||||
% volatilité et le nombre $n-2r$ de celles-ci. L'hypothèse de volatilité
|
||||
% stochastique fera pencher en faveur d'une fenêtre étroite, ce qui
|
||||
% procurera un grand nombre d'observations la décrivant à court
|
||||
% terme. On pourra donc ajuster une distribution de probabilités à
|
||||
% celles-ci.
|
||||
|
||||
% \subsection{Biais de la volatilité implicite}
|
||||
% \label{sec:impvolsmile}
|
||||
|
||||
% Le biais de volatilité implicite est un concept qui explique pourquoi
|
||||
% la volatilité des options croît lorsque le prix d'exercice s'éloigne
|
||||
% de la valeur actuelle du titre sous-jacent. Selon
|
||||
% \cite{hull1999options}, ce phénomène a été remarqué sur les marchés
|
||||
% financiers américains à partir du krach boursier du lundi noir
|
||||
% \footnote{19 octobre 1987}, et n'est toujours pas entièrement
|
||||
% expliqué. Généralement, on observe que, pour les options sur indices
|
||||
% boursiers et taux de change, la courbe de volatilité implicite est
|
||||
% plutôt symétrique, alors qu'elle est asymétrique pour celles sur
|
||||
% actions (voir figure \ref{fig:volimplicite} pour un exemple).
|
||||
% \begin{figure}[!ht]
|
||||
% \centering
|
||||
% \includegraphics[]{./bbry-echeance-06-2013-20mai2013.png}
|
||||
% \caption{Courbe de volatilité implicite, titre BBRY, option d'achat
|
||||
% avec échéance 06-2013, observée le 20-05-2013, prix de 15.83,
|
||||
% source: \cite{thevolskew}}
|
||||
% \label{fig:volimplicite}
|
||||
% \end{figure}
|
||||
|
||||
%%% Local Variables:
|
||||
%%% mode: latex
|
||||
%%% TeX-master: "gabarit-maitrise"
|
||||
%%% End:
|
259
memoire/chapitre2.aux
Normal file
259
memoire/chapitre2.aux
Normal file
|
@ -0,0 +1,259 @@
|
|||
\relax
|
||||
\providecommand\hyper@newdestlabel[2]{}
|
||||
\citation{kozubowski1999class}
|
||||
\citation{madan1990variance}
|
||||
\citation{madan1990variance}
|
||||
\citation{kozubowski1999class}
|
||||
\citation{kotz2001laplace}
|
||||
\@writefile{lof}{\addvspace {10pt}}
|
||||
\@writefile{lot}{\addvspace {10pt}}
|
||||
\@writefile{toc}{\contentsline {chapter}{\chapternumberline {2}La distribution de Laplace asym\IeC {\'e}trique g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e}{19}{chapter.2}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {2.1}Le processus de Laplace}{19}{section.2.1}}
|
||||
\newlabel{sec:processusGAL}{{2.1}{19}{Le processus de Laplace}{section.2.1}{}}
|
||||
\newlabel{sec:processusGAL@cref}{{[section][1][2]2.1}{19}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {2.1.1}Le processus gamma}{20}{subsection.2.1.1}}
|
||||
\newlabel{sec:processusgamma}{{2.1.1}{20}{Le processus gamma}{subsection.2.1.1}{}}
|
||||
\newlabel{sec:processusgamma@cref}{{[subsection][1][2,1]2.1.1}{20}}
|
||||
\newlabel{eq:densitegamma}{{2.1.1}{20}{Le processus gamma}{equation.2.1.0.1}{}}
|
||||
\newlabel{eq:densitegamma@cref}{{[equation][1][2,1]2.1.1}{20}}
|
||||
\newlabel{eq:fncaractgamma}{{2.1.2}{20}{Le processus gamma}{equation.2.1.0.2}{}}
|
||||
\newlabel{eq:fncaractgamma@cref}{{[equation][2][2,1]2.1.2}{20}}
|
||||
\newlabel{eq:densitegamma1}{{2.1.3}{20}{Le processus gamma}{equation.2.1.0.3}{}}
|
||||
\newlabel{eq:densitegamma1@cref}{{[equation][3][2,1]2.1.3}{20}}
|
||||
\citation{spiegel1999schaum}
|
||||
\citation{spiegel1999schaum}
|
||||
\newlabel{eq:exposantchargamma}{{2.1.5}{21}{Le processus gamma}{equation.2.1.0.5}{}}
|
||||
\newlabel{eq:exposantchargamma@cref}{{[equation][5][2,1]2.1.5}{21}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {2.1.2}Le processus de Wiener}{21}{subsection.2.1.2}}
|
||||
\newlabel{sec:mouvementbrownien}{{2.1.2}{21}{Le processus de Wiener}{subsection.2.1.2}{}}
|
||||
\newlabel{sec:mouvementbrownien@cref}{{[subsection][2][2,1]2.1.2}{21}}
|
||||
\newlabel{eq:incrwiener}{{2.1.7}{21}{Le processus de Wiener}{equation.2.1.0.7}{}}
|
||||
\newlabel{eq:incrwiener@cref}{{[equation][7][2,1]2.1.7}{21}}
|
||||
\newlabel{eq:fndensitenormale}{{2.1.8}{21}{Le processus de Wiener}{equation.2.1.0.8}{}}
|
||||
\newlabel{eq:fndensitenormale@cref}{{[equation][8][2,1]2.1.8}{21}}
|
||||
\newlabel{eq:fncaractnormale}{{2.1.9}{21}{Le processus de Wiener}{equation.2.1.0.9}{}}
|
||||
\newlabel{eq:fncaractnormale@cref}{{[equation][9][2,1]2.1.9}{21}}
|
||||
\newlabel{eq:exposantcaractnormale}{{2.1.12}{22}{Le processus de Wiener}{equation.2.1.0.12}{}}
|
||||
\newlabel{eq:exposantcaractnormale@cref}{{[equation][12][2,1]2.1.12}{22}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {2.1.3}Le processus de Laplace est un processus subordonn\IeC {\'e}}{22}{subsection.2.1.3}}
|
||||
\newlabel{sec:browniensub}{{2.1.3}{22}{Le processus de Laplace est un processus subordonné}{subsection.2.1.3}{}}
|
||||
\newlabel{sec:browniensub@cref}{{[subsection][3][2,1]2.1.3}{22}}
|
||||
\newlabel{eq:VGsubordinne}{{2.1.13}{22}{Le processus de Laplace est un processus subordonné}{equation.2.1.0.13}{}}
|
||||
\newlabel{eq:VGsubordinne@cref}{{[equation][13][2,1]2.1.13}{22}}
|
||||
\newlabel{eq:exposantcaractLaplace}{{2.1.14}{22}{Le processus de Laplace est un processus subordonné}{equation.2.1.0.14}{}}
|
||||
\newlabel{eq:exposantcaractLaplace@cref}{{[equation][14][2,1]2.1.14}{22}}
|
||||
\newlabel{eq:fonctioncaractlaplacesansdrift}{{2.1.15}{23}{Le processus de Laplace est un processus subordonné}{equation.2.1.0.15}{}}
|
||||
\newlabel{eq:fonctioncaractlaplacesansdrift@cref}{{[equation][15][2,1]2.1.15}{23}}
|
||||
\@writefile{lof}{\contentsline {figure}{\numberline {2.1}{\ignorespaces Premier incr\IeC {\'e}ment d'un processus subordonn\IeC {\'e}\relax }}{23}{figure.caption.16}}
|
||||
\newlabel{fig:increment1}{{2.1}{23}{Premier incrément d'un processus subordonné\relax }{figure.caption.16}{}}
|
||||
\newlabel{fig:increment1@cref}{{[figure][1][2]2.1}{23}}
|
||||
\@writefile{lof}{\contentsline {figure}{\numberline {2.2}{\ignorespaces Simulation d'un processus de Wiener subordonn\IeC {\'e} par un processus gamma\relax }}{24}{figure.caption.17}}
|
||||
\newlabel{fig:simgammagauss}{{2.2}{24}{Simulation d'un processus de Wiener subordonné par un processus gamma\relax }{figure.caption.17}{}}
|
||||
\newlabel{fig:simgammagauss@cref}{{[figure][2][2]2.2}{24}}
|
||||
\citation{kotz2001laplace}
|
||||
\citation{madan1990variance}
|
||||
\newlabel{eq:fncaractprocessuslaplace}{{2.1.16}{25}{Le processus de Laplace est un processus subordonné}{equation.2.1.0.16}{}}
|
||||
\newlabel{eq:fncaractprocessuslaplace@cref}{{[equation][16][2,1]2.1.16}{25}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {2.2}Distribution de Laplace asym\IeC {\'e}trique g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e}{25}{section.2.2}}
|
||||
\newlabel{sec:distributionGAL}{{2.2}{25}{Distribution de Laplace asymétrique généralisée}{section.2.2}{}}
|
||||
\newlabel{sec:distributionGAL@cref}{{[section][2][2]2.2}{25}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {2.2.1}Fonction caract\IeC {\'e}ristique}{25}{subsection.2.2.1}}
|
||||
\newlabel{sec:fncaractGAL}{{2.2.1}{25}{Fonction caractéristique}{subsection.2.2.1}{}}
|
||||
\newlabel{sec:fncaractGAL@cref}{{[subsection][1][2,2]2.2.1}{25}}
|
||||
\newlabel{eq:defvarY-GAL}{{2.2.1}{26}{Fonction caractéristique}{equation.2.2.0.1}{}}
|
||||
\newlabel{eq:defvarY-GAL@cref}{{[equation][1][2,2]2.2.1}{26}}
|
||||
\newlabel{eq:Ynormalconditionnel}{{2.2.2}{26}{Fonction caractéristique}{equation.2.2.0.2}{}}
|
||||
\newlabel{eq:Ynormalconditionnel@cref}{{[equation][2][2,2]2.2.2}{26}}
|
||||
\newlabel{eq:fncaractGALmu}{{2.2.3}{26}{Fonction caractéristique}{equation.2.2.0.3}{}}
|
||||
\newlabel{eq:fncaractGALmu@cref}{{[equation][3][2,2]2.2.3}{26}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {2.2.2}Invariance d'\IeC {\'e}chelle}{26}{subsection.2.2.2}}
|
||||
\newlabel{sec:invariance-dechelle}{{2.2.2}{26}{Invariance d'échelle}{subsection.2.2.2}{}}
|
||||
\newlabel{sec:invariance-dechelle@cref}{{[subsection][2][2,2]2.2.2}{26}}
|
||||
\newlabel{eq:mukappa}{{2.2.4}{27}{Invariance d'échelle}{equation.2.2.0.4}{}}
|
||||
\newlabel{eq:mukappa@cref}{{[equation][4][2,2]2.2.4}{27}}
|
||||
\newlabel{eq:kappamu}{{2.2.5}{27}{Invariance d'échelle}{equation.2.2.0.5}{}}
|
||||
\newlabel{eq:kappamu@cref}{{[equation][5][2,2]2.2.5}{27}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {2.2.3}Fonctions g\IeC {\'e}n\IeC {\'e}ratrices}{28}{subsection.2.2.3}}
|
||||
\newlabel{eq:fgmGAL}{{2.2.10}{28}{Fonctions génératrices}{equation.2.2.0.10}{}}
|
||||
\newlabel{eq:fgmGAL@cref}{{[equation][10][2,2]2.2.10}{28}}
|
||||
\newlabel{eq:fgmGALcond}{{2.2.11}{28}{Fonctions génératrices}{equation.2.2.0.11}{}}
|
||||
\newlabel{eq:fgmGALcond@cref}{{[equation][11][2,2]2.2.11}{28}}
|
||||
\newlabel{eq:fgmmomentsGAL}{{2.2.12}{28}{Fonctions génératrices}{equation.2.2.0.12}{}}
|
||||
\newlabel{eq:fgmmomentsGAL@cref}{{[equation][12][2,2]2.2.12}{28}}
|
||||
\newlabel{eq:fgcGAL}{{2.2.13}{28}{Fonctions génératrices}{equation.2.2.0.13}{}}
|
||||
\newlabel{eq:fgcGAL@cref}{{[equation][13][2,2]2.2.13}{28}}
|
||||
\newlabel{eq:fgccumGAL}{{2.2.14}{28}{Fonctions génératrices}{equation.2.2.0.14}{}}
|
||||
\newlabel{eq:fgccumGAL@cref}{{[equation][14][2,2]2.2.14}{28}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {2.2.4}Moments et r\IeC {\^o}le des param\IeC {\`e}tres}{28}{subsection.2.2.4}}
|
||||
\newlabel{sec:momentsGAL}{{2.2.4}{28}{Moments et rôle des paramètres}{subsection.2.2.4}{}}
|
||||
\newlabel{sec:momentsGAL@cref}{{[subsection][4][2,2]2.2.4}{28}}
|
||||
\newlabel{eq:momentsGAL}{{2.2.15}{29}{Moments et rôle des paramètres}{equation.2.2.0.15.15}{}}
|
||||
\newlabel{eq:momentsGAL@cref}{{[equation][15][2,2]2.2.15}{29}}
|
||||
\newlabel{eq:moments1GAL}{{2.2.15a}{29}{Moments et rôle des paramètres}{equation.2.2.0.15a}{}}
|
||||
\newlabel{eq:moments1GAL@cref}{{[equation][1][2,2,15]2.2.15a}{29}}
|
||||
\newlabel{eq:moments2GAL}{{2.2.15b}{29}{Moments et rôle des paramètres}{equation.2.2.0.15b}{}}
|
||||
\newlabel{eq:moments2GAL@cref}{{[equation][2][2,2,15]2.2.15b}{29}}
|
||||
\newlabel{eq:moments3GAL}{{2.2.15c}{29}{Moments et rôle des paramètres}{equation.2.2.0.15c}{}}
|
||||
\newlabel{eq:moments3GAL@cref}{{[equation][3][2,2,15]2.2.15c}{29}}
|
||||
\newlabel{eq:moments4GAL}{{2.2.15d}{29}{Moments et rôle des paramètres}{equation.2.2.0.15d}{}}
|
||||
\newlabel{eq:moments4GAL@cref}{{[equation][4][2,2,15]2.2.15d}{29}}
|
||||
\newlabel{eq:moments56GAL}{{2.2.16}{29}{Moments et rôle des paramètres}{equation.2.2.0.16.16}{}}
|
||||
\newlabel{eq:moments56GAL@cref}{{[equation][16][2,2]2.2.16}{29}}
|
||||
\newlabel{eq:moments5GAL}{{2.2.16a}{29}{Moments et rôle des paramètres}{equation.2.2.0.16a}{}}
|
||||
\newlabel{eq:moments5GAL@cref}{{[equation][1][2,2,16]2.2.16a}{29}}
|
||||
\newlabel{eq:moments6GAL}{{2.2.16b}{29}{Moments et rôle des paramètres}{equation.2.2.0.16b}{}}
|
||||
\newlabel{eq:moments6GAL@cref}{{[equation][2][2,2,16]2.2.16b}{29}}
|
||||
\citation{madan1990variance}
|
||||
\@writefile{lot}{\contentsline {table}{\numberline {2.1}{\ignorespaces Domaine et r\IeC {\^o}le des param\IeC {\`e}tres de la distribution de Laplace asym\IeC {\'e}trique g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e\relax }}{30}{table.caption.18}}
|
||||
\newlabel{tab:roleparamGAL}{{2.1}{30}{Domaine et rôle des paramètres de la distribution de Laplace asymétrique généralisée\relax }{table.caption.18}{}}
|
||||
\newlabel{tab:roleparamGAL@cref}{{[table][1][2]2.1}{30}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {2.2.5}Changement d'\IeC {\'e}chelle et de localisation}{30}{subsection.2.2.5}}
|
||||
\newlabel{sec:transGAL}{{2.2.5}{30}{Changement d'échelle et de localisation}{subsection.2.2.5}{}}
|
||||
\newlabel{sec:transGAL@cref}{{[subsection][5][2,2]2.2.5}{30}}
|
||||
\citation{kotz2001laplace}
|
||||
\@writefile{lof}{\contentsline {figure}{\numberline {2.3}{\ignorespaces Fonction de densit\IeC {\'e} de la distribution Laplace asym\IeC {\'e}trique g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e avec diff\IeC {\'e}rents param\IeC {\`e}tres: $GAL(y;\theta ,\sigma ,\kappa ,\tau )$\relax }}{31}{figure.caption.19}}
|
||||
\newlabel{fig:densiteGAL}{{2.3}{31}{Fonction de densité de la distribution Laplace asymétrique généralisée avec différents paramètres: $GAL(y;\theta ,\sigma ,\kappa ,\tau )$\relax }{figure.caption.19}{}}
|
||||
\newlabel{fig:densiteGAL@cref}{{[figure][3][2]2.3}{31}}
|
||||
\newlabel{eq:GALscaletrans}{{2.2.17}{32}{Changement d'échelle et de localisation}{equation.2.2.0.17}{}}
|
||||
\newlabel{eq:GALscaletrans@cref}{{[equation][17][2,2]2.2.17}{32}}
|
||||
\newlabel{eq:transparamGALNS}{{2.2.18}{32}{Changement d'échelle et de localisation}{equation.2.2.0.18}{}}
|
||||
\newlabel{eq:transparamGALNS@cref}{{[equation][18][2,2]2.2.18}{32}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {2.2.6}Repr\IeC {\'e}sentation alternative et simulation}{32}{subsection.2.2.6}}
|
||||
\newlabel{sec:simulationGAL}{{2.2.6}{32}{Représentation alternative et simulation}{subsection.2.2.6}{}}
|
||||
\newlabel{sec:simulationGAL@cref}{{[subsection][6][2,2]2.2.6}{32}}
|
||||
\newlabel{eq:distributiongammaformealt}{{2.2.19}{32}{Représentation alternative et simulation}{equation.2.2.0.19}{}}
|
||||
\newlabel{eq:distributiongammaformealt@cref}{{[equation][19][2,2]2.2.19}{32}}
|
||||
\newlabel{eq:processuslaplace2gamma}{{2.2.20}{32}{Représentation alternative et simulation}{equation.2.2.0.20}{}}
|
||||
\newlabel{eq:processuslaplace2gamma@cref}{{[equation][20][2,2]2.2.20}{32}}
|
||||
\newlabel{eq:differencegamma}{{2.2.21}{32}{Représentation alternative et simulation}{equation.2.2.0.21}{}}
|
||||
\newlabel{eq:differencegamma@cref}{{[equation][21][2,2]2.2.21}{32}}
|
||||
\newlabel{eq:differencegamma2}{{2.2.22}{32}{Représentation alternative et simulation}{equation.2.2.0.22}{}}
|
||||
\newlabel{eq:differencegamma2@cref}{{[equation][22][2,2]2.2.22}{32}}
|
||||
\citation{abramowitz1965handbook}
|
||||
\citation{kozubowski1999class}
|
||||
\citation{kotz2001laplace}
|
||||
\newlabel{eq:equivalence2gammaFC}{{2.2.23}{33}{Représentation alternative et simulation}{equation.2.2.0.23}{}}
|
||||
\newlabel{eq:equivalence2gammaFC@cref}{{[equation][23][2,2]2.2.23}{33}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {2.2.7}Fonction de Bessel et densit\IeC {\'e}}{33}{subsection.2.2.7}}
|
||||
\newlabel{sec:besseldensiteGAL}{{2.2.7}{33}{Fonction de Bessel et densité}{subsection.2.2.7}{}}
|
||||
\newlabel{sec:besseldensiteGAL@cref}{{[subsection][7][2,2]2.2.7}{33}}
|
||||
\newlabel{eq:BesselK}{{2.2.24}{33}{Fonction de Bessel et densité}{equation.2.2.0.24}{}}
|
||||
\newlabel{eq:BesselK@cref}{{[equation][24][2,2]2.2.24}{33}}
|
||||
\newlabel{eq:densitekotz}{{2.2.25}{33}{Fonction de Bessel et densité}{equation.2.2.0.25}{}}
|
||||
\newlabel{eq:densitekotz@cref}{{[equation][25][2,2]2.2.25}{33}}
|
||||
\citation{RpackageVarianceGamma}
|
||||
\@writefile{lof}{\contentsline {figure}{\numberline {2.4}{\ignorespaces Histogramme et estimateur de densit\IeC {\'e} par noyau de 2500 r\IeC {\'e}alisations de la variable al\IeC {\'e}atoire $Y\sim GAL(\theta =0,\sigma =1,\kappa =2,\tau =1)$\relax }}{34}{figure.caption.20}}
|
||||
\newlabel{fig:simulGAL}{{2.4}{34}{Histogramme et estimateur de densité par noyau de 2500 réalisations de la variable aléatoire $Y\sim GAL(\theta =0,\sigma =1,\kappa =2,\tau =1)$\relax }{figure.caption.20}{}}
|
||||
\newlabel{fig:simulGAL@cref}{{[figure][4][2]2.4}{34}}
|
||||
\newlabel{eq:densitekotz2001}{{2.2.26}{34}{Fonction de Bessel et densité}{equation.2.2.0.26}{}}
|
||||
\newlabel{eq:densitekotz2001@cref}{{[equation][26][2,2]2.2.26}{34}}
|
||||
\citation{hinkley1977estimation}
|
||||
\citation{kozubowski1999class}
|
||||
\citation{kozubowski2001asymmetric}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {2.3}Cas particuliers}{35}{section.2.3}}
|
||||
\newlabel{sec:cas-particuliers}{{2.3}{35}{Cas particuliers}{section.2.3}{}}
|
||||
\newlabel{sec:cas-particuliers@cref}{{[section][3][2]2.3}{35}}
|
||||
\@writefile{lot}{\contentsline {table}{\numberline {2.2}{\ignorespaces Cas sp\IeC {\'e}ciaux de la distribution de Laplace asym\IeC {\'e}trique g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e\relax }}{35}{table.caption.21}}
|
||||
\newlabel{tab:casspeciauxGAL}{{2.2}{35}{Cas spéciaux de la distribution de Laplace asymétrique généralisée\relax }{table.caption.21}{}}
|
||||
\newlabel{tab:casspeciauxGAL@cref}{{[table][2][2]2.2}{35}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {2.3.1}Distribution de Laplace asym\IeC {\'e}trique}{35}{subsection.2.3.1}}
|
||||
\newlabel{sec:distributionAL}{{2.3.1}{35}{Distribution de Laplace asymétrique}{subsection.2.3.1}{}}
|
||||
\newlabel{sec:distributionAL@cref}{{[subsection][1][2,3]2.3.1}{35}}
|
||||
\newlabel{eq:densiteAL}{{2.3.1}{36}{Distribution de Laplace asymétrique}{equation.2.3.0.1}{}}
|
||||
\newlabel{eq:densiteAL@cref}{{[equation][1][2,3]2.3.1}{36}}
|
||||
\newlabel{eq:caractALkappa}{{2.3.2}{36}{Distribution de Laplace asymétrique}{equation.2.3.0.2}{}}
|
||||
\newlabel{eq:caractALkappa@cref}{{[equation][2][2,3]2.3.2}{36}}
|
||||
\newlabel{eq:caractALmu}{{2.3.3}{36}{Distribution de Laplace asymétrique}{equation.2.3.0.3}{}}
|
||||
\newlabel{eq:caractALmu@cref}{{[equation][3][2,3]2.3.3}{36}}
|
||||
\newlabel{eq:ALrepsimul}{{2.3.4}{36}{Distribution de Laplace asymétrique}{equation.2.3.0.4}{}}
|
||||
\newlabel{eq:ALrepsimul@cref}{{[equation][4][2,3]2.3.4}{36}}
|
||||
\newlabel{eq:simulALunif}{{2.3.5}{36}{Distribution de Laplace asymétrique}{equation.2.3.0.5}{}}
|
||||
\newlabel{eq:simulALunif@cref}{{[equation][5][2,3]2.3.5}{36}}
|
||||
\citation{madan1990variance}
|
||||
\citation{madan1990variance}
|
||||
\citation{kotz2001laplace}
|
||||
\citation{madan1990variance}
|
||||
\citation{kotz2001laplace}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {2.4}Relation avec le mod\IeC {\`e}le de \cite {madan1990variance}}{37}{section.2.4}}
|
||||
\newlabel{sec:relation-avec-le}{{2.4}{37}{Relation avec le modèle de \cite {madan1990variance}}{section.2.4}{}}
|
||||
\newlabel{sec:relation-avec-le@cref}{{[section][4][2]2.4}{37}}
|
||||
\@writefile{lot}{\contentsline {table}{\numberline {2.3}{\ignorespaces Changements de param\IeC {\'e}trisation\relax }}{37}{table.caption.22}}
|
||||
\newlabel{tab:chparam}{{2.3}{37}{Changements de paramétrisation\relax }{table.caption.22}{}}
|
||||
\newlabel{tab:chparam@cref}{{[table][3][2]2.3}{37}}
|
||||
\@setckpt{chapitre2}{
|
||||
\setcounter{page}{38}
|
||||
\setcounter{equation}{0}
|
||||
\setcounter{enumi}{3}
|
||||
\setcounter{enumii}{2}
|
||||
\setcounter{enumiii}{0}
|
||||
\setcounter{enumiv}{0}
|
||||
\setcounter{footnote}{0}
|
||||
\setcounter{mpfootnote}{0}
|
||||
\setcounter{@memmarkcntra}{0}
|
||||
\setcounter{storedpagenumber}{1}
|
||||
\setcounter{book}{0}
|
||||
\setcounter{part}{0}
|
||||
\setcounter{chapter}{2}
|
||||
\setcounter{section}{4}
|
||||
\setcounter{subsection}{0}
|
||||
\setcounter{subsubsection}{0}
|
||||
\setcounter{paragraph}{0}
|
||||
\setcounter{subparagraph}{0}
|
||||
\setcounter{@ppsavesec}{0}
|
||||
\setcounter{@ppsaveapp}{0}
|
||||
\setcounter{vslineno}{0}
|
||||
\setcounter{poemline}{0}
|
||||
\setcounter{modulo@vs}{0}
|
||||
\setcounter{memfvsline}{0}
|
||||
\setcounter{verse}{0}
|
||||
\setcounter{chrsinstr}{0}
|
||||
\setcounter{poem}{0}
|
||||
\setcounter{newflo@tctr}{4}
|
||||
\setcounter{@contsubnum}{0}
|
||||
\setcounter{maxsecnumdepth}{2}
|
||||
\setcounter{sidefootnote}{0}
|
||||
\setcounter{pagenote}{0}
|
||||
\setcounter{pagenoteshadow}{0}
|
||||
\setcounter{memfbvline}{0}
|
||||
\setcounter{bvlinectr}{0}
|
||||
\setcounter{cp@cntr}{0}
|
||||
\setcounter{ism@mctr}{0}
|
||||
\setcounter{xsm@mctr}{0}
|
||||
\setcounter{csm@mctr}{0}
|
||||
\setcounter{ksm@mctr}{0}
|
||||
\setcounter{xksm@mctr}{0}
|
||||
\setcounter{cksm@mctr}{0}
|
||||
\setcounter{msm@mctr}{0}
|
||||
\setcounter{xmsm@mctr}{0}
|
||||
\setcounter{cmsm@mctr}{0}
|
||||
\setcounter{bsm@mctr}{0}
|
||||
\setcounter{workm@mctr}{0}
|
||||
\setcounter{sheetsequence}{56}
|
||||
\setcounter{lastsheet}{155}
|
||||
\setcounter{lastpage}{137}
|
||||
\setcounter{figure}{4}
|
||||
\setcounter{lofdepth}{1}
|
||||
\setcounter{table}{3}
|
||||
\setcounter{lotdepth}{1}
|
||||
\setcounter{NAT@ctr}{0}
|
||||
\setcounter{nprt@mantissa@digitsbefore}{0}
|
||||
\setcounter{nprt@mantissa@digitsafter}{0}
|
||||
\setcounter{nprt@exponent@digitsbefore}{0}
|
||||
\setcounter{nprt@exponent@digitsafter}{0}
|
||||
\setcounter{nprt@digitsfirstblock}{0}
|
||||
\setcounter{nprt@blockcnt}{0}
|
||||
\setcounter{nprt@cntprint}{0}
|
||||
\setcounter{parentequation}{0}
|
||||
\setcounter{thmt@dummyctr}{3}
|
||||
\setcounter{Item}{16}
|
||||
\setcounter{Hfootnote}{1}
|
||||
\setcounter{memhycontfloat}{0}
|
||||
\setcounter{Hpagenote}{0}
|
||||
\setcounter{bookmark@seq@number}{37}
|
||||
\setcounter{ContinuedFloat}{0}
|
||||
\setcounter{app@runs}{1}
|
||||
\setcounter{pspicture}{0}
|
||||
\setcounter{section@level}{0}
|
||||
\setcounter{theo}{0}
|
||||
\setcounter{hypothese}{0}
|
||||
}
|
979
memoire/chapitre2.tex
Normal file
979
memoire/chapitre2.tex
Normal file
|
@ -0,0 +1,979 @@
|
|||
\chapter{La distribution de Laplace asymétrique
|
||||
généralisée} % numéroté
|
||||
|
||||
Dans ce chapitre, on présente, en premier lieu, le processus de
|
||||
Laplace ainsi que les deux processus sous-jacents à sa construction,
|
||||
le processus gamma et le processus de Wiener. Ensuite, on présente la
|
||||
distribution de Laplace asymétrique généralisée et ses principales
|
||||
propriétés qui seront utilisées pour modéliser les rendements de
|
||||
titres financiers. Puis, on présente quelques cas particuliers. Dans
|
||||
le chapitre suivant, on présentera différentes méthodes pour obtenir
|
||||
une approximation de la fonction de densité et la fonction de
|
||||
répartition.
|
||||
|
||||
La distribution de Laplace asymétrique généralisée a été
|
||||
principalement étudiée par \cite{kozubowski1999class}. Cependant, elle
|
||||
a été introduite près d'une décennie auparavant par
|
||||
\cite{madan1990variance}, sous le nom de distribution Variance
|
||||
Gamma. La différence entre les approches des deux auteurs est
|
||||
majeure. \cite{madan1990variance} développent un modèle financier à
|
||||
partir du mouvement brownien géométrique, qu'ils généralisent en
|
||||
proposant que la variance suive une distribution
|
||||
gamma. \cite{kozubowski1999class} généralisent la distribution de
|
||||
Laplace asymétrique. Leur approche est plus générale, car ils ne
|
||||
cherchent pas à développer un modèle financier, mais une nouvelle
|
||||
classe de distributions utilisable dans divers domaines
|
||||
scientifiques. Étant donné leur approche plus détaillée et plus
|
||||
intuitive, c'est leur formulation du modèle qui sera développée. On
|
||||
rappellera enfin que les deux modèles sont équivalents même si leurs
|
||||
paramétrisations sont différentes.
|
||||
|
||||
\section{Le processus de Laplace}
|
||||
\label{sec:processusGAL}
|
||||
|
||||
Le processus de Laplace est défini comme étant un processus de Wiener
|
||||
subordonné par un processus gamma. En d'autres termes, c'est un
|
||||
processus de Wiener évalué à des temps aléatoires déterminés par un
|
||||
processus gamma. Selon \cite{kotz2001laplace}, ce dernier est à la
|
||||
distribution de Laplace ce que le mouvement brownien est à la loi
|
||||
normale. Il est aussi un cas particulier des processus de Lévy, et en
|
||||
conserve donc la principale propriété, celle d'être infiniment
|
||||
divisible.
|
||||
|
||||
Il a certains points en commun avec le mouvement brownien dont des
|
||||
moments finis pour tout ordre et des incréments indépendants et
|
||||
stationnaires. Cependant, la plupart des caractéristiques diffèrent:
|
||||
\begin{itemize}
|
||||
\item Discontinuité des trajectoires (processus de sauts);
|
||||
\item Distribution asymétrique des accroissements;
|
||||
\item Paramètre d'échelle et de temps entièrement dissociés.
|
||||
\end{itemize}
|
||||
|
||||
Enfin, il possède une représentation alternative qui n'implique aucun
|
||||
processus de Wiener. Il peut en fait être représenté comme la
|
||||
différence de deux processus gamma indépendants. On peut le
|
||||
représenter en utilisant la forme générale des processus de Lévy.
|
||||
|
||||
\subsection{Le processus gamma}
|
||||
\label{sec:processusgamma}
|
||||
|
||||
Le processus gamma, noté $\left\{G(t;\tau,\beta)\right\}$, est un
|
||||
processus de sauts purs (donc aucune composante de dérive ni de
|
||||
diffusion) dont les incréments $G(t+1;\tau,\beta) - G(t;\tau,\beta)$
|
||||
suivent une distribution gamma de paramètres de forme $\tau$ et
|
||||
d'échelle $\beta$, définie par les fonctions de densité
|
||||
$f_{\tau,\beta}(x)$ et caractéristique $\phi_{\tau,\beta}(\xi)$:
|
||||
\begin{align}
|
||||
f_{\tau,\beta}(x) &= \frac{\beta^\tau}{\Gamma(\tau)} x^{\tau \,-\, 1} e^{- \beta x } 1_{\lbrace x\geq\,0 \rbrace} \label{eq:densitegamma} \\
|
||||
\phi_{\tau,\beta}(\xi) &= E\left[e^{i\xi\,X} \right] \nonumber\\
|
||||
&= \int_{0}^{\infty} e^{i\xi\,x} f_{\tau,\beta}(x) dx \nonumber\\
|
||||
&=
|
||||
\frac{1}{\left(1-\frac{i\xi}{\beta}\right)^{\tau}} \label{eq:fncaractgamma}.
|
||||
\end{align}
|
||||
|
||||
On s'intéresse à la situation où le paramètre d'échelle est de valeur
|
||||
unitaire ($\beta=1$). Le processus gamma agit alors à titre de
|
||||
compteur et sa valeur $G(t;\tau,\beta=1)$ au temps $t$ correspondra au
|
||||
nombre de sauts depuis $t=0$. La fonction de densité
|
||||
$G(t+1;\tau,\beta=1) - G(t;\tau,\beta=1)$ sera alors:
|
||||
\begin{align}
|
||||
f_{\tau,\beta=1}(x) &= \frac{1}{\Gamma(\tau)} x^{\tau \,-\, 1} e^{- x} 1_{\lbrace x\geq\,0 \rbrace}. \label{eq:densitegamma1}
|
||||
\end{align}
|
||||
|
||||
Le paramètre $\tau$, qui définit la forme de la distribution,
|
||||
déterminera la fréquence moyenne des sauts du processus gamma
|
||||
$\Gamma(t;\tau,\beta=1)$, étant donné l'espérance $E[G(t)] = \tau\cdot
|
||||
t$. La fonction caractéristique de ce processus sera donc
|
||||
$\phi(\xi,t;\tau,\beta=1)$, en utilisant la propriété de convolution
|
||||
\eqref{eq:convocaractIID} (même si le temps $t$ n'est pas entier, car
|
||||
la distribution est infiniment divisible):
|
||||
\begin{align}
|
||||
\phi(\xi,t;\tau,\beta=1) &= \left[\frac{1}{\left(1-\frac{i\xi}{1}\right)^{\tau}}\right]^t \nonumber\\
|
||||
&= \frac{1}{\left(1-i\xi\right)^{\tau\cdot t}}.
|
||||
\end{align}
|
||||
|
||||
On peut réécrire la fonction caractéristique d'un incrément de ce
|
||||
processus $\phi(\xi;t=1;\tau,\beta=1)$ sous la représentation de
|
||||
Lévy-Khintchine \eqref{eq:levykhintchine}, avec l'exposant
|
||||
caractéristique $\Xi(\zeta)$:
|
||||
\begin{align}
|
||||
\label{eq:exposantchargamma}
|
||||
\Xi(\zeta;t=1;\tau,\beta=1) &= \tau\ln{\left(1-i\zeta\right)} \\
|
||||
&= \tau \left(e^{0} - e^{-\infty}\right) \ln{\left(1-i\zeta \right)} \nonumber\\
|
||||
&= \tau \int_{0}^{\infty} \frac{e^{-x} - e^{-(1-i\zeta)x}}{x} dx \nonumber\\
|
||||
&\qquad\mbox{(intégrale de Frullani \citep{spiegel1999schaum}, p.115)} \nonumber\\
|
||||
&= \tau \int_{0}^{\infty}
|
||||
\left(1-e^{i\zeta\,x}\right)\frac{1}{x}e^{-x}dx.
|
||||
\end{align}
|
||||
|
||||
On a donc, par cette représentation, la démonstration que le processus
|
||||
gamma est un processus de sauts purs. Il pourra donc être utilisé
|
||||
comme subordonnant dans la construction d'un processus subordonné
|
||||
\eqref{eq:processussubordonne}.
|
||||
|
||||
\subsection{Le processus de Wiener}
|
||||
\label{sec:mouvementbrownien}
|
||||
|
||||
Le processus de Wiener $\left\{W(t;\mu,\sigma^2)\right\}$ est un
|
||||
processus de diffusion avec dérive. Il n'a donc pas de composante de
|
||||
saut. Ses incréments suivent une distribution normale:
|
||||
\begin{align}
|
||||
\label{eq:incrwiener}
|
||||
W(t+1;\mu,\sigma^2) - W(t;\mu,\sigma^2) \sim N(\mu,\sigma^2).
|
||||
\end{align}
|
||||
Cette distribution est définie par la fonction de densité
|
||||
$f_{\mu,\sigma}(x)$ et la fonction caractéristique
|
||||
$\phi_{\mu,\sigma}(\xi)$:
|
||||
\begin{align}
|
||||
f_{\mu,\sigma}(x) &= \frac{1}{\sqrt{2\pi\sigma^2}}\exp{\left\{\frac{1}{2} \left(\frac{x-\mu}{\sigma} \right)^2\right\}} \label{eq:fndensitenormale} \\
|
||||
\phi_{\mu,\sigma}(\xi) &= \exp\left\{
|
||||
i\mu\xi-\frac{\sigma^2\xi^2}{2}
|
||||
\right\} \label{eq:fncaractnormale}.
|
||||
\end{align}
|
||||
|
||||
Notons que la variance d'un incrément est proportionnelle à la
|
||||
longueur de celui-ci. Soit deux incréments indépendants d'un même
|
||||
processus: $I_1 = W(t+q;\mu,\sigma^2) - W(t;\mu,\sigma^2) \sim
|
||||
N(q\mu,q\sigma^2) \mbox{ et } I_2 = W(t+q+s;\mu,\sigma^2) -
|
||||
W(t+q;\mu,\sigma^2) \sim N(s\mu,s\sigma^2)$. La somme de ces
|
||||
incréments suit une distribution normale dont la moyenne et la
|
||||
variance sont respectivement la somme de celles des deux incréments:
|
||||
\begin{align}
|
||||
I_1+I_2 \sim N((q+s)\mu, (q+s)\sigma^2).
|
||||
\end{align}
|
||||
|
||||
Comme la distribution normale est aussi infiniment divisible, on peut
|
||||
obtenir la fonction caractéristique du processus
|
||||
$\phi(\xi;t;\mu,\sigma^2)$ en utilisant la propriété de convolution
|
||||
\eqref{eq:convocaractIID}:
|
||||
\begin{align}
|
||||
\phi(\xi;t;\mu,\sigma^2) = \exp\left\{ i\mu t
|
||||
\xi-\frac{\sigma^2t\xi^2}{2} \right\}.
|
||||
\end{align}
|
||||
|
||||
On déduit donc facilement l'exposant caractéristique
|
||||
$\Lambda(\xi;t=1;\mu,\sigma^2)$ d'un incrément de ce processus, sous
|
||||
la représentation de Lévy-Khintchine:
|
||||
\begin{align}
|
||||
\label{eq:exposantcaractnormale}
|
||||
\Lambda(\xi;t=1;\mu,\sigma^2) = -(i\mu \xi-\frac{\sigma^2\xi^2}{2}).
|
||||
\end{align}
|
||||
|
||||
Ceci démontre que le processus de Wiener est un processus avec dérive
|
||||
et diffusion, mais sans composante de saut. Il pourra donc être
|
||||
utilisé pour construire un processus subordonné
|
||||
\eqref{eq:processussubordonne}.
|
||||
|
||||
\subsection{Le processus de Laplace est un processus subordonné}
|
||||
\label{sec:browniensub}
|
||||
|
||||
On considère un processus gamma $G(t;\tau,\beta=1)$ et un processus de
|
||||
Wiener $W(t;\mu,\sigma^2)$. On se rappelle que la variance d'un
|
||||
incrément \eqref{eq:incrwiener} de ce dernier est proportionnelle à la
|
||||
longueur de l'intervalle de temps. En utilisant une propriété appelée
|
||||
la subordination, on peut modifier l'échelle de temps du processus de
|
||||
Wiener de sorte que la variance soit aléatoire pour tout intervalle
|
||||
. Tout processus de Lévy peut être utilisé comme subordonnant pour
|
||||
définir cette échelle de temps. Si on utilise le processus gamma, on
|
||||
obtiendra le processus de Laplace sans dérive
|
||||
$\left\{Y(t;\sigma,\mu,\tau)\right\}$ défini comme suit:
|
||||
\begin{align}
|
||||
\label{eq:VGsubordinne}
|
||||
\lbrace Y(t;\sigma,\mu,\tau)\rbrace &\equiv \lbrace
|
||||
W(G(t;\tau,\beta=1);\mu,\sigma^2)\rbrace.
|
||||
\end{align}
|
||||
|
||||
On obtient l'exposant caractéristique $\Psi(\xi,t=1;\sigma,\mu,\tau)$
|
||||
d'un incrément $Y(t+1;\sigma,\mu,\tau)-Y(t;\sigma,\mu,\tau)$ en
|
||||
utilisant la propriété de subordination définie par l'équation
|
||||
\eqref{eq:exposantcaractYt}, où $\Xi(\zeta,t=1;\tau,\beta=1)$ est
|
||||
l'exposant caractéristique du processus gamma et
|
||||
$\Lambda(\xi,t=1;\mu,\sigma^2)$ celui du processus de Wiener:
|
||||
\begin{align}
|
||||
\label{eq:exposantcaractLaplace}
|
||||
\Psi(\xi,t=1;\sigma,\mu,\tau) &= \Xi(i\Lambda(\xi,t=1;\mu,\sigma^2),t=1;\tau,\beta=1) \nonumber\\
|
||||
&= \tau \ln{\left(1-i(i\Lambda(\xi)) \right)} \nonumber\\
|
||||
&= \tau \ln{\left(1+(\frac{\sigma^2 \xi^2}{2} - i \mu \xi) \right)}.
|
||||
\end{align}
|
||||
|
||||
Le processus de Laplace sans dérive est donc, par définition, un
|
||||
processus de Lévy et par conséquent infiniment divisible. En utilisant
|
||||
l'exposant caractéristique \eqref{eq:exposantcaractLaplace} et la
|
||||
définition \eqref{eq:fncaractYt}, on obtient sa fonction
|
||||
caractéristique:
|
||||
\begin{align}
|
||||
\label{eq:fonctioncaractlaplacesansdrift}
|
||||
\phi_{Y(t;\sigma,\mu,\tau)}(\xi) &= \exp{\left\{-t \cdot \Psi(\xi,t=1;\sigma,\mu,\tau)\right\}} \nonumber\\
|
||||
&= \exp{\left\{-t \cdot \left(\tau \ln{\left(1+(\frac{\sigma^2
|
||||
\xi^2}{2} - i \mu
|
||||
\xi) \right)} \right)\right\}} \nonumber\\
|
||||
&= \left(1+\frac{\sigma^2 \xi^2}{2} - i \mu \xi\right)^{-\tau \cdot
|
||||
t}.
|
||||
\end{align}
|
||||
|
||||
Une manière simple pour expliquer le mécanisme derrière le processus
|
||||
subordonné est d'en construire une trajectoire à l'aide de la
|
||||
simulation.
|
||||
|
||||
On simule un temps d'arrivée $T_1$, de distribution gamma, puis une
|
||||
hauteur de saut $X_1$, de distribution normale. On obtient ainsi le
|
||||
premier incrément de la trajectoire, tel qu'illustré à la figure
|
||||
\ref{fig:increment1}.
|
||||
\begin{figure}[!ht]
|
||||
\centering \input{"../graphiques/increment1.tex"}
|
||||
\caption{Premier incrément d'un processus subordonné}
|
||||
\label{fig:increment1}
|
||||
\end{figure}
|
||||
|
||||
Une réalisation d'une trajectoire de ce processus par simulation se
|
||||
trouve à la figure \ref{fig:simgammagauss}.
|
||||
|
||||
\begin{figure}[!ht]
|
||||
\centering
|
||||
\includegraphics[scale=.8]{"../graphiques/CH3-SIMGAMMAGAUSS"}
|
||||
\caption{Simulation d'un processus de Wiener subordonné par un
|
||||
processus gamma}
|
||||
\label{fig:simgammagauss}
|
||||
\end{figure}
|
||||
|
||||
Le processus gamma $G(t;\tau,\beta=1)$, en tant que subordonnant dans
|
||||
ce cas-ci, définit une échelle de temps économique , selon laquelle
|
||||
on situe l'arrivée d'évènements pouvant influencer le prix d'un titre
|
||||
financier. Cette dernière ne peut être mesurée, elle est donc
|
||||
abstraite. L'échelle de temps où sont effectuées les observations du
|
||||
processus correspond au temps calendrier. C'est la seule qui
|
||||
puisse être mesurée. Étant donné que ces deux échelles sont
|
||||
indépendantes, plusieurs sauts entre deux observations sont possibles.
|
||||
L'échelle de temps économique est donc soit étirée, soit compressée,
|
||||
en comparaison au temps calendrier. Autrement dit, si l'on définit
|
||||
une journée économique comme étant l'intervalle de temps entre deux
|
||||
sauts, on peut en avoir plusieurs au cours d'une seule journée de
|
||||
calendrier $(G(t+1;\tau,\beta=1)-G(t;\tau,\beta=1) > 1)$. À l'opposé,
|
||||
une d'entre elles peut chevaucher plusieurs journées calendrier
|
||||
$(G(t+1;\tau,\beta=1)-G(t;\tau,\beta=1) \leq 1)$.
|
||||
|
||||
Un processus stochastique qui représente le comportement du prix d'un
|
||||
titre financier doit inclure une composante de dérive. Celle-ci
|
||||
exprime le rendement moyen réalisé et est indépendante du processus de
|
||||
sauts. Pour cette raison, on ajoute un coefficient de dérive $\theta$
|
||||
au processus de Laplace sans dérive, pour obtenir sa forme
|
||||
générale. Comme ce coefficient est constant, on peut multiplier la
|
||||
fonction caractéristique \eqref{eq:fonctioncaractlaplacesansdrift} par
|
||||
la transformée de Fourier inverse du produit de celui-ci et de la
|
||||
longueur de l'intervalle de temps $t$, $\mathcal{F}^{-1}(\theta \cdot
|
||||
t) = e^{i\xi\theta \cdot t}$, pour obtenir celle du processus de
|
||||
Laplace:
|
||||
\begin{align}
|
||||
\phi_{Y(t;\theta,\sigma,\mu,\tau)}(\xi) &= \frac{e^{i\xi\theta\cdot t}}{\left(1+\frac{\sigma^2\xi^2}{2}- i\mu \xi \right)^{\tau \cdot t}} \nonumber\\
|
||||
&= \left(\frac{e^{i\xi\theta}}{\left(1+\frac{\sigma^2\xi^2}{2}- i\mu
|
||||
\xi
|
||||
\right)^{\tau}}\right)^{t} \label{eq:fncaractprocessuslaplace}.
|
||||
\end{align}
|
||||
|
||||
Le processus $\left\{Y(t;\theta,\sigma,\mu,\tau)\right\}$ définit,
|
||||
dans le contexte financier, l'évolution du logarithme du prix, tel que
|
||||
présenté par \cite{kotz2001laplace}. Pour des fins de simplification,
|
||||
on fixe le prix initial à 1: $Y(0;\theta,\sigma,\mu,\tau) = 0$
|
||||
|
||||
La fonction caractéristique \eqref{eq:fncaractprocessuslaplace}
|
||||
constituera la principale représentation du processus de Laplace pour
|
||||
la suite de ce texte. La construction du modèle «Variance Gamma» de
|
||||
\cite{madan1990variance} est similaire, à l'exception que la
|
||||
paramétrisation et le processus gamma utilisés sont différents, ce qui
|
||||
rend leur approche moins intuitive, bien que le résultat soit
|
||||
équivalent.
|
||||
|
||||
\section{Distribution de Laplace asymétrique généralisée}
|
||||
\label{sec:distributionGAL}
|
||||
|
||||
La distribution de Laplace asymétrique généralisée caractérise un
|
||||
intervalle du processus de Laplace avec dérive. Aussi appelée
|
||||
distribution de Bessel, elle a été introduite par Karl Pearson en
|
||||
1929, en lien avec la covariance d'un échantillon tiré d'une
|
||||
population normale à deux variables. C'est aussi une généralisation de
|
||||
la distribution de Laplace asymétrique qui sera présentée à la section
|
||||
\ref{sec:distributionAL}.
|
||||
|
||||
\subsection{Fonction caractéristique}
|
||||
\label{sec:fncaractGAL}
|
||||
|
||||
On définit cette distribution principalement par sa fonction
|
||||
caractéristique. Celle-ci s'obtient facilement à partir de la fonction
|
||||
caractéristique du processus de Laplace avec dérive
|
||||
\eqref{eq:fncaractprocessuslaplace}, en considérant un incrément de
|
||||
longueur $t=1$. À partir de la définition de ce dernier
|
||||
\eqref{eq:VGsubordinne}, on déduit qu'elle est en fait un mélange de
|
||||
la loi normale dont le paramètre de variance suit une distribution
|
||||
gamma.
|
||||
|
||||
$Y$ est une variable aléatoire définie comme étant la somme:
|
||||
\begin{itemize}
|
||||
\item d'un paramètre de translation $\theta$,
|
||||
\item du produit:
|
||||
\begin{itemize}
|
||||
\item d'une variable aléatoire $W$ issue d'une distribution gamma
|
||||
\eqref{eq:densitegamma1}
|
||||
\item et d'un paramètre $\mu$
|
||||
\end{itemize}
|
||||
\item et du produit:
|
||||
\begin{itemize}
|
||||
\item d'un paramètre $\sigma$,
|
||||
\item de la racine carrée de la variable aléatoire $W$
|
||||
\item et d'une variable aléatoire $Z$ issue d'une distribution
|
||||
normale centrée réduite:
|
||||
\begin{align}
|
||||
\label{eq:defvarY-GAL}
|
||||
&Y = \theta + \mu W + \sigma \sqrt{W} Z
|
||||
\end{align}
|
||||
où
|
||||
\begin{align}
|
||||
Z \sim N(0,1) \mbox{ et } W \sim \Gamma(\tau,\beta=1). \nonumber
|
||||
\end{align}
|
||||
\end{itemize}
|
||||
\end{itemize}
|
||||
|
||||
Alors, la variable aléatoire $Y$, sachant que $W=w$, suit une
|
||||
distribution normale de moyenne $w\mu$ et de variance $w\sigma^2$:
|
||||
\begin{align}
|
||||
\label{eq:Ynormalconditionnel}
|
||||
(Y|W=w) \sim N(w\mu,w\sigma^2).
|
||||
\end{align}
|
||||
|
||||
La fonction caractéristique de la variable aléatoire $Y$ peut donc
|
||||
être obtenue en utilisant celle de la loi normale $\phi^{N}_{\mu
|
||||
w,w\sigma^2}(t)$ et la formule de l'espérance conditionnelle:
|
||||
\begin{align*}
|
||||
\phi_Y(t;\theta,\sigma,\mu,\tau) &= E\left[E\left[e^{itY} | W \right] \right] \\
|
||||
&= \int_0^{\infty} E \left[ e^{it(\theta + \mu w+\sigma\sqrt{w}Z)} \right] g(w) dw \quad \mbox{(en utilisant \eqref{eq:defvarY-GAL})} \\
|
||||
&= e^{i\theta t}\int_0^{\infty} \phi^{N}_{\mu w,w\sigma^2}(t)g(w)dw \\
|
||||
&= e^{i\theta t}\int_0^{\infty} e^{ iw\mu t-\frac{w\sigma^2t^2}{2}} \times \frac{1}{\Gamma (\tau)} w^{\tau-1}e^{-w} dw \\
|
||||
&= e^{i\theta t}\int_0^{\infty} \frac{1}{\Gamma (\tau)} w^{\tau-1} e^{-w(1+\frac{1}{2} \sigma^2 t^2 - i\mu t)} dw.
|
||||
\end{align*}
|
||||
|
||||
En complétant l'intérieur de l'intégrale de façon à retrouver la
|
||||
densité de la loi gamma de paramètres $\alpha=\tau$ et
|
||||
$\beta=\left(1+\frac{1}{2} \sigma^2 t^2 - i\mu t \right)^{\tau}$, on
|
||||
obtient la fonction caractéristique de la variable aléatoire $Y$ de
|
||||
distribution Laplace asymétrique généralisée:
|
||||
\begin{align}
|
||||
\label{eq:fncaractGALmu}
|
||||
\phi_Y(t;\theta,\sigma,\mu,\tau) &= \frac{e^{i\theta t}}{{\left(1+\frac{1}{2} \sigma^2 t^2 - i\mu t \right)^{\tau}}}\int_0^{\infty} \frac{\left(1+\frac{1}{2} \sigma^2 t^2 - i\mu t \right)^{\tau}}{\Gamma (\tau)} w^{\tau-1} e^{-w(1+\frac{1}{2} \sigma^2 t^2 - i\mu t)} dw \nonumber\\
|
||||
&= \frac{e^{i\theta t}}{\left(1+\frac{1}{2} \sigma^2 t^2 - i\mu t
|
||||
\right)^{\tau}}.
|
||||
\end{align}
|
||||
|
||||
\subsection{Invariance d'échelle}
|
||||
\label{sec:invariance-dechelle}
|
||||
|
||||
Une seconde paramétrisation pour la famille de distributions de
|
||||
Laplace introduit la propriété d'invariance d'échelle. Cette propriété
|
||||
permet d'appliquer un changement d'échelle à une variable aléatoire en
|
||||
modifiant un seul paramètre sans que la valeur des autres ne soit
|
||||
affectée. Si l'on revient à la définition de la variable aléatoire
|
||||
conditionnelle $Y|W$ \eqref{eq:Ynormalconditionnel}, on remarque que
|
||||
les paramètres $\mu \text{ et } \sigma^2$ sont influencés par la valeur
|
||||
de $W$. Ils sont donc corrélés. En introduisant un paramètre
|
||||
d'invariance d'échelle $\kappa$ en remplacement de $\mu$, on élimine
|
||||
cette corrélation. Le paramètre $\kappa$ est obtenu à l'aide de la
|
||||
transformation suivante:
|
||||
\begin{equation}
|
||||
\label{eq:mukappa}
|
||||
\kappa = \frac{\sqrt{2\sigma^2+\mu^2}-\mu}{\sqrt{2}\sigma}.
|
||||
\end{equation}
|
||||
|
||||
À l'inverse, on peut retrouver le paramètre $\mu$ en l'isolant dans
|
||||
l'équation précédente. On obtient donc:
|
||||
\begin{equation}
|
||||
\label{eq:kappamu}
|
||||
\mu = \frac{\sigma}{\sqrt{2}}\left(\frac{1}{\kappa}-\kappa \right).
|
||||
\end{equation}
|
||||
|
||||
On définit la fonction vectorielle $T_{\mu\rightarrow\kappa}$ comme
|
||||
étant la transformation qui permet le passage de la forme en $\mu$ à
|
||||
celle en $\kappa$:
|
||||
\begin{align}
|
||||
T_{\mu\rightarrow\kappa}(\theta, \sigma, \mu, \tau) &=
|
||||
\left[\begin{array}{c} \theta \\ \sigma \\
|
||||
\frac{\sqrt{2\sigma^2+\mu^2}-\mu}{\sqrt{2}\sigma} \\ \tau
|
||||
\end{array}\right].
|
||||
\end{align}
|
||||
|
||||
On définit aussi la transformation inverse $T_{\kappa\rightarrow\mu}$:
|
||||
\begin{align}
|
||||
T_{\kappa\rightarrow\mu}(\theta, \sigma, \kappa, \tau) &=
|
||||
\left[\begin{array}{c} \theta \\ \sigma \\
|
||||
\frac{\sigma}{\sqrt{2}}\left(\frac{1}{\kappa}-\kappa \right) \\
|
||||
\tau
|
||||
\end{array}\right].
|
||||
\end{align}
|
||||
|
||||
Cette notation permet d'utiliser un vecteur de paramètres. On peut
|
||||
obtenir la matrice de variance-covariance d'une forme paramétrique en
|
||||
connaissant celle de l'autre et en utilisant le gradient de ces
|
||||
transformations.
|
||||
|
||||
Pour la première transformation, on a:
|
||||
\begin{align}
|
||||
\nabla T_{\mu\rightarrow\kappa} &= \left[
|
||||
\begin{array}[]{cccc}
|
||||
1&0&0&0 \\
|
||||
0&1&0&0 \\
|
||||
0&\frac{\mu\sqrt{4\sigma^2+\mu^2}-\mu^2}{2\sigma^2\sqrt{4\sigma^2+mu^2}} & -\frac{\sqrt{4\sigma^2+\mu^2}-\mu}{2\sigma\sqrt{4\sigma^2+\mu^2}} & 0 \\
|
||||
0&0&0&1
|
||||
\end{array}
|
||||
\right].
|
||||
\end{align}
|
||||
|
||||
Pour la seconde transformation, on a:
|
||||
\begin{align}
|
||||
\nabla T_{\kappa\rightarrow\mu} &= \left[
|
||||
\begin{array}[]{cccc}
|
||||
1&0&0&0 \\
|
||||
0&1&0&0 \\
|
||||
0&-\frac{\kappa^2-1}{\sqrt{2}\kappa} & -\frac{\left(\kappa^2+1\right)\sigma}{\sqrt{2}\kappa^2} & 0 \\
|
||||
0&0&0&1
|
||||
\end{array}
|
||||
\right].
|
||||
\end{align}
|
||||
|
||||
La forme en $\mu$ sera privilégiée pour l'estimation, car elle est
|
||||
plus compacte. Cependant, certaines propriétés de la distribution font
|
||||
appel à la forme utilisant le paramètre $\kappa$.
|
||||
|
||||
\subsection{Fonctions génératrices}
|
||||
|
||||
En utilisant la relation \eqref{eq:fncaractfgm}, on obtient la
|
||||
fonction génératrice des moments à partir de la fonction
|
||||
caractéristique:
|
||||
\begin{align}
|
||||
M_{Y}(\xi) &= \phi_{Y}(-i\xi) \nonumber\\
|
||||
&=\frac{e^{\theta \xi}}{\left(1-\frac{1}{2} \sigma^2 \xi^2 - \mu \xi
|
||||
\right)^{\tau}}, \label{eq:fgmGAL}\\
|
||||
&\quad \mbox{où } 1-\frac{1}{2} \sigma^2 \xi^2 - \mu \xi > 0.
|
||||
\label{eq:fgmGALcond}
|
||||
\end{align}
|
||||
|
||||
La condition \ref{eq:fgmGALcond} permet de s'assurer que le
|
||||
dénominateur prend une valeur réelle strictement positive. Cette
|
||||
condition impose aussi une restriction à l'espace des paramètres
|
||||
$\Omega$. La fonction génératrice des moments permet d'obtenir tous
|
||||
les moments $E[Y^r]$ d'une variable aléatoire en la dérivant
|
||||
successivement par rapport à la variable de transformation et en
|
||||
égalant cette dernière à 0:
|
||||
\begin{align}
|
||||
\label{eq:fgmmomentsGAL}
|
||||
E[Y^r] = \left[ \frac{d^r M_Y(\xi)}{d\xi^r} \right]_{\xi=0}.
|
||||
\end{align}
|
||||
|
||||
La fonction génératrice des cumulants $K_{Y}(\xi)$ est aussi
|
||||
intéressante à utiliser. On l'obtient à partir du logarithme de la
|
||||
fonction génératrice des moments \eqref{eq:fgmmoments}:
|
||||
\begin{align}
|
||||
\label{eq:fgcGAL}
|
||||
K_Y(\xi) &= \ln(M_Y(\xi)) \nonumber\\
|
||||
&= \ln\left(\frac{e^{\theta \xi}}{\left(1-\frac{1}{2} \sigma^2
|
||||
\xi^2 - \mu \xi \right)^{\tau}}\right),\qquad 1-\frac{1}{2}
|
||||
\sigma^2 \xi^2 - \mu \xi > 0.
|
||||
\end{align}
|
||||
|
||||
Elle a une utilité similaire à la fonction génératrice des moments,
|
||||
sauf qu'elle permet d'obtenir les cumulants $K_r$ de la distribution
|
||||
en la dérivant successivement par rapport à la variable de
|
||||
transformation et en égalant celle-ci à 0:
|
||||
\begin{align}
|
||||
\label{eq:fgccumGAL}
|
||||
K_r = \left[ \frac{d^r \ln{(M_Y(\xi))}}{d\xi^r} \right]_{\xi=0}.
|
||||
\end{align}
|
||||
|
||||
\subsection{Moments et rôle des paramètres}
|
||||
\label{sec:momentsGAL}
|
||||
|
||||
En mathématiques, les moments sont des quantités décrivant la forme
|
||||
d'un ensemble de points. En statistique, les moments décrivent
|
||||
certaines caractéristiques d'une population ou d'un échantillon. Ces
|
||||
caractéristiques sont utilisées dans la sélection d'une distribution
|
||||
de probabilité appropriée pour représenter la population à partir de
|
||||
l'échantillon, ce qu'on appelle l'inférence statistique. Les moments
|
||||
bruts et centraux sont évalués par rapport à 0 et à la moyenne
|
||||
respectivement.
|
||||
|
||||
On obtient les premiers moments bruts de cette distribution à l'aide
|
||||
de la relation décrite précédemment \eqref{eq:fgmmomentsGAL}.
|
||||
\begin{align*}
|
||||
E[Y] &= \theta+\tau\,\mu \\
|
||||
E[Y^2] &= {\theta}^{2}+2\,\mu\,\tau\,\theta+\tau\,{\sigma}^{2}+{\mu}^{2}\,{\tau}^{2}+{\mu}^{2}\,\tau \\
|
||||
E[Y^3] &= {\theta}^{3}+3\,\mu\,\tau\,{\theta}^{2}+\left( 3\,\tau\,{\sigma}^{2}+3\,{\mu}^{2}\,{\tau}^{2} +3\,{\mu}^{2}\,\tau\right) \,\theta \\
|
||||
&\quad + \left( 3\,\mu\,{\tau}^{2}+3\,\mu\,\tau\right) \,{\sigma}^{2}+{\mu}^{3}\,{\tau}^{3}+3\,{\mu}^{3}\,{\tau}^{2}+2\,{\mu}^{3}\,\tau \\
|
||||
E[Y^4] &= {\theta}^{4}+4\,\mu\,\tau\,{\theta}^{3}+\left( 6\,\tau\,{\sigma}^{2}+6\,{\mu}^{2}\,{\tau}^{2}+6\,{\mu}^{2}\,\tau\right) \,{\theta}^{2}\\
|
||||
&\quad+\left( \left( 12\,\mu\,{\tau}^{2}+12\,\mu\,\tau\right) \,{\sigma}^{2}+4\,{\mu}^{3}\,{\tau}^{3}+12\,{\mu}^{3}\,{\tau}^{2}+8\,{\mu}^{3}\,\tau\right) \,\theta \\
|
||||
&\quad+\left( 3\,{\tau}^{2}+3\,\tau\right) \,{\sigma}^{4}+\left(
|
||||
6\,{\mu}^{2}\,{\tau}^{3}+18\,{\mu}^{2}\,{\tau}^{2}+12\,{\mu}^{2}\,\tau\right)
|
||||
\,{\sigma}^{2} \\
|
||||
&\quad+{\mu}^{4}\,{\tau}^{4}+6\,{\mu}^{4}\,{\tau}^{3}+11\,{\mu}^{4}\,{\tau}^{2}+6\,{\mu}^{4}\,\tau.
|
||||
\end{align*}
|
||||
|
||||
À partir de ceux-ci, on obtient aussi les quatre premiers moments
|
||||
centraux:
|
||||
\begin{subequations}\label{eq:momentsGAL}
|
||||
\begin{align}
|
||||
m_1 &= E[Y] = \theta+\tau\,\mu \label{eq:moments1GAL}\\
|
||||
m_2 &= E[(Y-m_1)^2] = \tau\,\sigma^2+\tau\,\mu^2\label{eq:moments2GAL}\\
|
||||
m_3 &= E[(Y-m_1)^3] = 3\,\tau\,{\sigma}^{2}\mu+2\,\tau\,{\mu}^{3}\label{eq:moments3GAL}\\
|
||||
m_4 &= E[(Y-m_1)^4] =
|
||||
3\,{\tau}^{2}{\sigma}^{4}+3\,{\tau}^{2}{\mu}^{4}+3\,\tau\,{\sigma}^{4}+6\,\tau\,{\mu}^{4}+6\,{\tau}^{2}{\mu}^{2}{\sigma}^{2}+12\,\tau\,{\sigma}^{2}{\mu}^{2}.\label{eq:moments4GAL}
|
||||
\end{align}
|
||||
\end{subequations}
|
||||
|
||||
On résume le domaine et le rôle des paramètres à la table
|
||||
\ref{tab:roleparamGAL}.
|
||||
\begin{table}[!ht]
|
||||
\centering
|
||||
\begin{tabular}{cp{1.75cm}p{2.5cm}p{6.25cm}}
|
||||
\hline
|
||||
\textbf{Paramètre} & \textbf{Domaine} & \textbf{Rôle} & \textbf{Observations} \\
|
||||
\hline
|
||||
$\theta$ & $\mathbb{R}$ & Localisation & N'influence que la moyenne. Équivaut au mode lorsque $\mu=0$. \\
|
||||
$\sigma$ & $\mathbb{R}^{+} \setminus \lbrace 0 \rbrace$ & Échelle & Vrai paramètre d'échelle lorsque $\kappa$ est utilisé. \\
|
||||
$\mu$ & $\mathbb{R}$ & Asymétrie & Distribution asymétrique à gauche lorsque négatif et à droite lorsque positif. Déplace la moyenne dans la même direction. Corrélation positive avec la variance et le coefficient d'aplatissement.\\
|
||||
$\kappa$ & $\mathbb{R}^{+} \setminus \lbrace 0 \rbrace$ & Asymétrie & Valeur dans l'intervalle $\left[0,1\right[$ lorsque $\mu<0$, dans $\left[1,\infty \right]$ lorsque $\mu \geq0$. \\
|
||||
$\tau$ & $\mathbb{R}^{+} \setminus \lbrace 0 \rbrace$ & Aplatissement & Négativement corrélé avec le coefficient d'aplatissement. Une petite valeur donne une distribution pointue. \\
|
||||
\hline
|
||||
\end{tabular}
|
||||
\caption{Domaine et rôle des paramètres de la distribution de Laplace asymétrique généralisée}
|
||||
\label{tab:roleparamGAL}
|
||||
\end{table}
|
||||
|
||||
On retrouve quelques exemples de courbes de la fonction de densité
|
||||
avec différents paramètres d'asymétrie et d'aplatissement à la figure
|
||||
\ref{fig:densiteGAL}.
|
||||
\begin{figure}[!ht]
|
||||
\centering
|
||||
\includegraphics[scale=0.8]{../contenus/r/code/dGAL-exemples.pdf}
|
||||
\caption{Fonction de densité de la distribution Laplace asymétrique
|
||||
généralisée avec différents paramètres:
|
||||
$GAL(y;\theta,\sigma,\kappa,\tau)$}
|
||||
\label{fig:densiteGAL}
|
||||
\end{figure}
|
||||
|
||||
Afin de comparer la distribution de Laplace asymétrique généralisée
|
||||
avec la normale, que l'on cherche à remplacer dans le contexte des
|
||||
rendements financiers, le comportement des coefficients d'asymétrie
|
||||
$\gamma_1$ et d'aplatissement $\gamma_2$ de celle-ci peut être
|
||||
intéressant à observer. On obtient ces derniers à partir des moments
|
||||
centraux \eqref{eq:momentsGAL} :
|
||||
\begin{subequations}\label{eq:moments56GAL}
|
||||
\begin{align}
|
||||
\gamma_1(Y) &= \frac{m_3}{(m_2)^{3/2}} =
|
||||
\frac{2\,{\mu}^{3}+3\,{\sigma}^{2}\,\mu}{{\left( {\mu}^{2}+{\sigma}^{2}\right) }^{3/2}\,\sqrt{\tau}}\label{eq:moments5GAL}\\
|
||||
\gamma_2(Y) &= \frac{m_4}{(m_2)^{2}} - 3 = \frac{\left(
|
||||
3\,{\mu}^{4}+6\,{\sigma}^{2}\,{\mu}^{2}+3\,{\sigma}^{4}\right)
|
||||
\,{\tau}^{2}+\left(
|
||||
6\,{\mu}^{4}+12\,{\sigma}^{2}\,{\mu}^{2}+3\,{\sigma}^{4}\right)
|
||||
\,\tau}{{\left( {\mu}^{2}+{\sigma}^{2}\right) }^{2}\,{\tau}^{2}}
|
||||
- 3.\label{eq:moments6GAL}
|
||||
\end{align}
|
||||
\end{subequations}
|
||||
|
||||
Le coefficient d'asymétrie de la normale vaut $\gamma_1^N(Y)=0$ et
|
||||
celui d'excès d'aplatissement, $\gamma_2^N(Y)=0$, puisqu'il a été
|
||||
défini à partir de cette distribution. Si l'on fixe tous les
|
||||
paramètres sauf $\mu$, la valeur minimale du coefficient d'excès
|
||||
d'aplatissement $\gamma_2(Y)$ est atteinte lorsque $\mu$ est de 0:
|
||||
\begin{align*}
|
||||
\min_{\mu} \gamma_2(Y) &= \left[\gamma_2(Y)\right]_{\mu=0} \\
|
||||
&= \frac{3}{\tau}.
|
||||
\end{align*}
|
||||
Étant donné que le paramètre $\tau$ est strictement positif, la valeur
|
||||
minimale que peut prendre le coefficient d'excès d'aplatissement
|
||||
$\gamma_2(Y)$ est plus grande que 0. Par conséquent, l'aplatissement de la
|
||||
distribution de Laplace asymétrique généralisée sera toujours
|
||||
supérieur à celui de la normale; c'est donc une distribution
|
||||
leptocurtique, ce qui est une propriété désirable selon les
|
||||
observations de \cite{madan1990variance}.
|
||||
|
||||
\subsection{Changement d'échelle et de localisation}
|
||||
\label{sec:transGAL}
|
||||
|
||||
Parfois, on doit modifier un ensemble de données afin d'effectuer des
|
||||
comparaisons ou pour bénéficier des avantages d'une méthode
|
||||
numérique. Les principales transformations utilisées sont:
|
||||
\begin{enumerate}
|
||||
\item un changement de localisation, où l'on additionne une constante
|
||||
à l'ensemble des données
|
||||
\item un changement d'échelle, où l'on multiplie l'ensemble des
|
||||
données par un facteur
|
||||
\item une combinaison des deux transformations précédentes.
|
||||
\end{enumerate}
|
||||
|
||||
Soit deux constantes $a$, $b\neq0$ et une variable aléatoire $X$ qui
|
||||
suit une distribution Laplace asymétrique généralisée: $X \sim
|
||||
GAL(\theta,\sigma,\kappa,\tau)$. $Y$ correspond à la somme:
|
||||
\begin{itemize}
|
||||
\item de la constante $b$ et
|
||||
\item du produit:
|
||||
\begin{itemize}
|
||||
\item de la constante $a$ et
|
||||
\item de la variable aléatoire $X$.
|
||||
\end{itemize}
|
||||
\end{itemize}
|
||||
|
||||
Selon \cite{kotz2001laplace}, en utilisant le paramètre $\kappa$, on
|
||||
peut effectuer un changement d'échelle et de localisation et obtenir
|
||||
une variable aléatoire qui suit encore cette distribution:
|
||||
\begin{itemize}
|
||||
\item le paramètre de localisation $\theta$ subit la même
|
||||
transformation que la variable aléatoire $X$;
|
||||
\item le paramètre d'échelle $\sigma$ est multiplié par la constante
|
||||
$a$;
|
||||
\item le paramètre $\kappa$ est inversé si cette constante est
|
||||
négative. Ce dernier cas est en fait une réflexion de la
|
||||
distribution autour du mode.
|
||||
\end{itemize}
|
||||
|
||||
On a donc:
|
||||
\begin{align}
|
||||
\label{eq:GALscaletrans}
|
||||
Y = aX + b \sim GAL(a \theta + b,a\sigma,\kappa^{\sgn{a}\cdot
|
||||
1},\tau).
|
||||
\end{align}
|
||||
|
||||
On estime les paramètres $\hat\theta, \hat\sigma, \hat\mu$ et
|
||||
$\hat\tau$ sur un ensemble de données centrées et réduites $X_t$ à
|
||||
partir d'un échantillon original $Y_t$. $\hat{m} \text{ et }
|
||||
\hat{s}>0$ sont respectivement la moyenne et l'écart-type de
|
||||
l'échantillon $Y_t$. En utilisant l'équation de transformation
|
||||
\eqref{eq:GALscaletrans} avec les paramètres estimés précédemment, on
|
||||
peut alors obtenir ceux correspondants pour l'échantillon:
|
||||
\begin{align}
|
||||
\label{eq:transparamGALNS}
|
||||
Y_t = \hat{s} X_t + \hat{m} \sim GAL(\hat{s} \theta +
|
||||
\hat{m},\hat{s}\sigma,\kappa,\tau) .
|
||||
\end{align}
|
||||
|
||||
Le paramètre $\kappa$ n'est pas modifié puisque l'écart-type $\hat{s}$
|
||||
est strictement positif. Cette propriété permettra de pratiquer
|
||||
l'estimation sur des données centrées et réduites, ce qui diminue le
|
||||
risque d'erreurs numériques sans nuire à sa précision, puisqu'aucune
|
||||
information contenue dans l'échantillon n'est perdue.
|
||||
|
||||
\subsection{Représentation alternative et simulation}
|
||||
\label{sec:simulationGAL}
|
||||
|
||||
Le processus de Laplace $Y(t;\theta,\sigma,\kappa,\tau)$ peut être
|
||||
représenté sous la forme d'une différence de deux processus gamma
|
||||
$G_1(t;\tau) - G_2(t;\tau)$ à laquelle on additionne une composante de
|
||||
dérive. Le premier processus compte les gains, alors que le second,
|
||||
les pertes. Les deux ont des incréments qui suivent une distribution
|
||||
gamma $\Gamma(\alpha=\tau, \beta=1)$, c'est-à-dire la même
|
||||
distribution que le processus
|
||||
subordonnant utilisé à la section \ref{sec:browniensub}:
|
||||
\begin{align}
|
||||
\label{eq:distributiongammaformealt}
|
||||
G_i(\tau) \sim \Gamma\left(\tau,\beta=1 \right), \qquad i\in\left\{
|
||||
1,2 \right\}.
|
||||
\end{align}
|
||||
|
||||
Il peut être représenté sous la forme du processus composé suivant:
|
||||
\begin{align}
|
||||
\label{eq:processuslaplace2gamma}
|
||||
Y(t) \stackrel{d}{=} \theta +
|
||||
\frac{\sigma\sqrt{2}}{2}\left(\frac{1}{\kappa} G_1(t) - \kappa
|
||||
G_2(t)\right).
|
||||
\end{align}
|
||||
|
||||
La distribution de Laplace asymétrique généralisée peut alors être
|
||||
représentée sous la forme d'un incrément de ce processus. Les
|
||||
variables aléatoires $G_1$ et $G_2$ sont respectivement des
|
||||
réalisations indépendantes de distribution gamma avec densité
|
||||
\eqref{eq:densitegamma1}:
|
||||
\begin{align}
|
||||
\label{eq:differencegamma}
|
||||
Y \stackrel{d}{=} \theta + \frac{\sigma\sqrt{2}}{2} \left(
|
||||
\frac{1}{\kappa} G_1 - \kappa G_2 \right).
|
||||
\end{align}
|
||||
|
||||
Simuler une réalisation de chacune d'entre elles suffira pour obtenir
|
||||
une réalisation de la distribution gamma. On peut aussi réécrire la
|
||||
définition précédente de la variable aléatoire $Y$
|
||||
\eqref{eq:differencegamma} sous la forme simplifiée suivante:
|
||||
\begin{align}
|
||||
\label{eq:differencegamma2}
|
||||
Y \stackrel{d}{=} \theta + \left(G_3-G_4 \right).
|
||||
\end{align}
|
||||
|
||||
Les deux variables aléatoires sont alors définies comme suit:
|
||||
\begin{align*}
|
||||
G_3 \sim \Gamma\left(\tau,\beta=\frac{\sqrt{2}}{\kappa\sigma} \right)\\
|
||||
G_4 \sim \Gamma\left(\tau,\beta=\frac{\kappa\sigma}{\sqrt{2}}
|
||||
\right).
|
||||
\end{align*}
|
||||
|
||||
On peut facilement démontrer l'équivalence en distribution
|
||||
\eqref{eq:differencegamma2}. En effectuant le produit des fonctions
|
||||
caractéristiques respectives $\phi_{Y}(\xi)$, $\phi_{G_3}(\xi)$ et
|
||||
$\phi_{G_4}(\xi)$ des variables aléatoires $Y$, $G_3$ et $G_4$, on
|
||||
retrouve celle de la forme en $\kappa$:
|
||||
\begin{align}
|
||||
\label{eq:equivalence2gammaFC}
|
||||
\phi_{Y}(\xi) &= e^{i\xi\theta} \cdot \phi_{G_3}(\xi) \cdot \phi_{G_4}(\xi) \nonumber\\
|
||||
&= e^{i\xi\theta} \cdot \left(\frac{1}{1+i\xi\cdot\frac{\kappa\sigma}{\sqrt{2}}}\right)^{\tau} \cdot \left(\frac{1}{1-i\xi\cdot\frac{\kappa\sigma}{\sqrt{2}}}\right)^{\tau} \nonumber\\
|
||||
&=
|
||||
\frac{e^{i\xi\theta}}{\left(1-i\xi\frac{\sigma}{\sqrt{2}}\left(\frac{1}{\kappa}-\kappa
|
||||
\right) + \frac{\sigma^2\xi^2}{2}\right)^{\tau}}.
|
||||
\end{align}
|
||||
|
||||
La figure \ref{fig:simulGAL} présente un histogramme et un estimateur
|
||||
de densité par noyau d'un échantillon de 2500 réalisations de la
|
||||
variable aléatoire $Y$, suivant une distribution de Laplace
|
||||
asymétrique généralisée de paramètres $\theta=0$, $\sigma=1$,
|
||||
$\kappa=2$ et $\tau=1$. On remarquera que le paramètre $\kappa$
|
||||
produit une distribution asymétrique à gauche puisqu'il prend une
|
||||
valeur supérieure à 1.
|
||||
|
||||
\begin{figure}[!ht]
|
||||
\centering
|
||||
\includegraphics[scale=0.8]{"../graphiques/CH3-SIMULGAL0121"}
|
||||
\caption{Histogramme et estimateur de densité par noyau de 2500
|
||||
réalisations de la variable aléatoire $Y\sim
|
||||
GAL(\theta=0,\sigma=1,\kappa=2,\tau=1)$}
|
||||
\label{fig:simulGAL}
|
||||
\end{figure}
|
||||
|
||||
\subsection{Fonction de Bessel et densité}
|
||||
\label{sec:besseldensiteGAL}
|
||||
|
||||
La densité de la distribution Laplace asymétrique généralisée peut
|
||||
être exprimée à l'aide de la fonction de Bessel modifiée du troisième
|
||||
type \citep{abramowitz1965handbook}:
|
||||
\begin{align}
|
||||
\label{eq:BesselK}
|
||||
K_{\lambda}(u) =
|
||||
\frac{(u/2)^{\lambda}\Gamma(1/2)}{\Gamma(\lambda+1/2)}
|
||||
\int_1^{\infty} e^{-ut} (t^2-1)^{\lambda-1/2}dt,\qquad \lambda \geq
|
||||
-1/2.
|
||||
\end{align}
|
||||
|
||||
On définit les paramètres $\delta = \mu\sigma^{-1}$ et $\eta =
|
||||
\sqrt{1+\delta^2}$ afin de simplifier la notation. La démonstration
|
||||
qui permet d'obtenir la fonction de densité est fondée sur la
|
||||
définition de la distribution utilisant la différence de deux
|
||||
processus gamma \eqref{eq:differencegamma}. Elle est développée par
|
||||
\cite{kozubowski1999class}:
|
||||
\begin{align}
|
||||
\label{eq:densitekotz}
|
||||
f(x) &= \frac{e^{-\kappa^{\sgn(x)}|x|}}{\Gamma(\tau)} \int_{0}^{\infty} y^{\tau-1}(|x|+y)^{\tau-1}e^{-\eta y} dy \nonumber\\
|
||||
&= \frac{1}{\Gamma(\tau)\sqrt{\pi}} \left(\frac{|x|}{\eta}
|
||||
\right)^{\tau-1/2} e^{\delta x/2} K_{\tau-1/2}\left(\frac{\eta
|
||||
|x|}{2}\right).
|
||||
\end{align}
|
||||
|
||||
Afin d'incorporer le paramètre de localisation $\theta$, on remplace
|
||||
$x$ par la valeur centrée $x-\theta$, et les paramètres $\eta$ et
|
||||
$\delta$ par ceux d'origine, tels que définis précédemment, pour
|
||||
obtenir la forme suivante \citep{kotz2001laplace}:
|
||||
\begin{align}
|
||||
\label{eq:densitekotz2001}
|
||||
f(x) =
|
||||
\frac{\sqrt{2}e^{\frac{\sqrt{2}}{2\sigma}(1/\kappa-\kappa)(x-\theta)}}{\sqrt{\pi}\sigma^{\tau+1/2}\Gamma(\tau)}
|
||||
\bigg(\frac{\sqrt{2}|x-\theta|}{\kappa+1/\kappa} \bigg)^{\tau-1/2}
|
||||
K_{\tau-1/2}\left(\frac{\sqrt{2}}{2\sigma}\left(\frac{1}{k}+\kappa
|
||||
\right)|x-\theta| \right).
|
||||
\end{align}
|
||||
|
||||
Cette fonction a été implémentée dans un algorithme de maximum de
|
||||
vraisemblance pour le logiciel GNU R par
|
||||
\cite{RpackageVarianceGamma}. Elle reste cependant sensible
|
||||
numériquement en plus de demander un temps de calcul important pour de
|
||||
grands échantillons. De plus, comme la fonction de densité n'est pas
|
||||
différentiable, on ne peut pas obtenir les estimateurs du maximum de
|
||||
vraisemblance et leurs matrices de variance-covariance. Donc,
|
||||
il est impossible d'effectuer de tests d'adéquation ou d'hypothèse avec ces
|
||||
résultats. C'est une des principales raisons qui ont motivé la
|
||||
recherche d'autres méthodes d'estimation plus efficaces pour cette
|
||||
distribution.
|
||||
|
||||
\section{Cas particuliers}
|
||||
\label{sec:cas-particuliers}
|
||||
|
||||
La distribution de Laplace asymétrique généralisée peut être
|
||||
considérée comme une extension de plusieurs cas particuliers. Ces
|
||||
distributions ainsi que leur notation et leur fonction de densité sont
|
||||
présentées dans la table \ref{tab:casspeciauxGAL}.
|
||||
\begin{table}[!ht]
|
||||
\centering
|
||||
\begin{tabular}{cccc}
|
||||
\hline
|
||||
\textbf{Cas} & \textbf{Distribution} & \textbf{Notation} & \textbf{Densité} \\
|
||||
\hline
|
||||
$\theta=0$ & \multirow{4}{*}{Exponentielle de moyenne $\mu>0$} & \multirow{4}{*}{$GAL(0,0,\mu,1)$} & \multirow{4}{*}{$\frac{1}{\mu}e^{-x/\mu}\,(x > 0)$} \\
|
||||
$\sigma=0$ & & & \\
|
||||
$\mu>0$ & & & \\
|
||||
$\tau=1$ & & & \\ \hline
|
||||
$\theta=0$ & \multirow{3}{*}{Gamma de paramètres $\alpha=\tau$, $\beta=\mu>0$} &
|
||||
\multirow{3}{*}{$GAL(0,0,\mu,\tau)$} & \multirow{3}{*}{$\frac{x^{\tau-1}e^{-x/\mu}}{\mu^\tau\Gamma(\tau)},(x > 0)$} \\
|
||||
$\sigma=0$ & & & \\
|
||||
$\mu>0$ & & & \\ \hline
|
||||
$\sigma>0$ & \multirow{3}{*}{Laplace symétrique $(\sigma>0)$} &
|
||||
\multirow{3}{*}{$GAL(\theta,\sigma,0,1)$} & \multirow{3}{*}{$\frac{1}{\sqrt{2}\sigma}e^{-\sqrt{2}|x-\theta|/\sigma},(x \in \mathbb{R})$} \\
|
||||
$\mu=0$ & & & \\
|
||||
$\tau=1$ & & & \\ \hline
|
||||
$\sigma>0$ & \multirow{3}{*}{Laplace asymétrique $(\sigma>0)$} &
|
||||
\multirow{3}{*}{$GAL(\theta,\sigma,\mu,1)$} & \multirow{3}{*}{$\frac{\sqrt{2}\kappa}{\sigma(1+\kappa^2)}\begin{cases}e^{\frac{\sqrt{2}\kappa}{\sigma}(\theta-x)},\quad & x\geq\theta \\ e^{\frac{\sqrt{2}}{\sigma\kappa}(x-\theta)},\quad & x < \theta \end{cases}$} \\
|
||||
$\mu \neq 0$ & & & \\
|
||||
$\tau=1$ & & & \\ \hline
|
||||
$\sigma=0$ & \multirow{3}{*}{Dégénérée à $\theta$} & \multirow{3}{*}{$GAL(\theta,0,0,0)$} & \multirow{3}{*}{$1_{x=\theta}$} \\
|
||||
$\mu=0$ & & & \\
|
||||
$\tau=0$ & & & \\ \hline
|
||||
\end{tabular}
|
||||
\caption{Cas spéciaux de la distribution de Laplace asymétrique généralisée}
|
||||
\label{tab:casspeciauxGAL}
|
||||
\end{table}
|
||||
|
||||
Les deux premiers cas spéciaux sont des distributions de probabilité
|
||||
classiques. L’attention sera portée sur la distribution de Laplace
|
||||
asymétrique et son cas spécial, celle de Laplace symétrique. La
|
||||
dégénérée n'a aucune application pratique, mais en mentionner
|
||||
l'existence est pertinent, puisque ce ne sont pas toutes les
|
||||
distributions qui admettent ce cas.
|
||||
|
||||
\subsection{Distribution de Laplace asymétrique}
|
||||
\label{sec:distributionAL}
|
||||
|
||||
La distribution de Laplace asymétrique a été introduite
|
||||
par \cite{hinkley1977estimation} et étudiée en profondeur par
|
||||
\cite{kozubowski1999class}. Cette distribution a elle aussi plusieurs
|
||||
caractéristiques intéressantes pour remplacer la normale, dans le
|
||||
contexte de la modélisation financière, comme le présentent
|
||||
\cite{kozubowski2001asymmetric}. Elle est notée
|
||||
$AL(\theta,\sigma,\kappa)$.
|
||||
|
||||
Cette distribution, en tant que cas particulier de la distribution de
|
||||
Laplace asymétrique généralisée, conserve la majorité de ses
|
||||
propriétés. Entre autres, elle est infiniment divisible et possède des moments
|
||||
finis. Les paramètres $\theta$, $\sigma$ et $\kappa$ conservent leurs
|
||||
rôles et propriétés définis à la section \ref{sec:momentsGAL}. On peut
|
||||
donc contrôler la localisation, l'échelle et l'asymétrie de la
|
||||
distribution. Cependant, aucun paramètre ne permet de contrôler le
|
||||
coefficient d'aplatissement.
|
||||
|
||||
La densité de probabilité de cette distribution
|
||||
$f(x;\theta,\sigma,\kappa)$ présente une forme analytique simple qui
|
||||
ne requiert pas le recours à la fonction de Bessel modifiée de
|
||||
troisième type \eqref{eq:BesselK}.
|
||||
\begin{align}
|
||||
\label{eq:densiteAL}
|
||||
f(x;\theta,\sigma,\kappa) =
|
||||
\frac{\sqrt{2}}{\sigma}\frac{\kappa}{1+\kappa^2} \begin{cases}
|
||||
\exp\left(\frac{-\sqrt{2}\kappa}{\sigma}\left( x-\theta \right)\right),\quad & x\geq\theta \\
|
||||
\exp\left( \frac{\sqrt{2}}{\theta\kappa}\left(\theta - x \right)
|
||||
\right),\quad & x<\theta.\end{cases}
|
||||
\end{align}
|
||||
|
||||
La fonction caractéristique de cette distribution prend la forme
|
||||
suivante:
|
||||
\begin{align}
|
||||
\label{eq:caractALkappa}
|
||||
\phi(t;\theta,\sigma,\kappa) = \frac{e^{i \theta
|
||||
t}}{1+\frac{\sigma^2 t^2}{2}-
|
||||
i\frac{\sigma}{\sqrt{2}}\left(\frac{1}{\kappa}-\kappa \right)
|
||||
t}\,.
|
||||
\end{align}
|
||||
|
||||
Cette dernière est utilisée principalement lorsque l'application d'une
|
||||
propriété nécessite une distribution avec un seul paramètre d'échelle.
|
||||
La seconde paramétrisation de cette distribution utilise le paramètre
|
||||
$\mu$ qui n'est pas invariant d'échelle. Cette paramétrisation donne
|
||||
une forme beaucoup plus simple de la fonction caractéristique
|
||||
\eqref{eq:caractALkappa}:
|
||||
\begin{align}
|
||||
\label{eq:caractALmu}
|
||||
\phi(t\theta,\sigma,\mu) = \frac{e^{i \theta t}}{1+\frac{\sigma^2
|
||||
t^2}{2}- i\mu t}.
|
||||
\end{align}
|
||||
|
||||
On reconnait la fonction caractéristique d'un incrément du processus
|
||||
de Laplace \eqref{eq:fncaractprocessuslaplace} avec les paramètres
|
||||
($\tau=1$, $t=1$). Une forme standardisée de cette distribution existe
|
||||
aussi avec le paramètre d'échelle $\sigma=1$ et de dérive $\theta=0$.
|
||||
Enfin, on peut avoir une représentation alternative de cette
|
||||
distribution, utilisée principalement pour la simulation, basée sur
|
||||
l'exponentielle:
|
||||
\begin{align}
|
||||
\label{eq:ALrepsimul}
|
||||
Y &= \theta + \frac{\sigma}{\sqrt{2}} \left(\frac{1}{\kappa}W_1 - k W_2 \right)
|
||||
\end{align}
|
||||
où
|
||||
\begin{align*}
|
||||
W_1 \sim \mbox{Exponentielle}\left(\frac{\sigma}{\sqrt{2}\kappa}\right) \nonumber \mbox{ et } W_2 \sim \mbox{Exponentielle}\left(\frac{\sigma\kappa}{\sqrt{2}}\right)
|
||||
\end{align*}
|
||||
|
||||
Cette méthode n'est cependant pas la plus efficace pour simuler une
|
||||
réalisation $Y$ de la distribution de Laplace asymétrique, car on peut
|
||||
la faire à partir de deux réalisations indépendantes $U_1$ et $U_2 $
|
||||
d'une variable aléatoire uniforme définie sur l'intervalle
|
||||
$\left[0,1\right]$:
|
||||
\begin{align}
|
||||
\label{eq:simulALunif}
|
||||
Y = \theta + \frac{\sigma}{\sqrt{2}}
|
||||
\ln{\frac{U_1^\kappa}{U_2^{1/\kappa}}}.
|
||||
\end{align}
|
||||
|
||||
Lorsque le paramètre $\tau$ de la distribution de Laplace asymétrique
|
||||
généralisée est un entier, on peut générer une réalisation $X$ de
|
||||
celle-ci en sommant un total de $\tau$ réalisations indépendantes de
|
||||
la variable aléatoire $Y$:
|
||||
\begin{align*}
|
||||
X &= \sum_{i=1}^{\tau} Y_{i} \\
|
||||
Y_{i} &\sim AL(\theta,\sigma,\kappa).
|
||||
\end{align*}
|
||||
|
||||
\section{Relation avec le modèle de \cite{madan1990variance}}
|
||||
\label{sec:relation-avec-le}
|
||||
|
||||
Le modèle Variance Gamma de \cite{madan1990variance} utilise une
|
||||
paramétrisation différente de celle de \cite{kotz2001laplace}. On
|
||||
doit, afin de conserver une compatibilité des développements des
|
||||
prochains chapitres, détailler les changements de paramètres qui
|
||||
permettent de passer d'un modèle à l'autre. Le modèle Variance Gamma
|
||||
utilise les paramètres $C,\sigma,\theta \mbox{ et } \nu$. Afin
|
||||
d'éviter la confusion, les paramètres seront indicés de 1 à 3 selon le
|
||||
modèle d'où ils proviennent. Le modèle 1 sera celui de
|
||||
\cite{madan1990variance}, les modèles 2 et 3 seront respectivement les
|
||||
paramétrisations en $\mu$ et en $\kappa$ de
|
||||
\cite{kotz2001laplace}. Les différentes équivalences se trouvent à la
|
||||
table \ref{tab:chparam}.
|
||||
\begin{table}[!ht]
|
||||
\centering
|
||||
\begin{tabular}{cccccc}
|
||||
\hline
|
||||
\textbf{Vers le modèle} & & & \textbf{À partir du modèle} & & \textbf{À partir du modèle} \\ \hline
|
||||
\textbf{1} & & & \textbf{2} & & \textbf{3} \\ \hline
|
||||
|
||||
& $C$ & $=$ & $\theta_2$ & $=$ & $\theta_3$ \\
|
||||
\multicolumn{ 1}{l}{} & $\sigma_1$ & $=$ & $\sqrt{\tau_2}\sigma_2$ & $=$ & $\sqrt{\tau_3}\sigma_3$ \\
|
||||
\multicolumn{ 1}{l}{} & $\theta_1$ & $=$ & $\mu\tau_2$ & $=$ & $\tau_3\sigma_3(1/\kappa - \kappa)/\sqrt{2}$ \\
|
||||
\multicolumn{ 1}{l}{} & $\nu$ & $=$ & $1/\tau_2$ & $=$ & $1/\tau_3$ \\
|
||||
\hline
|
||||
\textbf{2} & & & \textbf{1} & & \textbf{3} \\ \hline
|
||||
& $\theta_2$ & $=$ & $C$ & $=$ & $\theta_3$ \\
|
||||
\multicolumn{ 1}{l}{} & $\sigma_2$ & $=$ & $\sigma_1\sqrt{\nu}$ & $=$ & $\sigma_3$ \\
|
||||
\multicolumn{ 1}{l}{} & $\mu$ & $=$ & $\theta_1*\nu$ & $=$ & $\sigma_3(1/\kappa - \kappa)/\sqrt{2}$ \\
|
||||
\multicolumn{ 1}{l}{} & $\tau_2$ & $=$ & $1/\nu$ & $=$ & $\tau_3$ \\
|
||||
\hline
|
||||
\textbf{3} & & & \textbf{1} & & \textbf{2} \\ \hline
|
||||
& $\theta_3$ & $=$ & $C$ & $=$ & $\theta_2$ \\
|
||||
\multicolumn{ 1}{l}{} & $\sigma_3$ & $=$ & $\sigma_1\sqrt{\nu}$ & $=$ & $\sigma_2$ \\
|
||||
\multicolumn{ 1}{l}{} & $\kappa$ & $=$ & $\frac{\sqrt{2(\sigma_1\sqrt{\nu})^2 + (\theta_1*\nu)^2} – \theta_1*\nu}{\sigma_1\sqrt{\nu}\sqrt{2}}$ & $=$ & $\frac{\sqrt{2(\sigma_2)^2 + \mu^2} - \mu}{\sigma_2\sqrt{2}}$ \\
|
||||
\multicolumn{ 1}{l}{} & $\tau_3$ & $=$ & $1/\nu$ & $=$ & $\tau_2$ \\ \hline
|
||||
\end{tabular}
|
||||
\caption{Changements de paramétrisation}
|
||||
\label{tab:chparam}
|
||||
\end{table}
|
||||
|
||||
|
||||
|
||||
%%% Local Variables:
|
||||
%%% mode: latex
|
||||
%%% TeX-master: "gabarit-maitrise"
|
||||
%%% End:
|
||||
|
182
memoire/chapitre3.aux
Normal file
182
memoire/chapitre3.aux
Normal file
|
@ -0,0 +1,182 @@
|
|||
\relax
|
||||
\providecommand\hyper@newdestlabel[2]{}
|
||||
\citation{lugannani1980saddle}
|
||||
\citation{butler2007saddlepoint}
|
||||
\@writefile{lof}{\addvspace {10pt}}
|
||||
\@writefile{lot}{\addvspace {10pt}}
|
||||
\@writefile{toc}{\contentsline {chapter}{\chapternumberline {3}Approximation de la densit\IeC {\'e} et de la fonction de r\IeC {\'e}partition}{39}{chapter.3}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {3.1}L'approximation de Laplace}{39}{section.3.1}}
|
||||
\newlabel{sec:appr-de-lapl}{{3.1}{39}{L'approximation de Laplace}{section.3.1}{}}
|
||||
\newlabel{sec:appr-de-lapl@cref}{{[section][1][3]3.1}{39}}
|
||||
\@writefile{lof}{\contentsline {figure}{\numberline {3.1}{\ignorespaces Probabilit\IeC {\'e} \IeC {\`a} l'extr\IeC {\'e}mit\IeC {\'e} du support\relax }}{40}{figure.caption.23}}
|
||||
\newlabel{fig:probdroite}{{3.1}{40}{Probabilité à l'extrémité du support\relax }{figure.caption.23}{}}
|
||||
\newlabel{fig:probdroite@cref}{{[figure][1][3]3.1}{40}}
|
||||
\newlabel{eq:approxlaplace1}{{3.1.1}{40}{L'approximation de Laplace}{equation.3.1.0.1}{}}
|
||||
\newlabel{eq:approxlaplace1@cref}{{[equation][1][3,1]3.1.1}{40}}
|
||||
\newlabel{eq:taylorgx}{{3.1.2}{40}{L'approximation de Laplace}{equation.3.1.0.2}{}}
|
||||
\newlabel{eq:taylorgx@cref}{{[equation][2][3,1]3.1.2}{40}}
|
||||
\newlabel{eq:integraleapproxlaplace1}{{3.1.3}{40}{L'approximation de Laplace}{equation.3.1.0.3}{}}
|
||||
\newlabel{eq:integraleapproxlaplace1@cref}{{[equation][3][3,1]3.1.3}{40}}
|
||||
\newlabel{eq:approxlaplace2}{{3.1.4}{40}{L'approximation de Laplace}{equation.3.1.0.4}{}}
|
||||
\newlabel{eq:approxlaplace2@cref}{{[equation][4][3,1]3.1.4}{40}}
|
||||
\newlabel{eq:kappailaplace}{{3.1.5}{40}{L'approximation de Laplace}{equation.3.1.0.5}{}}
|
||||
\newlabel{eq:kappailaplace@cref}{{[equation][5][3,1]3.1.5}{40}}
|
||||
\citation{daniels1954saddlepoint}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {3.2}L'approximation de Temme}{41}{section.3.2}}
|
||||
\newlabel{sec:lappr-de-temme}{{3.2}{41}{L'approximation de Temme}{section.3.2}{}}
|
||||
\newlabel{sec:lappr-de-temme@cref}{{[section][2][3]3.2}{41}}
|
||||
\@writefile{lof}{\contentsline {figure}{\numberline {3.2}{\ignorespaces Distribution normale tronqu\IeC {\'e}e \IeC {\`a} $w_0$\relax }}{41}{figure.caption.24}}
|
||||
\newlabel{fig:normaletronque}{{3.2}{41}{Distribution normale tronquée à $w_0$\relax }{figure.caption.24}{}}
|
||||
\newlabel{fig:normaletronque@cref}{{[figure][2][3]3.2}{41}}
|
||||
\newlabel{eq:temmeintegrale}{{3.2.2}{41}{L'approximation de Temme}{equation.3.2.0.2}{}}
|
||||
\newlabel{eq:temmeintegrale@cref}{{[equation][2][3,2]3.2.2}{41}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {3.3}La m\IeC {\'e}thode du point de selle}{42}{section.3.3}}
|
||||
\newlabel{sec:pointcolGAL}{{3.3}{42}{La méthode du point de selle}{section.3.3}{}}
|
||||
\newlabel{sec:pointcolGAL@cref}{{[section][3][3]3.3}{42}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {3.3.1}Approximation de la densit\IeC {\'e}}{42}{subsection.3.3.1}}
|
||||
\newlabel{sec:appr-de-prem}{{3.3.1}{42}{Approximation de la densité}{subsection.3.3.1}{}}
|
||||
\newlabel{sec:appr-de-prem@cref}{{[subsection][1][3,3]3.3.1}{42}}
|
||||
\newlabel{eq:FGMdefinitionsaddle}{{3.3.1}{42}{Approximation de la densité}{equation.3.3.0.1}{}}
|
||||
\newlabel{eq:FGMdefinitionsaddle@cref}{{[equation][1][3,3]3.3.1}{42}}
|
||||
\newlabel{eq:FGMdaniels}{{3.3.2}{42}{Approximation de la densité}{equation.3.3.0.2}{}}
|
||||
\newlabel{eq:FGMdaniels@cref}{{[equation][2][3,3]3.3.2}{42}}
|
||||
\newlabel{eq:laplacesaddle1}{{3.3.4}{42}{Approximation de la densité}{equation.3.3.0.4}{}}
|
||||
\newlabel{eq:laplacesaddle1@cref}{{[equation][4][3,3]3.3.4}{42}}
|
||||
\newlabel{eq:premierordresaddle}{{3.3.5}{42}{Approximation de la densité}{equation.3.3.0.5}{}}
|
||||
\newlabel{eq:premierordresaddle@cref}{{[equation][5][3,3]3.3.5}{42}}
|
||||
\newlabel{eq:secondordresaddle}{{3.3.6}{43}{Approximation de la densité}{equation.3.3.0.6}{}}
|
||||
\newlabel{eq:secondordresaddle@cref}{{[equation][6][3,3]3.3.6}{43}}
|
||||
\newlabel{eq:lnfysaddlelaplace}{{3.3.7}{43}{Approximation de la densité}{equation.3.3.0.7}{}}
|
||||
\newlabel{eq:lnfysaddlelaplace@cref}{{[equation][7][3,3]3.3.7}{43}}
|
||||
\newlabel{eq:dlnfysaddlelaplace}{{3.3.8}{43}{Approximation de la densité}{equation.3.3.0.8}{}}
|
||||
\newlabel{eq:dlnfysaddlelaplace@cref}{{[equation][8][3,3]3.3.8}{43}}
|
||||
\newlabel{eq:premierodreapprox}{{3.3.9}{43}{Approximation de la densité}{equation.3.3.0.9}{}}
|
||||
\newlabel{eq:premierodreapprox@cref}{{[equation][9][3,3]3.3.9}{43}}
|
||||
\newlabel{eq:saddlepoint}{{3.3.10}{43}{Approximation de la densité}{equation.3.3.0.10}{}}
|
||||
\newlabel{eq:saddlepoint@cref}{{[equation][10][3,3]3.3.10}{43}}
|
||||
\newlabel{eq:deriveesecondesaddlepoint}{{3.3.11}{43}{Approximation de la densité}{equation.3.3.0.11}{}}
|
||||
\newlabel{eq:deriveesecondesaddlepoint@cref}{{[equation][11][3,3]3.3.11}{43}}
|
||||
\newlabel{eq:approximationsaddlepointordre1}{{3.3.12}{43}{Approximation de la densité}{equation.3.3.0.12}{}}
|
||||
\newlabel{eq:approximationsaddlepointordre1@cref}{{[equation][12][3,3]3.3.12}{43}}
|
||||
\citation{daniels1954saddlepoint}
|
||||
\newlabel{eq:normalisationsaddle}{{3.3.13}{44}{Approximation de la densité}{equation.3.3.0.13.13}{}}
|
||||
\newlabel{eq:normalisationsaddle@cref}{{[equation][13][3,3]3.3.13}{44}}
|
||||
\newlabel{eq:normalisationsaddle1}{{3.3.13a}{44}{Approximation de la densité}{equation.3.3.0.13a}{}}
|
||||
\newlabel{eq:normalisationsaddle1@cref}{{[equation][1][3,3,13]3.3.13a}{44}}
|
||||
\newlabel{eq:normalisationsaddle2}{{3.3.13b}{44}{Approximation de la densité}{equation.3.3.0.13b}{}}
|
||||
\newlabel{eq:normalisationsaddle2@cref}{{[equation][2][3,3,13]3.3.13b}{44}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {3.3.2}Unicit\IeC {\'e} du point de selle}{44}{subsection.3.3.2}}
|
||||
\newlabel{sec:unicite-du-point}{{3.3.2}{44}{Unicité du point de selle}{subsection.3.3.2}{}}
|
||||
\newlabel{sec:unicite-du-point@cref}{{[subsection][2][3,3]3.3.2}{44}}
|
||||
\newlabel{eq:limitesderiveeK}{{3.3.14}{44}{Unicité du point de selle}{equation.3.3.0.14}{}}
|
||||
\newlabel{eq:limitesderiveeK@cref}{{[equation][14][3,3]3.3.14}{44}}
|
||||
\newlabel{eq:6}{{3.3.16}{44}{Unicité du point de selle}{equation.3.3.0.16}{}}
|
||||
\newlabel{eq:6@cref}{{[equation][16][3,3]3.3.16}{44}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {3.3.3}Approximation de la fonction de r\IeC {\'e}partition}{44}{subsection.3.3.3}}
|
||||
\newlabel{sec:appr-de-prem-1}{{3.3.3}{44}{Approximation de la fonction de répartition}{subsection.3.3.3}{}}
|
||||
\newlabel{sec:appr-de-prem-1@cref}{{[subsection][3][3,3]3.3.3}{44}}
|
||||
\newlabel{eq:chengementytow}{{3.3.17}{45}{Approximation de la fonction de répartition}{equation.3.3.0.17}{}}
|
||||
\newlabel{eq:chengementytow@cref}{{[equation][17][3,3]3.3.17}{45}}
|
||||
\newlabel{eq:derivchengementytow}{{3.3.18}{45}{Approximation de la fonction de répartition}{equation.3.3.0.18}{}}
|
||||
\newlabel{eq:derivchengementytow@cref}{{[equation][18][3,3]3.3.18}{45}}
|
||||
\newlabel{eq:approxintegraleREPordre1}{{3.3.19}{45}{Approximation de la fonction de répartition}{equation.3.3.0.19}{}}
|
||||
\newlabel{eq:approxintegraleREPordre1@cref}{{[equation][19][3,3]3.3.19}{45}}
|
||||
\newlabel{eq:approximationsaddlepointREPordre1}{{3.3.20}{45}{Approximation de la fonction de répartition}{equation.3.3.0.20}{}}
|
||||
\newlabel{eq:approximationsaddlepointREPordre1@cref}{{[equation][20][3,3]3.3.20}{45}}
|
||||
\newlabel{eq:wuysaddlerepart2}{{3.3.21}{45}{Approximation de la fonction de répartition}{equation.3.3.0.21.21}{}}
|
||||
\newlabel{eq:wuysaddlerepart2@cref}{{[equation][21][3,3]3.3.21}{45}}
|
||||
\newlabel{eq:wysaddlerepart2}{{3.3.21a}{45}{Approximation de la fonction de répartition}{equation.3.3.0.21a}{}}
|
||||
\newlabel{eq:wysaddlerepart2@cref}{{[equation][1][3,3,21]3.3.21a}{45}}
|
||||
\newlabel{eq:uysaddlerepart2}{{3.3.21b}{45}{Approximation de la fonction de répartition}{equation.3.3.0.21b}{}}
|
||||
\newlabel{eq:uysaddlerepart2@cref}{{[equation][2][3,3,21]3.3.21b}{45}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {3.3.4}Quelques propri\IeC {\'e}t\IeC {\'e}s des approximations}{45}{subsection.3.3.4}}
|
||||
\newlabel{sec:proprietesaddle}{{3.3.4}{45}{Quelques propriétés des approximations}{subsection.3.3.4}{}}
|
||||
\newlabel{sec:proprietesaddle@cref}{{[subsection][4][3,3]3.3.4}{45}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {3.4}Application de la m\IeC {\'e}thode du point de selle}{46}{section.3.4}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {3.4.1}Approximation de la densit\IeC {\'e}}{46}{subsection.3.4.1}}
|
||||
\newlabel{sec:applicationsaddleGAL}{{3.4.1}{46}{Approximation de la densité}{subsection.3.4.1}{}}
|
||||
\newlabel{sec:applicationsaddleGAL@cref}{{[subsection][1][3,4]3.4.1}{46}}
|
||||
\newlabel{eq:derivcumulantGAL1}{{3.4.1}{46}{Approximation de la densité}{equation.3.4.0.1}{}}
|
||||
\newlabel{eq:derivcumulantGAL1@cref}{{[equation][1][3,4]3.4.1}{46}}
|
||||
\newlabel{eq:saddlepointGAL}{{3.4.3}{46}{Approximation de la densité}{equation.3.4.0.3}{}}
|
||||
\newlabel{eq:saddlepointGAL@cref}{{[equation][3][3,4]3.4.3}{46}}
|
||||
\newlabel{eq:derivcumulantGAL2}{{3.4.4}{47}{Approximation de la densité}{equation.3.4.0.4}{}}
|
||||
\newlabel{eq:derivcumulantGAL2@cref}{{[equation][4][3,4]3.4.4}{47}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {3.4.2}Approximation de la fonction de r\IeC {\'e}partition}{47}{subsection.3.4.2}}
|
||||
\@setckpt{chapitre3}{
|
||||
\setcounter{page}{48}
|
||||
\setcounter{equation}{4}
|
||||
\setcounter{enumi}{3}
|
||||
\setcounter{enumii}{2}
|
||||
\setcounter{enumiii}{0}
|
||||
\setcounter{enumiv}{0}
|
||||
\setcounter{footnote}{0}
|
||||
\setcounter{mpfootnote}{0}
|
||||
\setcounter{@memmarkcntra}{0}
|
||||
\setcounter{storedpagenumber}{1}
|
||||
\setcounter{book}{0}
|
||||
\setcounter{part}{0}
|
||||
\setcounter{chapter}{3}
|
||||
\setcounter{section}{4}
|
||||
\setcounter{subsection}{2}
|
||||
\setcounter{subsubsection}{0}
|
||||
\setcounter{paragraph}{0}
|
||||
\setcounter{subparagraph}{0}
|
||||
\setcounter{@ppsavesec}{0}
|
||||
\setcounter{@ppsaveapp}{0}
|
||||
\setcounter{vslineno}{0}
|
||||
\setcounter{poemline}{0}
|
||||
\setcounter{modulo@vs}{0}
|
||||
\setcounter{memfvsline}{0}
|
||||
\setcounter{verse}{0}
|
||||
\setcounter{chrsinstr}{0}
|
||||
\setcounter{poem}{0}
|
||||
\setcounter{newflo@tctr}{4}
|
||||
\setcounter{@contsubnum}{0}
|
||||
\setcounter{maxsecnumdepth}{2}
|
||||
\setcounter{sidefootnote}{0}
|
||||
\setcounter{pagenote}{0}
|
||||
\setcounter{pagenoteshadow}{0}
|
||||
\setcounter{memfbvline}{0}
|
||||
\setcounter{bvlinectr}{0}
|
||||
\setcounter{cp@cntr}{0}
|
||||
\setcounter{ism@mctr}{0}
|
||||
\setcounter{xsm@mctr}{0}
|
||||
\setcounter{csm@mctr}{0}
|
||||
\setcounter{ksm@mctr}{0}
|
||||
\setcounter{xksm@mctr}{0}
|
||||
\setcounter{cksm@mctr}{0}
|
||||
\setcounter{msm@mctr}{0}
|
||||
\setcounter{xmsm@mctr}{0}
|
||||
\setcounter{cmsm@mctr}{0}
|
||||
\setcounter{bsm@mctr}{0}
|
||||
\setcounter{workm@mctr}{0}
|
||||
\setcounter{sheetsequence}{66}
|
||||
\setcounter{lastsheet}{155}
|
||||
\setcounter{lastpage}{137}
|
||||
\setcounter{figure}{2}
|
||||
\setcounter{lofdepth}{1}
|
||||
\setcounter{table}{0}
|
||||
\setcounter{lotdepth}{1}
|
||||
\setcounter{NAT@ctr}{0}
|
||||
\setcounter{nprt@mantissa@digitsbefore}{0}
|
||||
\setcounter{nprt@mantissa@digitsafter}{0}
|
||||
\setcounter{nprt@exponent@digitsbefore}{0}
|
||||
\setcounter{nprt@exponent@digitsafter}{0}
|
||||
\setcounter{nprt@digitsfirstblock}{0}
|
||||
\setcounter{nprt@blockcnt}{0}
|
||||
\setcounter{nprt@cntprint}{0}
|
||||
\setcounter{parentequation}{0}
|
||||
\setcounter{thmt@dummyctr}{3}
|
||||
\setcounter{Item}{16}
|
||||
\setcounter{Hfootnote}{1}
|
||||
\setcounter{memhycontfloat}{0}
|
||||
\setcounter{Hpagenote}{0}
|
||||
\setcounter{bookmark@seq@number}{48}
|
||||
\setcounter{ContinuedFloat}{0}
|
||||
\setcounter{app@runs}{1}
|
||||
\setcounter{pspicture}{0}
|
||||
\setcounter{section@level}{0}
|
||||
\setcounter{theo}{0}
|
||||
\setcounter{hypothese}{0}
|
||||
}
|
631
memoire/chapitre3.tex
Normal file
631
memoire/chapitre3.tex
Normal file
|
@ -0,0 +1,631 @@
|
|||
\chapter{Approximation de la densité et de la fonction de
|
||||
répartition} % numéroté
|
||||
|
||||
Il existe plusieurs situations où il n'est pas possible d'obtenir une
|
||||
forme analytique des fonctions de densité et de répartition de la
|
||||
distribution d'une variable aléatoire. C'est particulièrement le cas
|
||||
pour la majorité des distributions issues d'un processus de Lévy, des
|
||||
sommes de longueur finie ou aléatoire de variables aléatoires et des
|
||||
mélanges de distributions. Cependant, dans la majorité de ces cas, il
|
||||
est facile d'obtenir la fonction caractéristique ou encore la fonction
|
||||
génératrice des moments. D'ailleurs, il pourrait être intéressant
|
||||
d'utiliser l'intégration numérique afin d'obtenir les transformées de
|
||||
Fourier ou de Laplace de ces fonctions. Par contre, la convergence de
|
||||
ces méthodes d'intégration est souvent lente, c'est-à-dire qu'il faut
|
||||
un pas de discrétisation très fin afin d'obtenir une approximation
|
||||
satisfaisante \citep{lugannani1980saddle}. Il est aussi possible
|
||||
d'utiliser l'algorithme de la transformée de Fourier rapide, mais
|
||||
celui-ci a comme désavantage d'être très peu précis dans l'évaluation
|
||||
des probabilités aux extrémités du support de la densité (figure
|
||||
\ref{fig:probdroite}).
|
||||
\begin{figure}[!ht]
|
||||
\centering \input{../graphiques/probdroite.tex}
|
||||
\caption{Probabilité à l'extrémité du support}
|
||||
\label{fig:probdroite}
|
||||
\end{figure}
|
||||
|
||||
C'est dans cette optique qu'ont été développées les approximations par
|
||||
la méthode du point de selle. Puisque celle-ci requiert l'utilisation
|
||||
de l'approximation de Laplace pour la fonction de densité et de
|
||||
l'approximation de Temme pour la fonction de répartition, on les
|
||||
introduit avant de développer la méthode à proprement parler. Il est à
|
||||
noter que la majorité de ces démonstrations sont tirées de
|
||||
\cite{butler2007saddlepoint} qui présente une monographie assez
|
||||
complète sur la méthode du point de selle.
|
||||
|
||||
\section{L'approximation de Laplace}
|
||||
\label{sec:appr-de-lapl}
|
||||
|
||||
L'approximation de Laplace sera utilisée afin de développer la méthode
|
||||
du point de selle pour la fonction de densité. Soit $g(x)$, une
|
||||
fonction régulière sur l'intervalle $\left[c,d\right]$ ayant un
|
||||
minimum global au point $\hat{x} \in
|
||||
\left]c,d\right]$. L'approximation de Laplace de premier ordre prend
|
||||
la forme suivante:
|
||||
\begin{align}
|
||||
\label{eq:approxlaplace1}
|
||||
\int_{c}^{d} e^{-g(x)}dx &\approx
|
||||
\frac{\sqrt{2\pi}e^{-g(\hat{x})}}{\sqrt{g^{\prime\prime}(\hat{x})}}.
|
||||
\end{align}
|
||||
|
||||
La démonstration se fait facilement en utilisant le développement de
|
||||
Taylor de $g(x)$ autour du point $\hat{x}$:
|
||||
\begin{align}
|
||||
\label{eq:taylorgx}
|
||||
g(x) &= g(\hat{x}) + g^{\prime}(\hat{x})(x-\hat{x}) + \frac{1}{2}
|
||||
g^{\prime\prime}(\hat{x})(x-\hat{x})^2 + R.
|
||||
\end{align}
|
||||
|
||||
La valeur $R$ représente le reste du développement et est une quantité
|
||||
relativement petite. Comme $\hat{x}$ est un minimum local, alors la
|
||||
dérivée première $g^{\prime}(\hat{x})$ vaut $0$ et la dérivée seconde
|
||||
$g^{\prime\prime}(\hat{x})$ est supérieure à 0. On obtient donc
|
||||
l'intégrale suivante, qui ressemble à celle de la fonction de
|
||||
répartition de la distribution normale:
|
||||
\begin{align}
|
||||
\label{eq:integraleapproxlaplace1}
|
||||
e^{-g(\hat{x})}\int_{c}^{d}
|
||||
\exp{\left\{-\frac{1}{2}g^{\prime\prime}(\hat{x})(x-\hat{x})^2
|
||||
\right\}}dx &\approx e^{-g(\hat{x})}
|
||||
\sqrt{\frac{2\pi}{g^{\prime\prime}(\hat{x})}}.
|
||||
\end{align}
|
||||
|
||||
En utilisant un terme de plus du développement de Taylor
|
||||
\eqref{eq:taylorgx}, on obtient l'approximation de Laplace de second
|
||||
ordre, qui a une plus grande précision:
|
||||
\begin{align}
|
||||
\label{eq:approxlaplace2}
|
||||
\int_{c}^{d} e^{-g(x)}dx &\approx
|
||||
\frac{\sqrt{2\pi}e^{-g(\hat{x})}}{\sqrt{g^{\prime\prime}(\hat{x})}}\left\{\frac{5}{24}\hat{\kappa}_3^2
|
||||
- \frac{1}{8} \hat{\kappa}_4 \right\}
|
||||
\end{align}
|
||||
|
||||
où
|
||||
\begin{align}
|
||||
\hat{\kappa}_i &=
|
||||
\frac{g^{(i)}(\hat{x})}{\left\{g^{\prime\prime}(\hat{x})\right\}^{i/2}}
|
||||
,\quad i\geq 3 \label{eq:kappailaplace}.
|
||||
\end{align}
|
||||
|
||||
\section{L'approximation de Temme}
|
||||
\label{sec:lappr-de-temme}
|
||||
|
||||
L'approximation de Temme sera utilisée afin de dériver la méthode du
|
||||
point de selle pour la fonction de répartition. On considère une
|
||||
variable aléatoire $Z_{w_0}$ de distribution normale standard tronquée
|
||||
de telle sorte qu'elle ne puisse prendre des valeurs supérieures au
|
||||
point $w_0$.
|
||||
\begin{figure}[!ht]
|
||||
\centering \input{../graphiques/normaletronque.tex}
|
||||
\caption{Distribution normale tronquée à $w_0$}
|
||||
\label{fig:normaletronque}
|
||||
\end{figure}
|
||||
|
||||
On définit l'espérance d'une fonction $h$ de cette variable aléatoire,
|
||||
à partir des fonctions de densité $\phi(w)$ et de répartition
|
||||
$\Phi(w)$ de la loi normale, comme suit:
|
||||
\begin{align}
|
||||
E[h(Z_{w_0})] &= \frac{\int_{-\infty}^{w_0} h(w)\phi(w)
|
||||
dw}{\Phi(w_0)}.
|
||||
\end{align}
|
||||
|
||||
Une approximation du numérateur est donnée par le développement
|
||||
suivant:
|
||||
\begin{align*}
|
||||
\int_{-\infty}^{w_0} h(w)\phi(w) dw &= h(0)\Phi(w_0)+\int_{-\infty}^{w_0} \frac{h(w)-h(0)}{w} w\phi(w)dw \nonumber\\
|
||||
&= h(0)\Phi(w_0)-\int_{-\infty}^{w_0} \frac{h(w)-h(0)}{w} d\phi(w)\quad \mbox{(car }w\phi(w)dw = -d\phi(w) \mbox{)} \nonumber\\
|
||||
&\approx h(0)\Phi(w_0) - \left[ \frac{h(w)-h(0)}{w} \phi(w) \right]_{w=-\infty}^{w=w_0}. \nonumber\\
|
||||
\end{align*}
|
||||
|
||||
On ignore l'intégrale de l'intégration par parties, puisqu'elle prend
|
||||
une petite valeur, pour obtenir l'approximation de Temme :
|
||||
\begin{align}
|
||||
\label{eq:temmeintegrale}
|
||||
\int_{-\infty}^{w_0} h(w)\phi(w) dw &\approx h(0)\Phi(w_0) +
|
||||
\phi(w_0) \left[ \frac{h(w_0)-h(0)}{w_0} \right].
|
||||
\end{align}
|
||||
|
||||
\section{La méthode du point de selle}
|
||||
\label{sec:pointcolGAL}
|
||||
|
||||
L'approximation de la distribution d'une variable aléatoire par la
|
||||
méthode du point de selle a été introduite par
|
||||
\cite{daniels1954saddlepoint}. Il cherchait une façon d'estimer la
|
||||
distribution de la moyenne de variables aléatoires.
|
||||
|
||||
\subsection{Approximation de la densité}
|
||||
\label{sec:appr-de-prem}
|
||||
|
||||
Soit une variable aléatoire $Y$ dont on cherche à évaluer la fonction
|
||||
de densité $f_Y(y)$. Les fonctions génératrices des moments $M_Y( s)$
|
||||
et des cumulants $K_Y( s)$ sont définies de manière équivalente par
|
||||
les intégrales suivantes, où l'on cherche une forme qui permettra
|
||||
d'utiliser l'approximation de Laplace:
|
||||
\begin{align}
|
||||
M_Y( s) = e^{K_Y( s)} &= \int_{-\infty}^{\infty} e^{ s y} f_Y(y) dy \label{eq:FGMdefinitionsaddle}\\
|
||||
&= \int_{-\infty}^{\infty} e^{ s y + \ln{f_Y(y)}} dy \label{eq:FGMdaniels}\\
|
||||
&= \int_{-\infty}^{\infty} e^{-g( s,y)} dy.
|
||||
\end{align}
|
||||
|
||||
Cette intégrale doit converger pour toute valeur $s$ comprise dans un
|
||||
intervalle $\left]-c_1,c_2\right[$ contenant l'origine et où la somme
|
||||
des bornes est positive: $c_1+c_2 > 0$. Cet intervalle doit être
|
||||
choisi de sorte qu'il soit le plus grand possible. On considère pour
|
||||
l'instant que la fonction $g( s,y) = - s y - \ln{f_Y(y)}$ répond aux
|
||||
conditions de l'approximation de Laplace énoncées au début de la
|
||||
section \ref{sec:appr-de-lapl}. On obtient alors l'approximation
|
||||
suivante pour une valeur de $s$ fixée:
|
||||
\begin{align}
|
||||
\label{eq:laplacesaddle1}
|
||||
e^{K(s)} &\approx \sqrt{\frac{2\pi}{g^{\prime\prime}( s,\hat{y}_{
|
||||
s})}}e^{ s \hat{y}_{ s}} f_Y(\hat{y}_{ s}).
|
||||
\end{align}
|
||||
|
||||
La valeur $\hat{y}_{s}$ est celle qui minimise la fonction $g(s,y)$
|
||||
pour un point $s$ fixé. C'est donc la solution de la condition de
|
||||
premier ordre:
|
||||
\begin{align}
|
||||
0 &= -g^{\prime}( s,\hat{y}_{ s}) \nonumber\\
|
||||
&= s + \frac{\partial \ln{(f_Y(\hat{y}_{ s})}}{\partial \hat{y}_{ s}} \nonumber\\
|
||||
s &= - \frac{\partial \ln{(f_Y(\hat{y}_{ s})}}{\partial \hat{y}_{
|
||||
s}}. \label{eq:premierordresaddle}
|
||||
\end{align}
|
||||
|
||||
L'hypothèse posée afin de faire l'approximation est que la fonction
|
||||
$g(s)$ est convexe, ce qui implique que la dérivée seconde de celle-ci
|
||||
est positive $(\frac{\partial^2g( s,y)}{\partial y^2} > 0)$ par
|
||||
définition. On examine la relation entre le point de selle $s$ et le
|
||||
point $\hat{y}_{ s}$ déterminé par l'équation
|
||||
\eqref{eq:premierordresaddle}. En dérivant celle-ci par rapport au
|
||||
point $\hat{y}_{ s}$, on constate qu'il existe une relation croissante
|
||||
et monotone entre les deux:
|
||||
\begin{align}
|
||||
\label{eq:secondordresaddle}
|
||||
\frac{d s}{d\hat{y}_{ s}} &= - \frac{\partial^2 \ln{(f_Y(\hat{y}_{
|
||||
s})}}{\partial \hat{y}_{ s}^2} > 0.
|
||||
\end{align}
|
||||
|
||||
On doit maintenant trouver une solution de l'équation de premier ordre
|
||||
\eqref{eq:premierordresaddle}. Pour ce faire, on isole le terme
|
||||
$\ln{f_Y(y)}$ dans l'équation \eqref{eq:laplacesaddle1}:
|
||||
\begin{align}
|
||||
\label{eq:lnfysaddlelaplace}
|
||||
\ln{f_Y(y)} & \approx K( s) - s \hat{y}_{ s} - \frac{1}{2}
|
||||
\ln{\left(\frac{2\pi}{-\left(\frac{\partial^2 \ln{(f_Y(\hat{y}_{
|
||||
s}))}}{\partial \hat{y}_{ s}^2}\right)}\right)}.
|
||||
\end{align}
|
||||
|
||||
Si l'on considère que le dernier terme de la soustraction est
|
||||
relativement constant par rapport au point $\hat{y}_{ s}$, alors sa
|
||||
dérivée sera pratiquement nulle. Ce terme peut donc être négligé dans
|
||||
la prochaine étape, où on dérive \eqref{eq:lnfysaddlelaplace} par
|
||||
rapport à $y_s$:
|
||||
\begin{align}
|
||||
\frac{\partial \ln{f_Y(\hat{y}_{s})}}{\partial \hat{y}_{s}}
|
||||
&\approx \left(K^{\prime}(s) - \hat{y}_{s}\right)\frac{\partial
|
||||
s}{\partial
|
||||
\hat{y}_{s} } - s.\label{eq:dlnfysaddlelaplace}
|
||||
\end{align}
|
||||
|
||||
En combinant l'approximation \eqref{eq:dlnfysaddlelaplace} et la
|
||||
condition de premier ordre \eqref{eq:premierordresaddle}, il en
|
||||
résulte que le terme de gauche de la partie de droite est
|
||||
approximativement égal à 0:
|
||||
\begin{align}
|
||||
\label{eq:premierodreapprox}
|
||||
\left(K^{\prime}( s) - \hat{y}_{ s}\right)\frac{\partial s}{\partial
|
||||
\hat{y}_{s} } &\approx 0.
|
||||
\end{align}
|
||||
|
||||
Cela conduit donc à l'équation qui met en relation le point de
|
||||
selle $s$ et le point $\hat{y}_{ s}$:
|
||||
\begin{align}
|
||||
\label{eq:saddlepoint}
|
||||
\hat{y}_{ s} &= K^{\prime}(s).
|
||||
\end{align}
|
||||
|
||||
Enfin, la dernière relation consiste à exprimer $g^{\prime\prime}(
|
||||
s,\hat{y}_{ s})$ seulement en fonction du point de selle $s$ en
|
||||
utilisant la condition de second ordre \eqref{eq:secondordresaddle} et
|
||||
en dérivant l'équation précédente \eqref{eq:saddlepoint} en $s$:
|
||||
\begin{align}
|
||||
\label{eq:deriveesecondesaddlepoint}
|
||||
g^{\prime\prime}( s,\hat{y}_{ s}) &= - \frac{\partial^2
|
||||
\ln{(f_Y(\hat{y_{s}}))}}{\partial \hat{y}_{ s}^2} \nonumber\\
|
||||
&= \frac{d s}{d\hat{y}_{ s}} \nonumber\\
|
||||
&= \left(\frac{d\hat{y}_{ s}}{d s}\right)^{-1} \nonumber\\
|
||||
&= \left(K^{\prime\prime}( s)\right)^{-1}.
|
||||
\end{align}
|
||||
|
||||
On peut donc réécrire l'approximation de Laplace
|
||||
\eqref{eq:laplacesaddle1} en utilisant les relations
|
||||
\eqref{eq:saddlepoint} et \eqref{eq:deriveesecondesaddlepoint}:
|
||||
\begin{align}
|
||||
e^{K( s)} &\approx \sqrt{2\pi K^{\prime\prime}( s)}\exp{\left\{ s
|
||||
\hat{y}_{ s}\right\}}
|
||||
f_Y(\hat{y_{s}}) \nonumber\\
|
||||
\hat{f_Y}(y_{s}) &\approx \frac{1}{\sqrt{2\pi K^{\prime\prime}(
|
||||
\hat{s})}} \exp{\left\{K(\hat{s}) - \hat{s} y\right\}} =
|
||||
\hat{f}_Y(y).\label{eq:approximationsaddlepointordre1}
|
||||
\end{align}
|
||||
|
||||
L'équation \eqref{eq:approximationsaddlepointordre1} est une
|
||||
approximation par la méthode du point de selle de la densité de la
|
||||
variable aléatoire $Y$ au point $y_{s}$.
|
||||
|
||||
Par convention, on considère que l'approximation $\hat{f}_Y(y)$ est
|
||||
une fonction de densité, mais, elle n'en est pas exactement une
|
||||
puisqu'elle n'intègre pas à 1. Cependant, il est possible de la
|
||||
normaliser en calculant la valeur de l'intégrale de celle-ci sur le
|
||||
domaine $\chi$ de la distribution, puis en divisant l'approximation
|
||||
$\hat{f}_Y(y)$ par celle-ci:
|
||||
\begin{subequations}\label{eq:normalisationsaddle}
|
||||
\begin{align}
|
||||
c &= \int_{\chi} \hat{f}_Y(y) dy \neq 1 \label{eq:normalisationsaddle1}\\
|
||||
\overline{f}_Y(y) &= c^{-1} \hat{f}_Y(y),\quad \forall y \in
|
||||
\chi. \label{eq:normalisationsaddle2}
|
||||
\end{align}
|
||||
\end{subequations}
|
||||
|
||||
\subsection{Unicité du point de selle}
|
||||
\label{sec:unicite-du-point}
|
||||
|
||||
\cite{daniels1954saddlepoint} démontre que l'équation du point de
|
||||
selle \eqref{eq:saddlepoint} a une solution unique dans l'intervalle
|
||||
$\left[-c_1,c_2 \right]$ sélectionné précédemment lorsque $y_0$ est
|
||||
situé dans un intervalle $\left[a,b\right]$.
|
||||
|
||||
Pour ce faire, il présente une condition essentielle. Les limites
|
||||
inférieure et supérieure de la dérivée première de la fonction
|
||||
génératrice des cumulants doivent correspondre aux points $a$ et $b$
|
||||
respectivement \eqref{eq:limitesderiveeK}:
|
||||
\begin{align}
|
||||
\label{eq:limitesderiveeK}
|
||||
\lim_{s\to c_2} K'(s) = b \\
|
||||
\lim_{s\to -c_1} K'(s) = a.
|
||||
\end{align}
|
||||
|
||||
On définit la fonction génératrice des moments de la différence entre
|
||||
la variable aléatoire $Y$ et le point $y_0$ par $M(s,y)$.
|
||||
|
||||
Quand $a < y_0 < b$, la dérivée première prend la forme suivante:
|
||||
\begin{align}
|
||||
\label{eq:6}
|
||||
M'(s,y_0) = \int_{a}^{b} (y-y_0) e^{s(y-y_0)} dF(y).
|
||||
\end{align}
|
||||
|
||||
Les limites inférieure et supérieure de la fonction $M'(s,y_0)$ sont
|
||||
respectivement $M'(-\infty,y_0) = -\infty$ et $M'(\infty,y_0) =
|
||||
\infty$. De plus, la dérivée de celle-ci est toujours positive
|
||||
$M''(s,y_0)>0$. Donc, pour chaque valeur $a < y_0 < b$, une racine
|
||||
unique $\hat{s}$ de l'équation $M'(s,y_0)=0$ existe
|
||||
nécessairement. Par conséquent, l'équation du point de selle
|
||||
\eqref{eq:saddlepoint}, qui lui est équivalente, a aussi une solution
|
||||
réelle unique.
|
||||
|
||||
% \subsection{Approximation de second ordre de la densité}
|
||||
% \label{sec:appr-de-second}
|
||||
|
||||
% On reprend la définition de la fonction génératrice des moments
|
||||
% \eqref{eq:FGMdefinitionsaddle}. En réorganisant les termes, on définit
|
||||
% une fonction de densité décalée pour chaque valeur $ s \in
|
||||
% \left]a,b\right[$:
|
||||
% \begin{align}
|
||||
% \label{eq:nouvelledensiteordre2}
|
||||
% f_Y(y; s) = \exp{\left\{ s y - K( s)\right\}} f_Y(y)
|
||||
% \end{align}
|
||||
|
||||
% Cet ensemble est défini comme étant la famille de densités décalées
|
||||
% par rapport au point de selle $s$, et a été développé par
|
||||
% Esscher. Soit $Y_{ s}$ la variable aléatoire ayant cette densité, dont
|
||||
% la moyenne et la variance sont définies comme suit:
|
||||
% \begin{align}
|
||||
% E[Y_{ s}] &= K^{\prime}( s) \label{eq:moyennetilted}\\
|
||||
% Var[Y_{ s}] &= K^{\prime\prime}( s) \label{eq:vartilted}
|
||||
% \end{align}
|
||||
|
||||
% On remarque que lorsque l'on situe le point de selle à l'origine
|
||||
% $(s=0)$, on retrouve la définition usuelle des deux premiers
|
||||
% cumulants. On définit les cumulants standardisés de la variable
|
||||
% aléatoire $Y_{ s}$, qui sont basés sur les coefficients de
|
||||
% l'approximation de Laplace du second ordre \eqref{eq:kappailaplace}.
|
||||
% \begin{align}
|
||||
% \hat{\kappa}_i &=
|
||||
% \frac{K^{(i)}(\hat{x})}{\left\{K^{\prime\prime}(\hat{x})\right\}^{i/2}}
|
||||
% ,\quad i\geq 3 \label{eq:kappaitilting}
|
||||
% \end{align}
|
||||
|
||||
% On définit l'expansion d'Edgeworth d'ordre 2
|
||||
% \nocite{abramowitz1965handbook} autour de la moyenne comme étant
|
||||
% l'approximation suivante, basée sur la distribution normale
|
||||
% $\mathcal{N}(\mu,\sigma^2)$:
|
||||
% \begin{align}
|
||||
% \label{eq:edgeworthmoyenne}
|
||||
% f_Y(\mu) &\approx
|
||||
% \frac{1}{\sigma\sqrt{2\pi}}\left(1+\frac{1}{8}\kappa_4 -
|
||||
% \frac{5}{24} \kappa_3^2 \right)
|
||||
% \end{align}
|
||||
|
||||
% La technique développée par Esscher utilise indirectement cette
|
||||
% expansion. Elle consiste en deux étapes:
|
||||
% \begin{enumerate}
|
||||
% \item Représenter la fonction de densité de la variable aléatoire $Y$
|
||||
% en l'isolant dans l'expression \eqref{eq:nouvelledensiteordre2}:
|
||||
% \begin{align}
|
||||
% \label{eq:etape1esscher}
|
||||
% f_Y(y) = \exp{\left\{K( s)- s y \right\}} f_Y(y; s)
|
||||
% \end{align}
|
||||
% \item Utiliser l'expansion \eqref{eq:edgeworthmoyenne} de la densité
|
||||
% $f_Y(y; s)$ autour d'un point $ s $ optimal, qui se trouve à être la
|
||||
% moyenne de la variable $Y_{ s}$ définie par
|
||||
% \eqref{eq:moyennetilted}, ce qui revient à résoudre l'équation du
|
||||
% point de selle \eqref{eq:saddlepoint} en $s$:
|
||||
% \begin{align*}
|
||||
% E[Y_{\hat{s}}] &= K^{\prime}(\hat{s}) = y
|
||||
% \end{align*}
|
||||
% \end{enumerate}
|
||||
|
||||
% L'expansion prend donc la forme suivante en remplaçant l'écart-type
|
||||
% $\sigma$ par la variance de la variable aléatoire $Y_{ s}$, exprimée à
|
||||
% l'aide de la fonction génératrice des cumulants \eqref{eq:vartilted}.
|
||||
% \begin{align}
|
||||
% \label{eq:edgeworthordre2}
|
||||
% f_Y(y;\hat{s}) &\approx \frac{1}{\sqrt{2\pi
|
||||
% K^{\prime\prime}(\hat{s})}} \left(1+\frac{1}{8}\kappa_4(\hat{s})
|
||||
% - \frac{5}{24} \kappa_3^2(\hat{s}) \right)
|
||||
% \end{align}
|
||||
% En substituant l'expansion \eqref{eq:edgeworthordre2} dans l'équation
|
||||
% \eqref{eq:etape1esscher}, on obtient l'approximation par la méthode du
|
||||
% point de selle d'ordre 2 de la densité de la variable aléatoire $Y$.
|
||||
% \begin{align}
|
||||
% \label{eq:approximationsaddlepointordre2}
|
||||
% f_Y(y) &\approx \frac{1}{\sqrt{2\pi K^{\prime\prime}(\hat{s})}}
|
||||
% \exp{\left\{K(\hat{s})-\hat{s} y \right\}}
|
||||
% \left(1+\frac{1}{8}\kappa_4(\hat{s}) - \frac{5}{24}
|
||||
% \kappa_3^2(\hat{s}) \right)
|
||||
% \end{align}
|
||||
|
||||
\subsection{Approximation de la fonction de
|
||||
répartition}
|
||||
\label{sec:appr-de-prem-1}
|
||||
|
||||
La fonction de répartition de la variable aléatoire $Y$ au point $y$
|
||||
est définie comme étant la probabilité $P(y \leq Y)$ et s'obtient en
|
||||
intégrant la densité sur l'intervalle $\left[ -\infty,y \right]$. On
|
||||
considère le changement de variable $y \mapsto \hat{w}$ défini comme
|
||||
suit:
|
||||
\begin{align}
|
||||
\label{eq:chengementytow}
|
||||
\frac{\hat{w}^2}{2} = \hat{s} y - K(\hat{s}).
|
||||
\end{align}
|
||||
|
||||
La valeur $\hat{w}_y$ est obtenue en résolvant l'équation du point de
|
||||
selle pour la racine $\hat{s}$ et en remplaçant celle-ci dans
|
||||
l'équation \eqref{eq:chengementytow}. Ce changement de variable est
|
||||
une transformation monotone, continue et croissante dont la dérivée
|
||||
est donnée par l'équation suivante:
|
||||
\begin{align}
|
||||
\label{eq:derivchengementytow}
|
||||
\frac{dy}{d\hat{w}} = \begin{cases}
|
||||
\hat{w} / \hat{s}, & \hat{s} \neq 0 \\
|
||||
\sqrt{K^{\prime\prime}(0)}, & \hat{s} = 0.
|
||||
\end{cases}
|
||||
\end{align}
|
||||
|
||||
L'approximation de premier ordre de la fonction de répartition
|
||||
s'obtient en intégrant celle de premier ordre de la densité
|
||||
\eqref{eq:approximationsaddlepointordre1} sur ce même intervalle à
|
||||
l'aide du changement de variable \eqref{eq:chengementytow}:
|
||||
\begin{align}
|
||||
\label{eq:approxintegraleREPordre1}
|
||||
F_Y(y) &\approx \int_{-\infty}^{y} \frac{1}{\sqrt{2\pi
|
||||
K^{\prime\prime}( s)}}
|
||||
\exp{\left\{K( s) - s x\right\}} dx \nonumber\\
|
||||
&= \int_{-\infty}^{y} \frac{1}{\sqrt{K^{\prime\prime}( s)}}
|
||||
\phi(\hat{w}) dx \nonumber\\
|
||||
&= \int_{-\infty}^{\hat{w}_y}
|
||||
\frac{\hat{w}}{\hat{s}\sqrt{K^{\prime\prime}( s)}}\phi(\hat{w})
|
||||
d\hat{w}.
|
||||
\end{align}
|
||||
|
||||
On applique l'approximation de Temme à l'intégrale précédente avec
|
||||
l'équation:
|
||||
\begin{align*}
|
||||
h(\hat{w})=\frac{\hat{w}}{\hat{s}\sqrt{K^{\prime\prime}( s)}}.
|
||||
\end{align*}
|
||||
|
||||
On obtient ainsi l'approximation de premier ordre de la fonction de
|
||||
répartition:
|
||||
\begin{align}
|
||||
\label{eq:approximationsaddlepointREPordre1}
|
||||
F_Y(y) &\approx \Phi(\hat{w}_y) +
|
||||
\phi(\hat{w}_y)\frac{1-h(\hat{w}_y)}{\hat{w}_y} \nonumber\\
|
||||
& \approx \Phi(\hat{w}_y) + \phi(\hat{w}_y)
|
||||
\left(\frac{1}{\hat{w}_y}-\frac{1}{\hat{u}_y} \right).
|
||||
\end{align}
|
||||
|
||||
Les deux constantes $\hat{w}_y$ et $\hat{u}_y$ sont respectivement
|
||||
définies comme suit:
|
||||
\begin{subequations}\label{eq:wuysaddlerepart2}
|
||||
\begin{align}
|
||||
\hat{w}_y &= \sgn(\hat{s})\sqrt{2\left\{\hat{s} y - K(\hat{s})\right\}} \label{eq:wysaddlerepart2}\\
|
||||
\hat{u}_y &=
|
||||
\hat{s}\sqrt{K^{\prime\prime}(\hat{s})} \label{eq:uysaddlerepart2}.
|
||||
\end{align}
|
||||
\end{subequations}
|
||||
|
||||
% \subsection{Approximation de second ordre de la fonction de
|
||||
% répartition}
|
||||
% \label{sec:appr-de-second-1}
|
||||
|
||||
% On reprend le développement précédent
|
||||
% \eqref{eq:approxintegraleREPordre1}, mais avec l'approximation de
|
||||
% second ordre de la densité \eqref{eq:approximationsaddlepointordre2}
|
||||
% \citep{daniels1987tail}.
|
||||
% \begin{align}
|
||||
% \label{eq:approxintegraleREPordre2}
|
||||
% F_Y(y) &\approx \int_{-\infty}^{y} \frac{\exp{\left\{K( s) - s
|
||||
% x\right\}}}{\sqrt{2\pi K^{\prime\prime}( s)}}
|
||||
% \left(1+\frac{1}{8}\kappa_4(\hat{s}) - \frac{5}{24}
|
||||
% \kappa_3^2(\hat{s}) \right) dx \nonumber\\
|
||||
% &= \int_{-\infty}^{\hat{w}_y}
|
||||
% \frac{\hat{w}}{\hat{s}\sqrt{K^{\prime\prime}(
|
||||
% s)}}\left(1+\frac{1}{8}\kappa_4(\hat{s}) - \frac{5}{24}
|
||||
% \kappa_3^2(\hat{s}) \right)\phi(\hat{w}) d\hat{w}
|
||||
% \end{align}
|
||||
|
||||
% La fonction à utiliser pour l'approximation de Temme est alors
|
||||
% \begin{align*}
|
||||
% h(\hat{w})=\frac{\hat{w}}{\hat{s}\sqrt{K^{\prime\prime}(
|
||||
% s)}}\left(1+\frac{1}{8}\kappa_4(\hat{s}) - \frac{5}{24}
|
||||
% \kappa_3^2(\hat{s}) \right)\phi(\hat{w})
|
||||
% \end{align*}
|
||||
|
||||
% Ainsi, on obtient l'approximation de second ordre de la fonction de
|
||||
% répartition.
|
||||
% \begin{align}
|
||||
% \label{eq:approximationsaddlepointREPordre2}
|
||||
% F_Y(y) & \approx \Phi(\hat{w}_y) + \phi(\hat{w}_y)
|
||||
% \left(\frac{1}{\hat{w}_y}-\frac{1}{\hat{u}_y}(1-\frac{1}{8}
|
||||
% \hat{\kappa}_4+\frac{5}{24}\hat{\kappa}_3^2) \right)
|
||||
% \end{align}
|
||||
|
||||
\subsection{Quelques propriétés des approximations}
|
||||
\label{sec:proprietesaddle}
|
||||
|
||||
Les approximations par la méthode du point de selle ont pour
|
||||
principale propriété de respecter le principe d'invariance. Cette
|
||||
propriété permet notamment d'obtenir une approximation de la densité
|
||||
ainsi que la fonction de répartition en utilisant des paramètres
|
||||
estimés à partir d'un échantillon de données centrées et
|
||||
réduites. Puis, elle permet d'appliquer la transformation
|
||||
linéaire $Y = \sigma{X}+\mu$, telle qu'utilisée à la section
|
||||
\ref{sec:transGAL}, tout en conservant la même approximation.
|
||||
|
||||
Une autre propriété de ces approximations est qu'elle respecte la
|
||||
symétrie de la distribution. Ainsi, lorsque la distribution est
|
||||
asymétrique, on doit s'attendre à ce que l'approximation le soit
|
||||
aussi.
|
||||
|
||||
\section{Application de la méthode du point de selle}
|
||||
|
||||
\subsection{Approximation de la densité}
|
||||
\label{sec:applicationsaddleGAL}
|
||||
|
||||
On applique la méthode du point de selle à la distribution de Laplace
|
||||
asymétrique généralisée, afin d'obtenir une approximation de la
|
||||
densité \eqref{eq:densitekotz} et aussi pouvoir représenter la
|
||||
fonction de répartition, car la première n'est pas intégrable
|
||||
analytiquement. Cependant, pour des fins de simplification, la
|
||||
paramétrisation $\mu$ sera utilisée. On rappelle qu'on peut passer
|
||||
d'une forme à l'autre à l'aide des équations \eqref{eq:mukappa} et
|
||||
\eqref{eq:kappamu}.
|
||||
|
||||
On évalue d'abord la dérivée première de la fonction génératrice des
|
||||
cumulants \eqref{eq:fgcGAL} par rapport à la variable de
|
||||
transformation $s$:
|
||||
\begin{align}
|
||||
\label{eq:derivcumulantGAL1}
|
||||
K^{\prime}_Y({s}) &=
|
||||
\frac{\partial}{\partial{s}}\ln\left(\frac{e^{\theta
|
||||
{s}}}{\left(1-\frac{1}{2} \sigma^2 {s}^2 - \mu {s}
|
||||
\right)^{\tau}}\right) \nonumber\\
|
||||
&= \frac{{\sigma}^{2}\theta{{s}}^{2}+\left(
|
||||
2\mu\theta-2{\sigma}^{2}\tau\right)
|
||||
{s}-2\theta-2\mu\tau}{{\sigma}^{2}{{s}}^{2}+2\mu{s}-2}, \\ & \quad
|
||||
\mbox{où } 1-\frac{1}{2} \sigma^2 {s}^2 - \mu {s} > 0.
|
||||
\end{align}
|
||||
|
||||
On détermine ensuite le point de selle $\hat{s}_y$ correspondant à la
|
||||
valeur $y$ pour laquelle on veut estimer la fonction de densité ou de
|
||||
répartition, à l'aide de l'équation \eqref{eq:saddlepoint} et de la
|
||||
première dérivée de la fonction génératrice des cumulants
|
||||
\eqref{eq:derivcumulantGAL1}:
|
||||
\begin{align*}
|
||||
y &= K^{\prime}_Y({\hat{s}_y}) \\
|
||||
&= \frac{{\sigma}^{2}\theta{\hat{s}_y}^{2}+\left(
|
||||
2\mu\theta-2{\sigma}^{2}\tau\right)
|
||||
{\hat{s}_y}-2\theta-2\mu\tau}{{\sigma}^{2}{{\hat{s}_y}}^{2}+2\mu{\hat{s}_y}-2}.
|
||||
\end{align*}
|
||||
|
||||
L'équation précédente a deux solutions dont une seule correspond à un
|
||||
minimum. Pour déterminer quelle solution est appropriée, on doit
|
||||
évaluer la dérivée seconde en ces deux points:
|
||||
\begin{align}
|
||||
\label{eq:saddlepointGAL}
|
||||
\hat{s}_y &=
|
||||
\frac{\pm\sqrt{2{\sigma}^{2}{{y}}^{2}+{\mu}^{2}{{y}}^{2}-4{\sigma}^{2}\theta{y}-2{\mu}^{2}\theta{y}+2{\sigma}^{2}{\theta}^{2}+{\mu}^{2}{\theta}^{2}+{\sigma}^{4}{\tau}^{2}}}{{\sigma}^{2}(y-\theta)}
|
||||
-\frac{\mu}{\sigma^{2}} -\frac{\tau}{y-\theta}.
|
||||
\end{align}
|
||||
|
||||
On évalue la dérivée seconde de la fonction génératrice des cumulants:
|
||||
\begin{align}
|
||||
\label{eq:derivcumulantGAL2}
|
||||
K^{\prime\prime}_Y({s}) &= \frac{2\left(
|
||||
{s}^{2}{\sigma}^{4}+2\mu{s}{\sigma}^{2}+2{\sigma}^{2}+2{\mu}^{2}\right)
|
||||
\tau}{{\left( {s}^{2}{\sigma}^{2}+2\mu{s}-2\right) }^{2}} > 0.
|
||||
\end{align}
|
||||
|
||||
On peut maintenant déterminer quelle valeur $\hat{s}_y$ utiliser, car
|
||||
la fonction $K^{\prime\prime}_Y({s})$ sera positive pour celle-ci. De manière équivalente, on utilise la condition
|
||||
\ref{eq:fgmGALcond}, qui permet l'existence de la fonction génératrice
|
||||
des moments, afin d'identifier plus aisément la solution unique.
|
||||
|
||||
On peut maintenant évaluer \eqref{eq:approximationsaddlepointordre1},
|
||||
pour obtenir l'approximation de premier ordre de la fonction de
|
||||
densité de la distribution de Laplace asymétrique généralisée.
|
||||
|
||||
% \subsection{Approximation de second ordre de la densité}
|
||||
|
||||
% L'évaluation de l'approximation de second ordre nécessite les
|
||||
% dérivées troisième et quatrième de la fonction génératrice des
|
||||
% cumulants:
|
||||
% \begin{align}
|
||||
% \label{eq:K3K4GAL}
|
||||
% K^{\prime\prime\prime}({s}) &= -\frac{4\tau\left( {\sigma}^{2}{s}+\mu\right) \left( {\sigma}^{4}{{s}}^{2}+2\mu{\sigma}^{2}{s}+6{\sigma}^{2}+4{\mu}^{2}\right) }{{\left( {\sigma}^{2}{{s}}^{2}+2\mu{s}-2\right) }^{3}} \\
|
||||
% K^{iv}({s}) &= \frac{12\tau\left(
|
||||
% {\sigma}^{8}{s}^{4}+4\mu{\sigma}^{6}{s}^{3}+12{\sigma}^{6}{s}^{2}+12{\mu}^{2}{\sigma}^{4}{s}^{2}+24\mu{\sigma}^{4}{s}+16{\mu}^{3}{\sigma}^{2}{s}+4{\sigma}^{4}+16{\mu}^{2}{\sigma}^{2}+8{\mu}^{4}\right)
|
||||
% }{{\left( {\sigma}^{2}{s}^{2}+2\mu{s}-2\right) }^{4}}
|
||||
% \end{align}
|
||||
|
||||
% On peut ainsi évaluer les cumulants normalisés $\kappa_3(s)$ et
|
||||
% $\kappa_4(s)$ à l'aide de la définition \eqref{eq:kappaitilting}.
|
||||
% \begin{align}
|
||||
% \kappa_3(s) &= -\frac{\sqrt{2}\left( s{\sigma}^{2}+\mu\right) \left( {s}^{2}{\sigma}^{4}+2\mu{s}{\sigma}^{2}+6{\sigma}^{2}+4{\mu}^{2}\right) \left| {s}^{2}{\sigma}^{2}+2\mu{s}-2\right| \tau}{\left( {s}^{2}{\sigma}^{2}+2\mu{s}-2\right) {\left( \left( {s}^{2}{\sigma}^{4}+2\mu{s}{\sigma}^{2}+2{\sigma}^{2}+2{\mu}^{2}\right) \tau\right) }^{\frac{3}{2}}} \label{eq:kappa3gal}\\
|
||||
% \kappa_4(s) &= \frac{3\left(
|
||||
% {s}^{4}{\sigma}^{8}+4\mu{s}^{3}{\sigma}^{6}+12{s}^{2}{\sigma}^{6}+12{\mu}^{2}{s}^{2}{\sigma}^{4}+24\mu{s}{\sigma}^{4}+4{\sigma}^{4}+16{\mu}^{3}{s}{\sigma}^{2}+16{\mu}^{2}{\sigma}^{2}+8{\mu}^{4}\right)
|
||||
% }{{\left(
|
||||
% {s}^{2}{\sigma}^{4}+2\mu{s}{\sigma}^{2}+2{\sigma}^{2}+2{\mu}^{2}\right)
|
||||
% }^{2}\tau} \label{eq:kappa4gal}
|
||||
% \end{align}
|
||||
|
||||
% En remplaçant ces valeurs dans l'équation
|
||||
% \eqref{eq:approximationsaddlepointordre2}, on obtient
|
||||
% l'approximation de second ordre de la densité de la distribution de
|
||||
% Laplace asymétrique généralisée.
|
||||
|
||||
\subsection{Approximation de la fonction de répartition}
|
||||
|
||||
En évaluant les valeurs $\hat{w}_y \mbox{ et } \hat{u}_y$
|
||||
\eqref{eq:wuysaddlerepart2} à l'aide de celles du point de selle
|
||||
\eqref{eq:saddlepointGAL}, de la fonction génératrice des cumulants
|
||||
\eqref{eq:fgcGAL} et de la dérivée seconde de cette dernière
|
||||
\eqref{eq:derivcumulantGAL2}, on obtient l'approximation de premier
|
||||
ordre de la fonction de répartition.
|
||||
|
||||
% Pour évaluer l'approximation de second ordre de la fonction de
|
||||
% répartition \eqref{eq:approximationsaddlepointREPordre2}, on reprend
|
||||
% les cumulants normalisés $\kappa_3(s) \text{ et } \kappa_4(s)$
|
||||
% \eqref{eq:kappa3gal} \eqref{eq:kappa4gal} et on les remplace dans
|
||||
% l'expression \eqref{eq:approximationsaddlepointREPordre2}.
|
||||
|
||||
Tout au long de ce chapitre, on a supposé que les paramètres de la
|
||||
distribution étaient connus. Cependant, ceux-ci doivent être estimés à
|
||||
partir des données d'un échantillon représentatif de la population
|
||||
étudiée. C'est d'ailleurs ce qui sera fait dans les chapitres
|
||||
suivants.
|
||||
|
||||
%%% Local Variables:
|
||||
%%% mode: latex
|
||||
%%% TeX-master: "gabarit-maitrise"
|
||||
%%% End:
|
264
memoire/chapitre4.aux
Normal file
264
memoire/chapitre4.aux
Normal file
|
@ -0,0 +1,264 @@
|
|||
\relax
|
||||
\providecommand\hyper@newdestlabel[2]{}
|
||||
\citation{hansen1982large}
|
||||
\citation{hamilton1994time}
|
||||
\@writefile{lof}{\addvspace {10pt}}
|
||||
\@writefile{lot}{\addvspace {10pt}}
|
||||
\@writefile{toc}{\contentsline {chapter}{\chapternumberline {4}M\IeC {\'e}thode des moments g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e}{49}{chapter.4}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {4.1}Introduction}{49}{section.4.1}}
|
||||
\newlabel{sec:intromethodeGMM}{{4.1}{49}{Introduction}{section.4.1}{}}
|
||||
\newlabel{sec:intromethodeGMM@cref}{{[section][1][4]4.1}{49}}
|
||||
\newlabel{eq:vraisemblance}{{4.1.1}{49}{Introduction}{equation.4.1.0.1}{}}
|
||||
\newlabel{eq:vraisemblance@cref}{{[equation][1][4,1]4.1.1}{49}}
|
||||
\newlabel{eq:thetavraisemblance}{{4.1.2}{49}{Introduction}{equation.4.1.0.2}{}}
|
||||
\newlabel{eq:thetavraisemblance@cref}{{[equation][2][4,1]4.1.2}{49}}
|
||||
\newlabel{eq:EEvraisemblance}{{4.1.3}{49}{Introduction}{equation.4.1.0.3}{}}
|
||||
\newlabel{eq:EEvraisemblance@cref}{{[equation][3][4,1]4.1.3}{49}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {4.1.1}M\IeC {\'e}thode classique des moments}{50}{subsection.4.1.1}}
|
||||
\newlabel{sec:methodemoments}{{4.1.1}{50}{Méthode classique des moments}{subsection.4.1.1}{}}
|
||||
\newlabel{sec:methodemoments@cref}{{[subsection][1][4,1]4.1.1}{50}}
|
||||
\newlabel{eq:momentspopulation}{{4.1.4}{50}{Méthode classique des moments}{equation.4.1.0.4}{}}
|
||||
\newlabel{eq:momentspopulation@cref}{{[equation][4][4,1]4.1.4}{50}}
|
||||
\newlabel{eq:momentsechantillon}{{4.1.5}{50}{Méthode classique des moments}{equation.4.1.0.5}{}}
|
||||
\newlabel{eq:momentsechantillon@cref}{{[equation][5][4,1]4.1.5}{50}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {4.2}M\IeC {\'e}thode des moments g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e}{50}{section.4.2}}
|
||||
\newlabel{sec:methodeGMM}{{4.2}{50}{Méthode des moments généralisée}{section.4.2}{}}
|
||||
\newlabel{sec:methodeGMM@cref}{{[section][2][4]4.2}{50}}
|
||||
\citation{hansen1982large}
|
||||
\citation{berkson1980minimum}
|
||||
\citation{wolfowitz1957minimum}
|
||||
\newlabel{eq:1}{{4.2.1}{51}{Méthode des moments généralisée}{equation.4.2.0.1}{}}
|
||||
\newlabel{eq:1@cref}{{[equation][1][4,2]4.2.1}{51}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {4.2.1}D\IeC {\'e}finition}{51}{subsection.4.2.1}}
|
||||
\newlabel{sec:definitionGMM}{{4.2.1}{51}{Définition}{subsection.4.2.1}{}}
|
||||
\newlabel{sec:definitionGMM@cref}{{[subsection][1][4,2]4.2.1}{51}}
|
||||
\newlabel{eq:def1condmoment}{{4.2.3}{51}{Définition}{equation.4.2.0.3}{}}
|
||||
\newlabel{eq:def1condmoment@cref}{{[equation][3][4,2]4.2.3}{51}}
|
||||
\newlabel{eq:estimateurfonctiongh}{{4.2.5}{51}{Définition}{equation.4.2.0.5}{}}
|
||||
\newlabel{eq:estimateurfonctiongh@cref}{{[equation][5][4,2]4.2.5}{51}}
|
||||
\citation{hansen1982large}
|
||||
\newlabel{eq:objectifGMM1}{{4.2.6}{52}{Définition}{equation.4.2.0.6}{}}
|
||||
\newlabel{eq:objectifGMM1@cref}{{[equation][6][4,2]4.2.6}{52}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {4.2.2}Convergence}{52}{subsection.4.2.2}}
|
||||
\newlabel{sec:convergenceGMM}{{4.2.2}{52}{Convergence}{subsection.4.2.2}{}}
|
||||
\newlabel{sec:convergenceGMM@cref}{{[subsection][2][4,2]4.2.2}{52}}
|
||||
\newlabel{eq:paramegalecondmomentsGMM}{{4.2.7}{52}{Convergence}{equation.4.2.0.7}{}}
|
||||
\newlabel{eq:paramegalecondmomentsGMM@cref}{{[equation][7][4,2]4.2.7}{52}}
|
||||
\newlabel{eq:normequadratique}{{4.2.8}{52}{Convergence}{equation.4.2.0.8}{}}
|
||||
\newlabel{eq:normequadratique@cref}{{[equation][8][4,2]4.2.8}{52}}
|
||||
\newlabel{eq:conditionGMM1.1}{{4.2.9}{52}{Convergence}{equation.4.2.0.9}{}}
|
||||
\newlabel{eq:conditionGMM1.1@cref}{{[equation][9][4,2]4.2.9}{52}}
|
||||
\newlabel{eq:conditionGMM1.2}{{4.2.10}{53}{Convergence}{equation.4.2.0.10}{}}
|
||||
\newlabel{eq:conditionGMM1.2@cref}{{[equation][10][4,2]4.2.10}{53}}
|
||||
\newlabel{eq:conditionGMM2.1}{{4.2.11}{53}{Convergence}{equation.4.2.0.11}{}}
|
||||
\newlabel{eq:conditionGMM2.1@cref}{{[equation][11][4,2]4.2.11}{53}}
|
||||
\newlabel{eq:conditionGMM2.2}{{4.2.12}{53}{Convergence}{equation.4.2.0.12}{}}
|
||||
\newlabel{eq:conditionGMM2.2@cref}{{[equation][12][4,2]4.2.12}{53}}
|
||||
\newlabel{eq:estimateurGMM}{{4.2.13}{53}{Convergence}{equation.4.2.0.13}{}}
|
||||
\newlabel{eq:estimateurGMM@cref}{{[equation][13][4,2]4.2.13}{53}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {4.2.3}Matrice de pond\IeC {\'e}ration optimale}{53}{subsection.4.2.3}}
|
||||
\newlabel{sec:matriceWoptimaleGMM}{{4.2.3}{53}{Matrice de pondération optimale}{subsection.4.2.3}{}}
|
||||
\newlabel{sec:matriceWoptimaleGMM@cref}{{[subsection][3][4,2]4.2.3}{53}}
|
||||
\newlabel{eq:matricevcov1}{{4.2.14}{53}{Matrice de pondération optimale}{equation.4.2.0.14}{}}
|
||||
\newlabel{eq:matricevcov1@cref}{{[equation][14][4,2]4.2.14}{53}}
|
||||
\citation{hamilton1994time}
|
||||
\citation{wooldridge2001econometric}
|
||||
\citation{hall2005generalized}
|
||||
\newlabel{eq:matriceWinvercevcov}{{4.2.16}{54}{Matrice de pondération optimale}{equation.4.2.0.16}{}}
|
||||
\newlabel{eq:matriceWinvercevcov@cref}{{[equation][16][4,2]4.2.16}{54}}
|
||||
\newlabel{eq:objectifGMM2}{{4.2.17}{54}{Matrice de pondération optimale}{equation.4.2.0.17}{}}
|
||||
\newlabel{eq:objectifGMM2@cref}{{[equation][17][4,2]4.2.17}{54}}
|
||||
\newlabel{eq:estimateurGMM2}{{4.2.18}{54}{Matrice de pondération optimale}{equation.4.2.0.18}{}}
|
||||
\newlabel{eq:estimateurGMM2@cref}{{[equation][18][4,2]4.2.18}{54}}
|
||||
\newlabel{eq:matponderationproduith}{{4.2.19}{54}{Matrice de pondération optimale}{equation.4.2.0.19}{}}
|
||||
\newlabel{eq:matponderationproduith@cref}{{[equation][19][4,2]4.2.19}{54}}
|
||||
\newlabel{eq:matvcovGMM}{{4.2.21}{54}{Matrice de pondération optimale}{equation.4.2.0.21}{}}
|
||||
\newlabel{eq:matvcovGMM@cref}{{[equation][21][4,2]4.2.21}{54}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {4.2.4}M\IeC {\'e}thode des moments g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e it\IeC {\'e}rative}{55}{subsection.4.2.4}}
|
||||
\newlabel{sec:GMMtwostep}{{4.2.4}{55}{Méthode des moments généralisée itérative}{subsection.4.2.4}{}}
|
||||
\newlabel{sec:GMMtwostep@cref}{{[subsection][4][4,2]4.2.4}{55}}
|
||||
\newlabel{eq:criterearret}{{4.2.23}{55}{Méthode des moments généralisée itérative}{equation.4.2.0.23}{}}
|
||||
\newlabel{eq:criterearret@cref}{{[equation][23][4,2]4.2.23}{55}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {4.2.5}Distribution asymptotique des estimateurs}{55}{subsection.4.2.5}}
|
||||
\newlabel{sec:matvcovGMM}{{4.2.5}{55}{Distribution asymptotique des estimateurs}{subsection.4.2.5}{}}
|
||||
\newlabel{sec:matvcovGMM@cref}{{[subsection][5][4,2]4.2.5}{55}}
|
||||
\newlabel{eq:premierordreGMM}{{4.2.24}{55}{Distribution asymptotique des estimateurs}{equation.4.2.0.24}{}}
|
||||
\newlabel{eq:premierordreGMM@cref}{{[equation][24][4,2]4.2.24}{55}}
|
||||
\citation{gourieroux1989statistique}
|
||||
\newlabel{eq:gradientGMM}{{4.2.25}{56}{Distribution asymptotique des estimateurs}{equation.4.2.0.25}{}}
|
||||
\newlabel{eq:gradientGMM@cref}{{[equation][25][4,2]4.2.25}{56}}
|
||||
\newlabel{eq:TCL-GMM}{{4.2.26}{56}{Distribution asymptotique des estimateurs}{equation.4.2.0.26}{}}
|
||||
\newlabel{eq:TCL-GMM@cref}{{[equation][26][4,2]4.2.26}{56}}
|
||||
\newlabel{eq:varasympt.1}{{4.2.27}{56}{Distribution asymptotique des estimateurs}{equation.4.2.0.27}{}}
|
||||
\newlabel{eq:varasympt.1@cref}{{[equation][27][4,2]4.2.27}{56}}
|
||||
\newlabel{eq:varasympt.3}{{4.2.28}{56}{Distribution asymptotique des estimateurs}{equation.4.2.0.28}{}}
|
||||
\newlabel{eq:varasympt.3@cref}{{[equation][28][4,2]4.2.28}{56}}
|
||||
\newlabel{eq:taylorfonction.g}{{4.2.29}{57}{Distribution asymptotique des estimateurs}{equation.4.2.0.29}{}}
|
||||
\newlabel{eq:taylorfonction.g@cref}{{[equation][29][4,2]4.2.29}{57}}
|
||||
\newlabel{eq:taylorfonction.gprod}{{4.2.30}{57}{Distribution asymptotique des estimateurs}{equation.4.2.0.30}{}}
|
||||
\newlabel{eq:taylorfonction.gprod@cref}{{[equation][30][4,2]4.2.30}{57}}
|
||||
\newlabel{eq:taylorfonction.gprod2}{{4.2.31}{57}{Distribution asymptotique des estimateurs}{equation.4.2.0.31}{}}
|
||||
\newlabel{eq:taylorfonction.gprod2@cref}{{[equation][31][4,2]4.2.31}{57}}
|
||||
\newlabel{eq:taylorfonction.gprod3}{{4.2.32}{57}{Distribution asymptotique des estimateurs}{equation.4.2.0.32}{}}
|
||||
\newlabel{eq:taylorfonction.gprod3@cref}{{[equation][32][4,2]4.2.32}{57}}
|
||||
\newlabel{eq:taylorfonction.gprod4}{{4.2.33}{57}{Distribution asymptotique des estimateurs}{equation.4.2.0.33}{}}
|
||||
\newlabel{eq:taylorfonction.gprod4@cref}{{[equation][33][4,2]4.2.33}{57}}
|
||||
\newlabel{matricevcovparamGMMnc}{{4.2.35}{58}{Distribution asymptotique des estimateurs}{equation.4.2.0.35}{}}
|
||||
\newlabel{matricevcovparamGMMnc@cref}{{[equation][35][4,2]4.2.35}{58}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {4.3}Estimation sous contraintes}{58}{section.4.3}}
|
||||
\newlabel{sec:estimGMMcontraint}{{4.3}{58}{Estimation sous contraintes}{section.4.3}{}}
|
||||
\newlabel{sec:estimGMMcontraint@cref}{{[section][3][4]4.3}{58}}
|
||||
\newlabel{eq:contraintelin0}{{4.3.1}{58}{Estimation sous contraintes}{equation.4.3.0.1}{}}
|
||||
\newlabel{eq:contraintelin0@cref}{{[equation][1][4,3]4.3.1}{58}}
|
||||
\newlabel{eq:contraintelin}{{4.3.2}{58}{Estimation sous contraintes}{equation.4.3.0.2}{}}
|
||||
\newlabel{eq:contraintelin@cref}{{[equation][2][4,3]4.3.2}{58}}
|
||||
\newlabel{eq:gradientcontrainte}{{4.3.3}{58}{Estimation sous contraintes}{equation.4.3.0.3}{}}
|
||||
\newlabel{eq:gradientcontrainte@cref}{{[equation][3][4,3]4.3.3}{58}}
|
||||
\newlabel{eq:estimateurGMMlagrange}{{4.3.4}{59}{Estimation sous contraintes}{equation.4.3.0.4}{}}
|
||||
\newlabel{eq:estimateurGMMlagrange@cref}{{[equation][4][4,3]4.3.4}{59}}
|
||||
\newlabel{eq:lagrangienGMMcontraint}{{4.3.5}{59}{Estimation sous contraintes}{equation.4.3.0.5}{}}
|
||||
\newlabel{eq:lagrangienGMMcontraint@cref}{{[equation][5][4,3]4.3.5}{59}}
|
||||
\newlabel{eq:premierordreGMMlagrange1}{{4.3.6}{59}{Estimation sous contraintes}{equation.4.3.0.6}{}}
|
||||
\newlabel{eq:premierordreGMMlagrange1@cref}{{[equation][6][4,3]4.3.6}{59}}
|
||||
\newlabel{eq:premierordreGMMlagrange2}{{4.3.7}{59}{Estimation sous contraintes}{equation.4.3.0.7}{}}
|
||||
\newlabel{eq:premierordreGMMlagrange2@cref}{{[equation][7][4,3]4.3.7}{59}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {4.3.1}Distribution asymptotique des estimateurs contraints}{59}{subsection.4.3.1}}
|
||||
\newlabel{sec:matvcovGMMconst}{{4.3.1}{59}{Distribution asymptotique des estimateurs contraints}{subsection.4.3.1}{}}
|
||||
\newlabel{sec:matvcovGMMconst@cref}{{[subsection][1][4,3]4.3.1}{59}}
|
||||
\newlabel{eq:premierordreGMMlagrange1.1-2}{{4.3.8}{59}{Distribution asymptotique des estimateurs contraints}{equation.4.3.0.8.8}{}}
|
||||
\newlabel{eq:premierordreGMMlagrange1.1-2@cref}{{[equation][8][4,3]4.3.8}{59}}
|
||||
\newlabel{eq:premierordreGMMlagrange1.1}{{4.3.8a}{59}{Distribution asymptotique des estimateurs contraints}{equation.4.3.0.8a}{}}
|
||||
\newlabel{eq:premierordreGMMlagrange1.1@cref}{{[equation][1][4,3,8]4.3.8a}{59}}
|
||||
\newlabel{eq:premierordreGMMlagrange1.2}{{4.3.8b}{59}{Distribution asymptotique des estimateurs contraints}{equation.4.3.0.8b}{}}
|
||||
\newlabel{eq:premierordreGMMlagrange1.2@cref}{{[equation][2][4,3,8]4.3.8b}{59}}
|
||||
\newlabel{eq:fisherJGMMlagrange}{{4.3.9}{59}{Distribution asymptotique des estimateurs contraints}{equation.4.3.0.9}{}}
|
||||
\newlabel{eq:fisherJGMMlagrange@cref}{{[equation][9][4,3]4.3.9}{59}}
|
||||
\newlabel{eq:premierordreGMMnc1.1}{{4.3.10}{60}{Distribution asymptotique des estimateurs contraints}{equation.4.3.0.10}{}}
|
||||
\newlabel{eq:premierordreGMMnc1.1@cref}{{[equation][10][4,3]4.3.10}{60}}
|
||||
\newlabel{eq:premierordreGMMlagrange2.1}{{4.3.11}{60}{Distribution asymptotique des estimateurs contraints}{equation.4.3.0.11}{}}
|
||||
\newlabel{eq:premierordreGMMlagrange2.1@cref}{{[equation][11][4,3]4.3.11}{60}}
|
||||
\newlabel{eq:premierordreGMMlagrange2.2}{{4.3.12}{60}{Distribution asymptotique des estimateurs contraints}{equation.4.3.0.12}{}}
|
||||
\newlabel{eq:premierordreGMMlagrange2.2@cref}{{[equation][12][4,3]4.3.12}{60}}
|
||||
\newlabel{eq:premierordreGMMlagrange3.1}{{4.3.13}{60}{Distribution asymptotique des estimateurs contraints}{equation.4.3.0.13}{}}
|
||||
\newlabel{eq:premierordreGMMlagrange3.1@cref}{{[equation][13][4,3]4.3.13}{60}}
|
||||
\newlabel{eq:premierordreGMMlagrange3.2}{{4.3.14}{60}{Distribution asymptotique des estimateurs contraints}{equation.4.3.0.14}{}}
|
||||
\newlabel{eq:premierordreGMMlagrange3.2@cref}{{[equation][14][4,3]4.3.14}{60}}
|
||||
\newlabel{eq:LagrangienJ.GMM}{{4.3.15}{60}{Distribution asymptotique des estimateurs contraints}{equation.4.3.0.15}{}}
|
||||
\newlabel{eq:LagrangienJ.GMM@cref}{{[equation][15][4,3]4.3.15}{60}}
|
||||
\newlabel{eq:contraintvsncGMM}{{4.3.16}{60}{Distribution asymptotique des estimateurs contraints}{equation.4.3.0.16}{}}
|
||||
\newlabel{eq:contraintvsncGMM@cref}{{[equation][16][4,3]4.3.16}{60}}
|
||||
\newlabel{eq:VcontraintGMM}{{4.3.17}{60}{Distribution asymptotique des estimateurs contraints}{equation.4.3.0.17}{}}
|
||||
\newlabel{eq:VcontraintGMM@cref}{{[equation][17][4,3]4.3.17}{60}}
|
||||
\citation{newey1994large}
|
||||
\newlabel{eq:distcontraintGMM}{{4.3.18}{61}{Distribution asymptotique des estimateurs contraints}{equation.4.3.0.18}{}}
|
||||
\newlabel{eq:distcontraintGMM@cref}{{[equation][18][4,3]4.3.18}{61}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {4.4}Tests d'hypoth\IeC {\`e}ses param\IeC {\'e}triques}{61}{section.4.4}}
|
||||
\newlabel{sec:testparam}{{4.4}{61}{Tests d'hypothèses paramétriques}{section.4.4}{}}
|
||||
\newlabel{sec:testparam@cref}{{[section][4][4]4.4}{61}}
|
||||
\newlabel{eq:hypcontraintelin}{{4.4.1}{61}{Tests d'hypothèses paramétriques}{equation.4.4.0.1}{}}
|
||||
\newlabel{eq:hypcontraintelin@cref}{{[equation][1][4,4]4.4.1}{61}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {4.4.1}Test de Wald}{61}{subsection.4.4.1}}
|
||||
\newlabel{sec:testwald}{{4.4.1}{61}{Test de Wald}{subsection.4.4.1}{}}
|
||||
\newlabel{sec:testwald@cref}{{[subsection][1][4,4]4.4.1}{61}}
|
||||
\newlabel{eq:7}{{4.4.2}{61}{Test de Wald}{equation.4.4.0.2}{}}
|
||||
\newlabel{eq:7@cref}{{[equation][2][4,4]4.4.2}{61}}
|
||||
\newlabel{eq:moyennevariancesomme}{{4.4.3}{61}{Test de Wald}{equation.4.4.0.3}{}}
|
||||
\newlabel{eq:moyennevariancesomme@cref}{{[equation][3][4,4]4.4.3}{61}}
|
||||
\citation{newey1987hypothesis}
|
||||
\newlabel{eq:statistiqueWald}{{4.4.5}{62}{Test de Wald}{equation.4.4.0.5}{}}
|
||||
\newlabel{eq:statistiqueWald@cref}{{[equation][5][4,4]4.4.5}{62}}
|
||||
\newlabel{eq:statistiqueWald2}{{4.4.6}{62}{Test de Wald}{equation.4.4.0.6}{}}
|
||||
\newlabel{eq:statistiqueWald2@cref}{{[equation][6][4,4]4.4.6}{62}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {4.4.2}Test du multiplicateur de Lagrange}{62}{subsection.4.4.2}}
|
||||
\newlabel{sec:testscore}{{4.4.2}{62}{Test du multiplicateur de Lagrange}{subsection.4.4.2}{}}
|
||||
\newlabel{sec:testscore@cref}{{[subsection][2][4,4]4.4.2}{62}}
|
||||
\newlabel{statistiqueLM}{{4.4.7}{62}{Test du multiplicateur de Lagrange}{equation.4.4.0.7}{}}
|
||||
\newlabel{statistiqueLM@cref}{{[equation][7][4,4]4.4.7}{62}}
|
||||
\newlabel{eq:statistiqueLM2}{{4.4.8}{63}{Test du multiplicateur de Lagrange}{equation.4.4.0.8}{}}
|
||||
\newlabel{eq:statistiqueLM2@cref}{{[equation][8][4,4]4.4.8}{63}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {4.4.3}Test bas\IeC {\'e} sur la statistique de m\IeC {\'e}trique de distance}{63}{subsection.4.4.3}}
|
||||
\newlabel{statistiqueD}{{4.4.9}{63}{Test basé sur la statistique de métrique de distance}{equation.4.4.0.9}{}}
|
||||
\newlabel{statistiqueD@cref}{{[equation][9][4,4]4.4.9}{63}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {4.4.4}En r\IeC {\'e}sum\IeC {\'e}}{63}{subsection.4.4.4}}
|
||||
\newlabel{sec:resumetests}{{4.4.4}{63}{En résumé}{subsection.4.4.4}{}}
|
||||
\newlabel{sec:resumetests@cref}{{[subsection][4][4,4]4.4.4}{63}}
|
||||
\@writefile{lot}{\contentsline {table}{\numberline {4.1}{\ignorespaces Tests d'hypoth\IeC {\`e}se param\IeC {\'e}triques pour la m\IeC {\'e}thode des moments g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e\relax }}{63}{table.caption.25}}
|
||||
\newlabel{tab:testsparamGMM}{{4.1}{63}{Tests d'hypothèse paramétriques pour la méthode des moments généralisée\relax }{table.caption.25}{}}
|
||||
\newlabel{tab:testsparamGMM@cref}{{[table][1][4]4.1}{63}}
|
||||
\@setckpt{chapitre4}{
|
||||
\setcounter{page}{64}
|
||||
\setcounter{equation}{9}
|
||||
\setcounter{enumi}{3}
|
||||
\setcounter{enumii}{2}
|
||||
\setcounter{enumiii}{0}
|
||||
\setcounter{enumiv}{0}
|
||||
\setcounter{footnote}{0}
|
||||
\setcounter{mpfootnote}{0}
|
||||
\setcounter{@memmarkcntra}{0}
|
||||
\setcounter{storedpagenumber}{1}
|
||||
\setcounter{book}{0}
|
||||
\setcounter{part}{0}
|
||||
\setcounter{chapter}{4}
|
||||
\setcounter{section}{4}
|
||||
\setcounter{subsection}{4}
|
||||
\setcounter{subsubsection}{0}
|
||||
\setcounter{paragraph}{0}
|
||||
\setcounter{subparagraph}{0}
|
||||
\setcounter{@ppsavesec}{0}
|
||||
\setcounter{@ppsaveapp}{0}
|
||||
\setcounter{vslineno}{0}
|
||||
\setcounter{poemline}{0}
|
||||
\setcounter{modulo@vs}{0}
|
||||
\setcounter{memfvsline}{0}
|
||||
\setcounter{verse}{0}
|
||||
\setcounter{chrsinstr}{0}
|
||||
\setcounter{poem}{0}
|
||||
\setcounter{newflo@tctr}{4}
|
||||
\setcounter{@contsubnum}{0}
|
||||
\setcounter{maxsecnumdepth}{2}
|
||||
\setcounter{sidefootnote}{0}
|
||||
\setcounter{pagenote}{0}
|
||||
\setcounter{pagenoteshadow}{0}
|
||||
\setcounter{memfbvline}{0}
|
||||
\setcounter{bvlinectr}{0}
|
||||
\setcounter{cp@cntr}{0}
|
||||
\setcounter{ism@mctr}{0}
|
||||
\setcounter{xsm@mctr}{0}
|
||||
\setcounter{csm@mctr}{0}
|
||||
\setcounter{ksm@mctr}{0}
|
||||
\setcounter{xksm@mctr}{0}
|
||||
\setcounter{cksm@mctr}{0}
|
||||
\setcounter{msm@mctr}{0}
|
||||
\setcounter{xmsm@mctr}{0}
|
||||
\setcounter{cmsm@mctr}{0}
|
||||
\setcounter{bsm@mctr}{0}
|
||||
\setcounter{workm@mctr}{0}
|
||||
\setcounter{sheetsequence}{82}
|
||||
\setcounter{lastsheet}{155}
|
||||
\setcounter{lastpage}{137}
|
||||
\setcounter{figure}{0}
|
||||
\setcounter{lofdepth}{1}
|
||||
\setcounter{table}{1}
|
||||
\setcounter{lotdepth}{1}
|
||||
\setcounter{NAT@ctr}{0}
|
||||
\setcounter{nprt@mantissa@digitsbefore}{0}
|
||||
\setcounter{nprt@mantissa@digitsafter}{0}
|
||||
\setcounter{nprt@exponent@digitsbefore}{0}
|
||||
\setcounter{nprt@exponent@digitsafter}{0}
|
||||
\setcounter{nprt@digitsfirstblock}{0}
|
||||
\setcounter{nprt@blockcnt}{0}
|
||||
\setcounter{nprt@cntprint}{0}
|
||||
\setcounter{parentequation}{0}
|
||||
\setcounter{thmt@dummyctr}{3}
|
||||
\setcounter{Item}{24}
|
||||
\setcounter{Hfootnote}{1}
|
||||
\setcounter{memhycontfloat}{0}
|
||||
\setcounter{Hpagenote}{0}
|
||||
\setcounter{bookmark@seq@number}{64}
|
||||
\setcounter{ContinuedFloat}{0}
|
||||
\setcounter{app@runs}{1}
|
||||
\setcounter{pspicture}{0}
|
||||
\setcounter{section@level}{0}
|
||||
\setcounter{theo}{0}
|
||||
\setcounter{hypothese}{0}
|
||||
}
|
1033
memoire/chapitre4.tex
Normal file
1033
memoire/chapitre4.tex
Normal file
File diff suppressed because it is too large
Load diff
167
memoire/chapitre5.aux
Normal file
167
memoire/chapitre5.aux
Normal file
|
@ -0,0 +1,167 @@
|
|||
\relax
|
||||
\providecommand\hyper@newdestlabel[2]{}
|
||||
\citation{everitt2006cambridge}
|
||||
\citation{crowder1986consistency}
|
||||
\citation{crowder1987linear}
|
||||
\@writefile{lof}{\addvspace {10pt}}
|
||||
\@writefile{lot}{\addvspace {10pt}}
|
||||
\@writefile{toc}{\contentsline {chapter}{\chapternumberline {5}M\IeC {\'e}thode de l'\IeC {\'e}quation d'estimation optimale}{65}{chapter.5}}
|
||||
\newlabel{eq:generalEE86}{{5.0.1}{65}{Méthode de l'équation d'estimation optimale}{equation.5.0.0.1}{}}
|
||||
\newlabel{eq:generalEE86@cref}{{[equation][1][5,0]5.0.1}{65}}
|
||||
\newlabel{eq:generalEE87}{{5.0.2}{65}{Méthode de l'équation d'estimation optimale}{equation.5.0.0.2}{}}
|
||||
\newlabel{eq:generalEE87@cref}{{[equation][2][5,0]5.0.2}{65}}
|
||||
\newlabel{eq:EEsansbiais}{{5.0.3}{65}{Méthode de l'équation d'estimation optimale}{equation.5.0.0.3}{}}
|
||||
\newlabel{eq:EEsansbiais@cref}{{[equation][3][5,0]5.0.3}{65}}
|
||||
\citation{fox1986large}
|
||||
\citation{crowder1987linear}
|
||||
\newlabel{eq:scoreEMV}{{5.0.4}{66}{Méthode de l'équation d'estimation optimale}{equation.5.0.0.4}{}}
|
||||
\newlabel{eq:scoreEMV@cref}{{[equation][4][5,0]5.0.4}{66}}
|
||||
\newlabel{eq:derivmom}{{5.0.5}{66}{Méthode de l'équation d'estimation optimale}{equation.5.0.0.5.5}{}}
|
||||
\newlabel{eq:derivmom@cref}{{[equation][5][5,0]5.0.5}{66}}
|
||||
\newlabel{eq:derivmom1}{{5.0.5a}{66}{Méthode de l'équation d'estimation optimale}{equation.5.0.0.5a}{}}
|
||||
\newlabel{eq:derivmom1@cref}{{[equation][1][5,0,5]5.0.5a}{66}}
|
||||
\newlabel{eq:derivmom2}{{5.0.5b}{66}{Méthode de l'équation d'estimation optimale}{equation.5.0.0.5b}{}}
|
||||
\newlabel{eq:derivmom2@cref}{{[equation][2][5,0,5]5.0.5b}{66}}
|
||||
\newlabel{eq:generalquad}{{5.0.6}{66}{Méthode de l'équation d'estimation optimale}{equation.5.0.0.6}{}}
|
||||
\newlabel{eq:generalquad@cref}{{[equation][6][5,0]5.0.6}{66}}
|
||||
\newlabel{eq:vecteuroptimal.ab}{{5.0.7}{66}{Méthode de l'équation d'estimation optimale}{equation.5.0.0.7}{}}
|
||||
\newlabel{eq:vecteuroptimal.ab@cref}{{[equation][7][5,0]5.0.7}{66}}
|
||||
\newlabel{eq:demogeneralquad-convergent}{{5.0.8}{66}{Méthode de l'équation d'estimation optimale}{equation.5.0.0.8}{}}
|
||||
\newlabel{eq:demogeneralquad-convergent@cref}{{[equation][8][5,0]5.0.8}{66}}
|
||||
\citation{crowder1986consistency}
|
||||
\@writefile{lot}{\contentsline {table}{\numberline {5.1}{\ignorespaces M\IeC {\'e}thodes d'estimation repr\IeC {\'e}sentables par la forme quadratique \textup {\hbox {\mathsurround \z@ \normalfont (\ignorespaces \ref {eq:generalquad}\unskip \@@italiccorr )}} \relax }}{67}{table.caption.26}}
|
||||
\newlabel{tab:methodesquad}{{5.1}{67}{Méthodes d'estimation représentables par la forme quadratique \eqref {eq:generalquad} \relax }{table.caption.26}{}}
|
||||
\newlabel{tab:methodesquad@cref}{{[table][1][5]5.1}{67}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {5.1}\IeC {\'E}quation d'estimation optimale}{67}{section.5.1}}
|
||||
\newlabel{sec:equationsquadopt}{{5.1}{67}{Équation d'estimation optimale}{section.5.1}{}}
|
||||
\newlabel{sec:equationsquadopt@cref}{{[section][1][5]5.1}{67}}
|
||||
\newlabel{eq:Crowder86-th4.1-def}{{5.1.1}{67}{Équation d'estimation optimale}{equation.5.1.0.1}{}}
|
||||
\newlabel{eq:Crowder86-th4.1-def@cref}{{[equation][1][5,1]5.1.1}{67}}
|
||||
\newlabel{eq:Crowder86-th3.3-def}{{5.1.3}{67}{Équation d'estimation optimale}{equation.5.1.0.3.3}{}}
|
||||
\newlabel{eq:Crowder86-th3.3-def@cref}{{[equation][3][5,1]5.1.3}{67}}
|
||||
\newlabel{eq:Crowder86-th3.3-def-1}{{5.1.3a}{67}{Équation d'estimation optimale}{equation.5.1.0.3a}{}}
|
||||
\newlabel{eq:Crowder86-th3.3-def-1@cref}{{[equation][1][5,1,3]5.1.3a}{67}}
|
||||
\newlabel{eq:Crowder86-th3.3-def-2}{{5.1.3b}{67}{Équation d'estimation optimale}{equation.5.1.0.3b}{}}
|
||||
\newlabel{eq:Crowder86-th3.3-def-2@cref}{{[equation][2][5,1,3]5.1.3b}{67}}
|
||||
\newlabel{eq:VarAsymptEstEE}{{5.1.4}{67}{Équation d'estimation optimale}{equation.5.1.0.4}{}}
|
||||
\newlabel{eq:VarAsymptEstEE@cref}{{[equation][4][5,1]5.1.4}{67}}
|
||||
\newlabel{eq:Crowdervecteuroptimal}{{5.1.5}{68}{Équation d'estimation optimale}{equation.5.1.0.5}{}}
|
||||
\newlabel{eq:Crowdervecteuroptimal@cref}{{[equation][5][5,1]5.1.5}{68}}
|
||||
\newlabel{eq:13}{{5.1.6}{68}{Équation d'estimation optimale}{equation.5.1.0.6}{}}
|
||||
\newlabel{eq:13@cref}{{[equation][6][5,1]5.1.6}{68}}
|
||||
\newlabel{eq:15}{{5.1.8}{68}{Équation d'estimation optimale}{equation.5.1.0.8}{}}
|
||||
\newlabel{eq:15@cref}{{[equation][8][5,1]5.1.8}{68}}
|
||||
\newlabel{eq:16}{{5.1.9}{68}{Équation d'estimation optimale}{equation.5.1.0.9}{}}
|
||||
\newlabel{eq:16@cref}{{[equation][9][5,1]5.1.9}{68}}
|
||||
\newlabel{eq:matvcov-u-EE}{{5.1.10}{68}{Équation d'estimation optimale}{equation.5.1.0.10}{}}
|
||||
\newlabel{eq:matvcov-u-EE@cref}{{[equation][10][5,1]5.1.10}{68}}
|
||||
\newlabel{eq:momentsupgamma}{{5.1.11}{69}{Équation d'estimation optimale}{equation.5.1.0.11.11}{}}
|
||||
\newlabel{eq:momentsupgamma@cref}{{[equation][11][5,1]5.1.11}{69}}
|
||||
\newlabel{eq:momentsupgamma1}{{5.1.11a}{69}{Équation d'estimation optimale}{equation.5.1.0.11a}{}}
|
||||
\newlabel{eq:momentsupgamma1@cref}{{[equation][1][5,1,11]5.1.11a}{69}}
|
||||
\newlabel{eq:momentsupgamma2}{{5.1.11b}{69}{Équation d'estimation optimale}{equation.5.1.0.11b}{}}
|
||||
\newlabel{eq:momentsupgamma2@cref}{{[equation][2][5,1,11]5.1.11b}{69}}
|
||||
\newlabel{eq:momentsupgamma3}{{5.1.11c}{69}{Équation d'estimation optimale}{equation.5.1.0.11c}{}}
|
||||
\newlabel{eq:momentsupgamma3@cref}{{[equation][3][5,1,11]5.1.11c}{69}}
|
||||
\newlabel{eq:18}{{5.1.12}{69}{Équation d'estimation optimale}{equation.5.1.0.12}{}}
|
||||
\newlabel{eq:18@cref}{{[equation][12][5,1]5.1.12}{69}}
|
||||
\newlabel{eq:19}{{5.1.15}{69}{Équation d'estimation optimale}{equation.5.1.0.15}{}}
|
||||
\newlabel{eq:19@cref}{{[equation][15][5,1]5.1.15}{69}}
|
||||
\newlabel{eq:coefficientscrowder}{{5.1.17}{70}{Équation d'estimation optimale}{equation.5.1.0.17.17}{}}
|
||||
\newlabel{eq:coefficientscrowder@cref}{{[equation][17][5,1]5.1.17}{70}}
|
||||
\newlabel{eq:acrowder}{{5.1.17a}{70}{Équation d'estimation optimale}{equation.5.1.0.17a}{}}
|
||||
\newlabel{eq:acrowder@cref}{{[equation][1][5,1,17]5.1.17a}{70}}
|
||||
\newlabel{eq:bcrowder}{{5.1.17b}{70}{Équation d'estimation optimale}{equation.5.1.0.17b}{}}
|
||||
\newlabel{eq:bcrowder@cref}{{[equation][2][5,1,17]5.1.17b}{70}}
|
||||
\newlabel{eq:Moptimalestimetheta}{{5.1.18}{70}{Équation d'estimation optimale}{equation.5.1.0.18}{}}
|
||||
\newlabel{eq:Moptimalestimetheta@cref}{{[equation][18][5,1]5.1.18}{70}}
|
||||
\newlabel{eq:eqnobjectifEE}{{5.1.19}{70}{Équation d'estimation optimale}{equation.5.1.0.19}{}}
|
||||
\newlabel{eq:eqnobjectifEE@cref}{{[equation][19][5,1]5.1.19}{70}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {5.2}\IeC {\'E}quation d'estimation optimale modifi\IeC {\'e}e}{70}{section.5.2}}
|
||||
\newlabel{sec:eqoptmodif}{{5.2}{70}{Équation d'estimation optimale modifiée}{section.5.2}{}}
|
||||
\newlabel{sec:eqoptmodif@cref}{{[section][2][5]5.2}{70}}
|
||||
\newlabel{eq:vecteurcrowdermod}{{5.2.1}{70}{Équation d'estimation optimale modifiée}{equation.5.2.0.1.1}{}}
|
||||
\newlabel{eq:vecteurcrowdermod@cref}{{[equation][1][5,2]5.2.1}{70}}
|
||||
\newlabel{eq:acrowdermod}{{5.2.1a}{70}{Équation d'estimation optimale modifiée}{equation.5.2.0.1a}{}}
|
||||
\newlabel{eq:acrowdermod@cref}{{[equation][1][5,2,1]5.2.1a}{70}}
|
||||
\newlabel{eq:bcrowdermod}{{5.2.1b}{70}{Équation d'estimation optimale modifiée}{equation.5.2.0.1b}{}}
|
||||
\newlabel{eq:bcrowdermod@cref}{{[equation][2][5,2,1]5.2.1b}{70}}
|
||||
\newlabel{eq:coeffemp}{{5.2.1c}{70}{Équation d'estimation optimale modifiée}{equation.5.2.0.1c}{}}
|
||||
\newlabel{eq:coeffemp@cref}{{[equation][3][5,2,1]5.2.1c}{70}}
|
||||
\@setckpt{chapitre5}{
|
||||
\setcounter{page}{72}
|
||||
\setcounter{equation}{1}
|
||||
\setcounter{enumi}{3}
|
||||
\setcounter{enumii}{2}
|
||||
\setcounter{enumiii}{0}
|
||||
\setcounter{enumiv}{0}
|
||||
\setcounter{footnote}{0}
|
||||
\setcounter{mpfootnote}{0}
|
||||
\setcounter{@memmarkcntra}{0}
|
||||
\setcounter{storedpagenumber}{1}
|
||||
\setcounter{book}{0}
|
||||
\setcounter{part}{0}
|
||||
\setcounter{chapter}{5}
|
||||
\setcounter{section}{2}
|
||||
\setcounter{subsection}{0}
|
||||
\setcounter{subsubsection}{0}
|
||||
\setcounter{paragraph}{0}
|
||||
\setcounter{subparagraph}{0}
|
||||
\setcounter{@ppsavesec}{0}
|
||||
\setcounter{@ppsaveapp}{0}
|
||||
\setcounter{vslineno}{0}
|
||||
\setcounter{poemline}{0}
|
||||
\setcounter{modulo@vs}{0}
|
||||
\setcounter{memfvsline}{0}
|
||||
\setcounter{verse}{0}
|
||||
\setcounter{chrsinstr}{0}
|
||||
\setcounter{poem}{0}
|
||||
\setcounter{newflo@tctr}{4}
|
||||
\setcounter{@contsubnum}{0}
|
||||
\setcounter{maxsecnumdepth}{2}
|
||||
\setcounter{sidefootnote}{0}
|
||||
\setcounter{pagenote}{0}
|
||||
\setcounter{pagenoteshadow}{0}
|
||||
\setcounter{memfbvline}{0}
|
||||
\setcounter{bvlinectr}{0}
|
||||
\setcounter{cp@cntr}{0}
|
||||
\setcounter{ism@mctr}{0}
|
||||
\setcounter{xsm@mctr}{0}
|
||||
\setcounter{csm@mctr}{0}
|
||||
\setcounter{ksm@mctr}{0}
|
||||
\setcounter{xksm@mctr}{0}
|
||||
\setcounter{cksm@mctr}{0}
|
||||
\setcounter{msm@mctr}{0}
|
||||
\setcounter{xmsm@mctr}{0}
|
||||
\setcounter{cmsm@mctr}{0}
|
||||
\setcounter{bsm@mctr}{0}
|
||||
\setcounter{workm@mctr}{0}
|
||||
\setcounter{sheetsequence}{90}
|
||||
\setcounter{lastsheet}{155}
|
||||
\setcounter{lastpage}{137}
|
||||
\setcounter{figure}{0}
|
||||
\setcounter{lofdepth}{1}
|
||||
\setcounter{table}{1}
|
||||
\setcounter{lotdepth}{1}
|
||||
\setcounter{NAT@ctr}{0}
|
||||
\setcounter{nprt@mantissa@digitsbefore}{0}
|
||||
\setcounter{nprt@mantissa@digitsafter}{0}
|
||||
\setcounter{nprt@exponent@digitsbefore}{0}
|
||||
\setcounter{nprt@exponent@digitsafter}{0}
|
||||
\setcounter{nprt@digitsfirstblock}{0}
|
||||
\setcounter{nprt@blockcnt}{0}
|
||||
\setcounter{nprt@cntprint}{0}
|
||||
\setcounter{parentequation}{0}
|
||||
\setcounter{thmt@dummyctr}{3}
|
||||
\setcounter{Item}{24}
|
||||
\setcounter{Hfootnote}{1}
|
||||
\setcounter{memhycontfloat}{0}
|
||||
\setcounter{Hpagenote}{0}
|
||||
\setcounter{bookmark@seq@number}{67}
|
||||
\setcounter{ContinuedFloat}{0}
|
||||
\setcounter{app@runs}{1}
|
||||
\setcounter{pspicture}{0}
|
||||
\setcounter{section@level}{0}
|
||||
\setcounter{theo}{0}
|
||||
\setcounter{hypothese}{0}
|
||||
}
|
25
memoire/chapitre5.log
Normal file
25
memoire/chapitre5.log
Normal file
|
@ -0,0 +1,25 @@
|
|||
This is pdfTeX, Version 3.1415926-2.4-1.40.13 (TeX Live 2012/Debian) (format=pdflatex 2013.3.10) 5 MAY 2013 21:14
|
||||
entering extended mode
|
||||
restricted \write18 enabled.
|
||||
%&-line parsing enabled.
|
||||
**\input chapitre5.tex
|
||||
(./chapitre5.tex
|
||||
! Undefined control sequence.
|
||||
l.1 \chapter
|
||||
{Estimation du modèle Laplace asymétrique généralisé}
|
||||
? X
|
||||
|
||||
Here is how much of TeX's memory you used:
|
||||
5 strings out of 493485
|
||||
141 string characters out of 3143526
|
||||
47818 words of memory out of 3000000
|
||||
3412 multiletter control sequences out of 15000+200000
|
||||
3640 words of font info for 14 fonts, out of 3000000 for 9000
|
||||
957 hyphenation exceptions out of 8191
|
||||
4i,0n,3p,91b,8s stack positions out of 5000i,500n,10000p,200000b,50000s
|
||||
No pages of output.
|
||||
PDF statistics:
|
||||
0 PDF objects out of 1000 (max. 8388607)
|
||||
0 named destinations out of 1000 (max. 500000)
|
||||
1 words of extra memory for PDF output out of 10000 (max. 10000000)
|
||||
|
391
memoire/chapitre5.tex
Normal file
391
memoire/chapitre5.tex
Normal file
|
@ -0,0 +1,391 @@
|
|||
\chapter{Méthode de l'équation d'estimation
|
||||
optimale} % numéroté
|
||||
|
||||
Une équation d'estimation est une fonction des données de
|
||||
l'échantillon et des paramètres d'un modèle qui spécifie de quelle
|
||||
manière on doit procéder pour estimer ces derniers, lorsque la
|
||||
distribution de la population est inconnue. Cette approche a un
|
||||
avantage sur les méthodes de vraisemblance, car elle ne requiert pas
|
||||
l'utilisation de la fonction de densité ou de répartition, mais
|
||||
seulement les moments de la distribution. \citep{everitt2006cambridge}
|
||||
|
||||
\cite{crowder1986consistency} définit l'équation d'estimation sous une
|
||||
forme générale, composée d'une matrice d'échelle $S(\theta;Y)$, un
|
||||
vecteur de fonctions aléatoires $u(\theta;Y)$ et un vecteur de
|
||||
pondération $\mathbf{w}(\theta;Y)$:
|
||||
\begin{align}
|
||||
\label{eq:generalEE86}
|
||||
g(\theta;Y) = S^{-1}(\theta;Y) \sum_{t=1}^T u(\theta;Y)
|
||||
\mathbf{w}(\theta;Y).
|
||||
\end{align}
|
||||
|
||||
En faisant abstraction du vecteur de pondération
|
||||
$\mathbf{w}(\theta;Y)$, on retrouve une forme qui rappelle la méthode
|
||||
des moments généralisée. La fonction d'estimation $u(\theta;Y)$
|
||||
définit, dans ce cas, des conditions de moment. Toutefois, en faisant
|
||||
abstraction de la matrice $S(\theta;Y)$, on obtient une classe
|
||||
d'équations d'estimation $g(\theta;Y)$ qui généralise plusieurs
|
||||
méthodes connues, comme développé par \cite{crowder1987linear}:
|
||||
\begin{align}
|
||||
\label{eq:generalEE87}
|
||||
g(\theta;Y) = \sum_{t=1}^T u(\theta;Y) \mathbf{w}(\theta;Y).
|
||||
\end{align}
|
||||
|
||||
La propriété fondamentale de toute équation d'estimation est que son
|
||||
espérance est nulle. L'équation d'estimation \eqref{eq:generalEE86},
|
||||
et donc \eqref{eq:generalEE87}, produit des estimateurs sans biais:
|
||||
\begin{align}
|
||||
\label{eq:EEsansbiais}
|
||||
E\left[ g(\theta;Y) \right] = 0.
|
||||
\end{align}
|
||||
|
||||
Par analogie avec la méthode du maximum de vraisemblance, on pourra
|
||||
alors la considérer comme une équation de quasi-score. On peut en
|
||||
effet représenter l'équation précédente par celle du score
|
||||
\eqref{eq:scoreEMV} donnée par l'espérance de la dérivée de la
|
||||
fonction de log-vraisemblance par rapport au vecteur de paramètres
|
||||
$\theta$:
|
||||
\begin{align}
|
||||
\label{eq:scoreEMV}
|
||||
E\left[g\left(\theta;Y \right)^{EMV}\right] &= E\left[\frac{d \ln
|
||||
L\left(\theta;Y\right)}{d\theta}\right] = 0.
|
||||
\end{align}
|
||||
|
||||
On désigne la moyenne et la variance de la distribution par les
|
||||
notations $\mu\left(\theta\right)$ et $\sigma^2(\theta)$
|
||||
respectivement. On définit aussi les dérivées premières de la moyenne
|
||||
et de l'écart-type par rapport au vecteur de paramètres:
|
||||
\begin{subequations}\label{eq:derivmom}
|
||||
\begin{align}
|
||||
\mu^{\prime}\left( \theta \right) &= \frac{d \mu\left(\theta\right)}{d\theta} \label{eq:derivmom1}\\
|
||||
\sigma^{\prime}\left( \theta \right) &= \frac{d
|
||||
\sqrt{\sigma^2(\theta)}}{d\theta}.\label{eq:derivmom2}
|
||||
\end{align}
|
||||
\end{subequations}
|
||||
|
||||
Dans ce chapitre, on considère une équation d'estimation quadratique
|
||||
de la forme suivante:
|
||||
\begin{equation}
|
||||
\label{eq:generalquad}
|
||||
g\left(\theta;Y \right) = \sum_{t=1}^n \left[ \mathbf{a}(\theta;y_t)(y_t-\mu\left(\theta\right)) + \mathbf{b}(\theta;y_t)\left((y_t-\mu\left(\theta\right))^2-\sigma^2\left(\theta\right) \right)\right].
|
||||
\end{equation}
|
||||
|
||||
Le vecteur de pondération $\mathbf{w}(\theta;Y)$ de l'équation
|
||||
\eqref{eq:generalEE87} est composé de deux fonctions déterministes:
|
||||
$\mathbf{a}(\theta;Y)$ et $\mathbf{b}(\theta;Y)$:
|
||||
\begin{align}
|
||||
\label{eq:vecteuroptimal.ab}
|
||||
\mathbf{w}(\theta;Y) &= \begin{bmatrix} \mathbf{a}(\theta;Y) \\
|
||||
\mathbf{b}(\theta;Y) \end{bmatrix}.
|
||||
\end{align}
|
||||
|
||||
On démontre facilement que c'est une équation d'estimation en
|
||||
calculant son espérance:
|
||||
\begin{align}
|
||||
\label{eq:demogeneralquad-convergent}
|
||||
E\left[g\left(\theta;Y \right)\right] &= E\left[ \sum_{t=1}^n \left[ \mathbf{a}(\theta;y_t)(y_t-\mu\left(\theta\right)) + \mathbf{b}(\theta;y_t)\left((y_t-\mu\left(\theta\right))^2-\sigma^2\left(\theta\right) \right)\right]\right] \nonumber\\
|
||||
&= \sum_{t=1}^n \left( \mathbf{a}(\theta;y_t)\cdot E\left[y_t-\mu\left(\theta\right)\right] + \mathbf{b}(\theta;y_t)\cdot E\left[(y_t-\mu\left(\theta\right))^2-\sigma^2\left(\theta\right) \right]\right) \nonumber\\
|
||||
&= 0.
|
||||
\end{align}
|
||||
|
||||
La forme quadratique regroupe certaines méthodes d'estimation bien
|
||||
établies, recensées à la table \ref{tab:methodesquad}.
|
||||
\begin{table}[!ht]
|
||||
|
||||
\centering
|
||||
\begin{tabular}{ccc}
|
||||
\hline
|
||||
\textbf{Méthode} & $\mathbf{a}(\theta;y_t)$ & $\mathbf{b}(\theta;y_t)$ \\
|
||||
\hline
|
||||
Moindres carrés non pondérés & $\mu^{\prime}\left( \theta \right)$ & $0$ \\
|
||||
Maximum de quasi-vraisemblance & $\frac{\mu^{\prime}\left( \theta \right)}{ \sigma^2\left( \theta \right)}$ & $0$ \\
|
||||
Estimation gaussienne de Whittle
|
||||
\citep{fox1986large} & $\frac{\mu^{\prime}\left( \theta \right)}{ \sigma^2\left( \theta \right)}$ & $\frac{\sigma^{\prime}\left( \theta \right)}{ \sigma^2\left( \theta \right)^{3/2}}$ \\
|
||||
\hline
|
||||
\end{tabular}
|
||||
\caption{Méthodes d'estimation représentables par la forme quadratique \eqref{eq:generalquad}
|
||||
}\label{tab:methodesquad}
|
||||
\end{table}
|
||||
|
||||
La méthode d'estimation gaussienne de Whittle présente un avantage par
|
||||
rapport aux modèles linéaires conventionnels (moindres carrés pondérés
|
||||
et maximum de quasi-vraisemblance) du fait qu'elle prend en
|
||||
considération la variance comme critère d'optimisation et non
|
||||
seulement comme pondération.
|
||||
|
||||
\cite{crowder1987linear} développe, à partir de cette dernière,
|
||||
une équation d'estimation optimale qui vise à
|
||||
remplacer la méthode de quasi-vraisemblance basée sur la moyenne et la
|
||||
variance jusqu'alors utilisée.
|
||||
|
||||
\section{Équation d'estimation optimale}
|
||||
\label{sec:equationsquadopt}
|
||||
|
||||
Soit une équation d'estimation de la forme générale
|
||||
\eqref{eq:generalEE87}. On a, par définition, que l'espérance de la
|
||||
composante stochastique $u(\theta;Y_t)$ de celles-ci sous les vrais
|
||||
paramètres $\theta_0$ est nulle. De plus, si l'on considère que les
|
||||
données ne sont pas corrélées, l'espérance du produit de deux de ces
|
||||
fonctions est nulle, sauf lorsqu'elle est évaluée au même point $Y_t$:
|
||||
\begin{align}
|
||||
\label{eq:Crowder86-th4.1-def}
|
||||
E \left[u(\theta_0;Y_t) \right] &= 0 \\
|
||||
E \left[u(\theta_0;Y_s)u(\theta_0;Y_t) \right] &=
|
||||
\delta_{s,t}Var\left[u(\theta_0;Y_t)\right].
|
||||
\end{align}
|
||||
|
||||
Les matrices non singulières $M(\theta_0) \mbox{ et } V(\theta_0)$
|
||||
représentent respectivement, pour l'équation d'estimation, l'espérance
|
||||
de sa dérivée par rapport à $\theta$ et l'inverse de sa
|
||||
variance-covariance, évaluée à la vraie valeur des paramètres
|
||||
$\theta_0$:
|
||||
\begin{subequations}\label{eq:Crowder86-th3.3-def}
|
||||
\begin{align}
|
||||
M(\theta_0;Y) &= \sum_{t=1}^{T} \mathbf{w}(\theta_0) E\left[u^{\prime}(\theta_0;Y_t) \right] \label{eq:Crowder86-th3.3-def-1}\\
|
||||
V(\theta_0;Y) &= \sum_{t=1}^{T} \mathbf{w}(\theta_0)
|
||||
Var\left[u(\theta_0;Y_t)\right]
|
||||
\mathbf{w}^{T}(\theta_0)\label{eq:Crowder86-th3.3-def-2}.
|
||||
\end{align}
|
||||
\end{subequations}
|
||||
|
||||
La variance asymptotique de l'estimateur $\hat\theta$ prend alors la
|
||||
forme suivante, en utilisant la méthode delta multivariée:
|
||||
\begin{align}
|
||||
\label{eq:VarAsymptEstEE}
|
||||
Var\left[\hat\theta\right] &=
|
||||
M^{-1}(\theta_0)V(\theta_0)\left[M^{-1}(\theta_0)\right]^{T}.
|
||||
\end{align}
|
||||
|
||||
On désire obtenir des équations d'estimation optimales de telle sorte
|
||||
que la variance soit minimale. Le \emph{théorème 4.1} de
|
||||
\cite{crowder1986consistency} permet d'établir quel vecteur de
|
||||
pondération $\mathbf{w}^{*}(\theta)$ utiliser.
|
||||
|
||||
Selon ce théorème, lorsqu'on utilise le vecteur de pondération optimal
|
||||
\eqref{eq:Crowdervecteuroptimal}, on obtient que la dérivée de la
|
||||
fonction d'estimation $M^{*}(\theta)$ soit égale à l'inverse de la
|
||||
matrice de variance-covariance $V^{*}(\theta)$:
|
||||
\begin{align}
|
||||
\label{eq:Crowdervecteuroptimal}
|
||||
\mathbf{w}^{*}(\theta) &= \left\{E \left[u^{\prime}(\theta_0;Y_t)
|
||||
\right]\right\}^{T}\left\{Var\left[u(\theta;Y_t)\right]
|
||||
\right\}^{-1}.
|
||||
\end{align}
|
||||
|
||||
La variance asymptotique \eqref{eq:VarAsymptEstEE} du vecteur de
|
||||
paramètres optimal $\hat\theta^{*}$ qui résout l'équation d'estimation
|
||||
$g^{*}(\theta)$ se simplifie alors sous la forme:
|
||||
$\left[V^{*}(\theta_0;y_t)\right]^{-1}$
|
||||
\begin{align}
|
||||
\label{eq:13}
|
||||
M^{*}(\theta_0) &= \sum_{t=1}^{T} \left\{E
|
||||
\left[u^{\prime}(\theta_0;Y_t)
|
||||
\right]\right\}^{T}\left\{Var\left[u(\theta_0;Y_t)\right]
|
||||
\right\}^{-1} E\left[u^{\prime}(\theta_0;Y_t) \right] \\
|
||||
V^{*}(\theta_0) &= \sum_{t=1}^{T} \left\{E
|
||||
\left[u^{\prime}(\theta_0;Y_t)
|
||||
\right]\right\}^{T}\left\{Var\left[u(\theta_0;Y_t)\right]
|
||||
\right\}^{-1} Var\left[u(\theta_0;Y_t)\right] \nonumber\\
|
||||
&\quad \times \left[\left\{E \left[u^{\prime}(\theta_0;Y_t)
|
||||
\right]\right\}^{T}\left\{Var\left[u(\theta_0;Y_t)\right]
|
||||
\right\}^{-1}\right]^{T} \nonumber\\
|
||||
&= \sum_{t=1}^{T} \left\{E \left[u^{\prime}(\theta_0;Y_t)
|
||||
\right]\right\}^{T}\left\{Var\left[u(\theta_0;Y_t)\right]
|
||||
\right\}^{-1} E\left[u^{\prime}(\theta_0;Y_t) \right] \nonumber\\
|
||||
\Leftrightarrow M^{*}(\theta_0) &= V^{*}(\theta_0) \nonumber\\
|
||||
\Leftrightarrow Var(\hat\theta^{*}) &= \left[M^{*}(\theta_0)\right]^{-1} V^{*}(\theta_0) \left[\left[M^{*}(\theta_0)\right]^{-1}\right]^{T} \nonumber\\
|
||||
&= \left[V^{*}(\theta_0)\right]^{-1}.
|
||||
\end{align}
|
||||
|
||||
On considère la fonction $u(\theta;Y_t)$ de l'équation quadratique
|
||||
\eqref{eq:generalquad} , dont on cherche le vecteur de pondération
|
||||
optimal correspondant selon la proposition
|
||||
\eqref{eq:Crowdervecteuroptimal}:
|
||||
\begin{align}
|
||||
\label{eq:15}
|
||||
u(\theta;Y_t) &= \begin{bmatrix}
|
||||
Y_t-\mu(\theta)\\
|
||||
(Y_t-\mu(\theta))^2-\sigma^2(\theta)
|
||||
\end{bmatrix}.
|
||||
\end{align}
|
||||
|
||||
On évalue l'espérance, sous le vecteur de vrais paramètres $\theta_0$,
|
||||
de la dérivée par rapport à $\theta$ de la fonction $u(\theta;Y)$:
|
||||
\begin{align}
|
||||
\label{eq:16}
|
||||
E\left[u^{\prime}(\theta;Y_t)\right] &= \begin{bmatrix}
|
||||
E \left[-\mu^{\prime}(\theta)\right] \\
|
||||
E
|
||||
\left[-2(Y-\mu(\theta))\mu^{\prime}(\theta)-2\sqrt{\sigma^2(\theta)}\sigma^{\prime}(\theta)\right]
|
||||
\end{bmatrix} \nonumber\\
|
||||
&= \begin{bmatrix}
|
||||
-\mu^{\prime}(\theta) \\
|
||||
-2 \sqrt{\sigma^2(\theta)}\sigma^{\prime}(\theta).
|
||||
\end{bmatrix}.
|
||||
\end{align}
|
||||
|
||||
Puis, on évalue la variance-covariance du vecteur $u(\theta)$. Pour ce
|
||||
faire, on devra évaluer séparément chaque élément composant cette
|
||||
matrice:
|
||||
\begin{align}
|
||||
\label{eq:matvcov-u-EE}
|
||||
Var\left[u(\theta;Y_t) \right] &=
|
||||
\begin{bmatrix}
|
||||
Var\left[Y-\mu(\theta)\right] & Cov\left[Y-\mu(\theta),(Y-\mu(\theta))^2-\sigma^2(\theta) \right] \\
|
||||
Cov\left[Y-\mu(\theta),(Y-\mu(\theta))^2-\sigma^2(\theta) \right]
|
||||
& Var\left[(Y-\mu(\theta))^2-\sigma^2(\theta)\right]
|
||||
\end{bmatrix}.
|
||||
\end{align}
|
||||
|
||||
On définit les coefficients d'asymétrie et d'aplatissement normalisés,
|
||||
ainsi qu'une constante $\gamma_3(\theta)$ qui en découle, afin de
|
||||
simplifier les expressions qui seront obtenues conséquemment:
|
||||
\begin{subequations}\label{eq:momentsupgamma}
|
||||
\begin{align}
|
||||
\gamma_1\left(\theta\right) &= \frac{m_3\left(\theta\right)}{m_2\left(\theta\right)^{3/2}} \nonumber\\
|
||||
&= \frac{E\left[\left(Y-\mu\left(\theta\right)\right)^3\right]}{\sigma^2\left(\theta\right)^{3/2}} \label{eq:momentsupgamma1}\\
|
||||
\gamma_2\left(\theta\right) &= \frac{m_4\left(\theta\right)}{m_2\left(\theta\right)^{2}} - 3 \nonumber\\
|
||||
&=\frac{E\left[\left(Y-\mu\left(\theta\right)\right)^4\right]}{\sigma^2\left(\theta\right)^2}-3 \label{eq:momentsupgamma2}\\
|
||||
\gamma_3(\theta) &= \gamma_2\left(\theta\right) + 2 -
|
||||
\gamma_1\left(\theta\right)^2. \label{eq:momentsupgamma3}
|
||||
\end{align}
|
||||
\end{subequations}
|
||||
|
||||
On développe les différentes composantes de la matrice:
|
||||
\eqref{eq:matvcov-u-EE}
|
||||
\begin{align}
|
||||
\label{eq:18}
|
||||
Var\left[Y-\mu(\theta)\right] &= E\left[(Y-\mu(\theta))^2\right] -
|
||||
E\left[Y-\mu(\theta)\right]^2 \nonumber\\
|
||||
&=\sigma^2(\theta)\\
|
||||
Cov\left[Y-\mu(\theta),(Y-\mu(\theta))^2-\sigma^2(\theta) \right] &=
|
||||
E\left[\left(Y-\mu(\theta)\right)\left((Y-\mu(\theta))^2-\sigma^2(\theta)\right)
|
||||
\right] \nonumber\\ &\quad - E\left[Y-\mu(\theta) \right]
|
||||
E\left[(Y-\mu(\theta))^2-\sigma^2(\theta) \right] \nonumber\\
|
||||
&= E\left[(Y-\mu(\theta))^3 - \sigma^2(\theta)(Y-\mu(\theta))\right] \nonumber\\
|
||||
&= \sigma^2(\theta)^{3/2}\gamma_1(\theta)\\
|
||||
Var\left[(Y-\mu(\theta))^2-\sigma^2(\theta)\right] &=
|
||||
E\left[\left((Y-\mu(\theta))^2-\sigma^2(\theta)
|
||||
\right)\left((Y-\mu(\theta))^2-\sigma^2(\theta) \right) \right]\nonumber\\
|
||||
&= E\left[(Y-\mu(\theta))^4 - 2\sigma^2(\theta)(Y-\mu(\theta))^2 +
|
||||
\sigma^2(\theta)^2 \right] \nonumber\\
|
||||
&= \sigma^2(\theta)^2\left(\gamma_2(\theta)+3\right) - 2\sigma^2(\theta)^2 + \sigma^2(\theta)^2 \nonumber\\
|
||||
&=\sigma^2(\theta)^2\left(\gamma_2(\theta)+2 \right).
|
||||
\end{align}
|
||||
|
||||
On obtient alors la matrice de variance-covariance de la fonction
|
||||
$u(\theta)$, dont on évalue par la suite l'inverse:
|
||||
\begin{align}
|
||||
\label{eq:19}
|
||||
Var\left[u(\theta;Y_t) \right] &= \begin{bmatrix}
|
||||
\sigma^2(\theta) & \sigma^2(\theta)^{3/2}\gamma_1(\theta)\\
|
||||
\sigma^2(\theta)^{3/2}\gamma_1(\theta) &
|
||||
\sigma^2(\theta)^2\left(\gamma_2(\theta)+2 \right)
|
||||
\end{bmatrix} \\
|
||||
Var^{-1}\left[u(\theta;Y_t) \right] &=
|
||||
\frac{1}{\sigma^2(\theta)^3\gamma_3(\theta)}\begin{bmatrix}
|
||||
\sigma^2(\theta)^2\left(\gamma_2(\theta)+2 \right) & -\sigma^2(\theta)^{3/2}\gamma_1(\theta)\\
|
||||
-\sigma^2(\theta)^{3/2}\gamma_1(\theta) & \sigma^2(\theta)
|
||||
\end{bmatrix}.
|
||||
\end{align}
|
||||
|
||||
On peut enfin évaluer l'expression \eqref{eq:Crowdervecteuroptimal} à
|
||||
l'aide des résultats précédents:
|
||||
\begin{align*}
|
||||
\mathbf{w}^{*}(\theta) &= \begin{bmatrix} -\mu^{\prime}(\theta) & -2
|
||||
\sqrt{\sigma^2(\theta)}\sigma^{\prime}(\theta).
|
||||
\end{bmatrix} \times
|
||||
\frac{1}{\sigma^2(\theta)^3\gamma_3(\theta)} \begin{bmatrix}
|
||||
\sigma^2(\theta)^2\left(\gamma_2(\theta)+2 \right) & -\sigma^2(\theta)^{3/2}\gamma_1(\theta)\\
|
||||
-\sigma^2(\theta)^{3/2}\gamma_1(\theta) & \sigma^2(\theta)
|
||||
\end{bmatrix}.
|
||||
\end{align*}
|
||||
|
||||
On obtient alors le vecteur de pondération optimal
|
||||
\eqref{eq:vecteuroptimal.ab} formé des fonctions
|
||||
$\mathbf{a}^{*}(\theta)$ et $\mathbf{b}^{*}(\theta)$:
|
||||
\begin{subequations}\label{eq:coefficientscrowder}
|
||||
\begin{align}
|
||||
\mathbf{a}^{*}(\theta) &= \frac{\left\{ -\left( \gamma_2\left(\theta\right)+2 \right) \mu^{\prime}\left( \theta \right) + 2\gamma_1\left(\theta\right) \sigma^{\prime}\left( \theta \right) \right\}}{\sigma^2\left(\theta\right)\gamma_3(\theta)} \label{eq:acrowder}\\
|
||||
\mathbf{b}^{*}(\theta) &=
|
||||
\frac{\gamma_1\left(\theta\right)\mu^{\prime}\left( \theta
|
||||
\right)-2\sigma^{\prime}\left( \theta \right)}{\sigma^2\left(
|
||||
\theta \right)^{3/2}\gamma_3(\theta)}. \label{eq:bcrowder}
|
||||
\end{align}
|
||||
\end{subequations}
|
||||
|
||||
On obtient aisément les matrices $M^{\star}\left(\theta\right) \mbox{
|
||||
et } V^{\star}\left(\theta\right)$ à partir de leur définition
|
||||
\eqref{eq:Crowder86-th3.3-def}:
|
||||
\begin{align}
|
||||
M^{\star}\left(\theta\right) &= V^{\star}\left(\theta\right) \nonumber\\
|
||||
&= T \cdot \sigma(\theta)^{-2} \left\{ \left(\mu^{\prime}\left(
|
||||
\theta \right)\right)\left(\mu^{\prime}\left( \theta
|
||||
\right)\right)^T+\gamma_3(\theta)^{-1}\left(\gamma_1\left(\theta\right)\mu^{\prime}\left(
|
||||
\theta \right)-2\sigma^{\prime}\left( \theta
|
||||
\right)\right)\left(\gamma_1\left(\theta\right)\mu^{\prime}\left(
|
||||
\theta \right)-2\sigma^{\prime}\left( \theta \right)\right)^T
|
||||
\right\}. \label{eq:Moptimalestimetheta}
|
||||
\end{align}
|
||||
|
||||
Afin d'obtenir la solution optimale $\theta^{\star}$, on définit la
|
||||
fonction objectif $\Lambda\left(\theta;\mathbf{y}_T\right)$:
|
||||
\begin{align}
|
||||
\label{eq:eqnobjectifEE}
|
||||
\Lambda\left(\theta;\mathbf{y}_T\right) &=
|
||||
g\left(\theta;\mathbf{y}_T \right) W\left( \theta;\mathbf{y}_T
|
||||
\right) g\left( \theta;\mathbf{y}_T \right)^T.
|
||||
\end{align}
|
||||
|
||||
$W\left( \theta ;\mathbf{y}_T \right)$ est une matrice définie
|
||||
positive. En premier lieu, on suggère d'utiliser la matrice
|
||||
identité. Puis, on peut raffiner l'estimation en lui substituant la
|
||||
matrice $V^{\star}(\hat\theta)$ de manière itérative, de la même
|
||||
manière qu'avec la méthode des moments généralisée itérative, à la
|
||||
section \ref{sec:GMMtwostep}.
|
||||
|
||||
\section{Équation d'estimation optimale modifiée}
|
||||
\label{sec:eqoptmodif}
|
||||
|
||||
Il est possible que, pour certaines distributions, les expressions
|
||||
formant le vecteur de pondération optimal $\mathbf{w}^{*}(\theta)$
|
||||
soient particulièrement complexes. On pourra toujours les utiliser,
|
||||
cependant, il peut être intéressant de développer une approximation de
|
||||
celles-ci. Pour ce faire, on substitue les valeurs théoriques des
|
||||
coefficients d'asymétrie et d'aplatissement par une valeur estimée à
|
||||
partir de l'échantillon:
|
||||
\begin{subequations}\label{eq:vecteurcrowdermod}
|
||||
\begin{align}
|
||||
\mathbf{a}_{mod}^{*}(\theta) &= \frac{\left\{ -\left( \hat\gamma_2\left(\mathbf{y}_T\right)+2 \right) \mu^{\prime}\left( \theta \right) + 2\hat\gamma_1\left(\mathbf{y}_T\right) \sigma^{\prime}\left( \theta \right) \right\}}{\sigma^2\left(\theta\right)\hat\gamma_3(\mathbf{y}_T)} \label{eq:acrowdermod}\\
|
||||
\mathbf{b}_{mod}^{*}(\theta) &=
|
||||
\frac{\hat\gamma_1\left(\mathbf{y}_T\right)\mu^{\prime}\left(
|
||||
\theta \right)-2\sigma^{\prime}\left( \theta
|
||||
\right)}{\sigma^2\left( \theta
|
||||
\right)^{3/2}\hat\gamma_3(\mathbf{y}_T)} \label{eq:bcrowdermod}
|
||||
\end{align}
|
||||
|
||||
où
|
||||
\begin{align}
|
||||
\label{eq:coeffemp}
|
||||
\hat\gamma_1\left(\mathbf{y}_T\right) &= \frac{\sum_{t=1}^{T}(y_t-\overline{y})^3}{\left(\sum_{t=1}^{T}(y_t-\overline{y})^2\right)^{3/2}} \\
|
||||
\hat\gamma_2\left(\mathbf{y}_T\right) &=
|
||||
\frac{\sum_{t=1}^{T}(y_t-\overline{y})^4}{\left(\sum_{t=1}^{T}(y_t-\overline{y})^2\right)^{2}} \\
|
||||
\hat\gamma_3\left(\mathbf{y}_T\right) &=
|
||||
\hat\gamma_2\left(\mathbf{y}_T\right) + 2 -
|
||||
\hat\gamma_1\left(\mathbf{y}_T\right)^2.
|
||||
\end{align}
|
||||
\end{subequations}
|
||||
|
||||
On pourra ainsi réduire considérablement la taille des expressions à
|
||||
évaluer tout en conservant les propriétés asymptotiques des
|
||||
estimateurs, puisque l'espérance de chacune des statistiques utilisées
|
||||
est égale à la valeur que l'on a remplacée.
|
||||
|
||||
Au prochain chapitre, nous appliquerons la méthode des moments
|
||||
généralisée et la méthode de l'équation d'estimation optimale à la
|
||||
distribution de Laplace asymétrique généralisée.
|
||||
|
||||
%%% Local Variables:
|
||||
%%% mode: latex
|
||||
%%% TeX-master: "gabarit-maitrise"
|
||||
%%% End:
|
132
memoire/chapitre6.aux
Normal file
132
memoire/chapitre6.aux
Normal file
|
@ -0,0 +1,132 @@
|
|||
\relax
|
||||
\providecommand\hyper@newdestlabel[2]{}
|
||||
\citation{seneta2004fitting}
|
||||
\@writefile{lof}{\addvspace {10pt}}
|
||||
\@writefile{lot}{\addvspace {10pt}}
|
||||
\@writefile{toc}{\contentsline {chapter}{\chapternumberline {6}Estimation des param\IeC {\`e}tres de la distribution de Laplace asym\IeC {\'e}trique g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e}{73}{chapter.6}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {6.1}Vecteur de param\IeC {\`e}tres initiaux}{73}{section.6.1}}
|
||||
\newlabel{sec:condinitGAL}{{6.1}{73}{Vecteur de paramètres initiaux}{section.6.1}{}}
|
||||
\newlabel{sec:condinitGAL@cref}{{[section][1][6]6.1}{73}}
|
||||
\newlabel{eq:hypotheseMoM}{{6.1.1}{74}{Vecteur de paramètres initiaux}{equation.6.1.0.1}{}}
|
||||
\newlabel{eq:hypotheseMoM@cref}{{[equation][1][6,1]6.1.1}{74}}
|
||||
\newlabel{eq:ptdepartGAL}{{6.1.2}{74}{Vecteur de paramètres initiaux}{equation.6.1.0.2.2}{}}
|
||||
\newlabel{eq:ptdepartGAL@cref}{{[equation][2][6,1]6.1.2}{74}}
|
||||
\newlabel{eq:ptdepartGAL1}{{6.1.2a}{74}{Vecteur de paramètres initiaux}{equation.6.1.0.2a}{}}
|
||||
\newlabel{eq:ptdepartGAL1@cref}{{[equation][1][6,1,2]6.1.2a}{74}}
|
||||
\newlabel{eq:ptdepartGAL2}{{6.1.2b}{74}{Vecteur de paramètres initiaux}{equation.6.1.0.2b}{}}
|
||||
\newlabel{eq:ptdepartGAL2@cref}{{[equation][2][6,1,2]6.1.2b}{74}}
|
||||
\newlabel{eq:ptdepartGAL3}{{6.1.2c}{74}{Vecteur de paramètres initiaux}{equation.6.1.0.2c}{}}
|
||||
\newlabel{eq:ptdepartGAL3@cref}{{[equation][3][6,1,2]6.1.2c}{74}}
|
||||
\newlabel{eq:ptdepartGAL4}{{6.1.2d}{74}{Vecteur de paramètres initiaux}{equation.6.1.0.2d}{}}
|
||||
\newlabel{eq:ptdepartGAL4@cref}{{[equation][4][6,1,2]6.1.2d}{74}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {6.2}M\IeC {\'e}thode des moments g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e}{74}{section.6.2}}
|
||||
\newlabel{eq:condmom}{{6.2.1}{74}{Méthode des moments généralisée}{equation.6.2.0.1}{}}
|
||||
\newlabel{eq:condmom@cref}{{[equation][1][6,2]6.2.1}{74}}
|
||||
\newlabel{eq:condmomGAL}{{6.2.2}{74}{Méthode des moments généralisée}{equation.6.2.0.2}{}}
|
||||
\newlabel{eq:condmomGAL@cref}{{[equation][2][6,2]6.2.2}{74}}
|
||||
\newlabel{eq:condmomEMP}{{6.2.3}{75}{Méthode des moments généralisée}{equation.6.2.0.3}{}}
|
||||
\newlabel{eq:condmomEMP@cref}{{[equation][3][6,2]6.2.3}{75}}
|
||||
\newlabel{eq:condmomEMPGAL}{{6.2.4}{75}{Méthode des moments généralisée}{equation.6.2.0.4}{}}
|
||||
\newlabel{eq:condmomEMPGAL@cref}{{[equation][4][6,2]6.2.4}{75}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {6.2.1}Matrice de pond\IeC {\'e}ration optimale}{75}{subsection.6.2.1}}
|
||||
\newlabel{eq:matvcovGMMemp1}{{6.2.7}{76}{Matrice de pondération optimale}{equation.6.2.0.7}{}}
|
||||
\newlabel{eq:matvcovGMMemp1@cref}{{[equation][7][6,2]6.2.7}{76}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {6.2.2}Variance-covariance des param\IeC {\`e}tres}{76}{subsection.6.2.2}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {6.2.3}Contraintes lin\IeC {\'e}aires}{77}{subsection.6.2.3}}
|
||||
\@writefile{lot}{\contentsline {table}{\numberline {6.1}{\ignorespaces Contraintes lin\IeC {\'e}aires pour les cas particuliers de la distribution de Laplace asym\IeC {\'e}trique g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e $GAL(\theta ,\sigma ,\mu ,\tau )$\relax }}{77}{table.caption.27}}
|
||||
\newlabel{tab:contraintesGAL}{{6.1}{77}{Contraintes linéaires pour les cas particuliers de la distribution de Laplace asymétrique généralisée $GAL(\theta ,\sigma ,\mu ,\tau )$\relax }{table.caption.27}{}}
|
||||
\newlabel{tab:contraintesGAL@cref}{{[table][1][6]6.1}{77}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {6.3}M\IeC {\'e}thode de l'\IeC {\'e}quation d'estimation optimale}{78}{section.6.3}}
|
||||
\newlabel{sec:CrowderGAL}{{6.3}{78}{Méthode de l'équation d'estimation optimale}{section.6.3}{}}
|
||||
\newlabel{sec:CrowderGAL@cref}{{[section][3][6]6.3}{78}}
|
||||
\newlabel{eq:derivmomGAL}{{6.3.1}{78}{Méthode de l'équation d'estimation optimale}{equation.6.3.0.1.1}{}}
|
||||
\newlabel{eq:derivmomGAL@cref}{{[equation][1][6,3]6.3.1}{78}}
|
||||
\newlabel{eq:derivmom1GAL}{{6.3.1a}{78}{Méthode de l'équation d'estimation optimale}{equation.6.3.0.1a}{}}
|
||||
\newlabel{eq:derivmom1GAL@cref}{{[equation][1][6,3,1]6.3.1a}{78}}
|
||||
\newlabel{eq:derivmom2GAL}{{6.3.1b}{78}{Méthode de l'équation d'estimation optimale}{equation.6.3.0.1b}{}}
|
||||
\newlabel{eq:derivmom2GAL@cref}{{[equation][2][6,3,1]6.3.1b}{78}}
|
||||
\newlabel{eq:vecteurcrowdermodGAL}{{6.3.2}{79}{Méthode de l'équation d'estimation optimale}{equation.6.3.0.2.2}{}}
|
||||
\newlabel{eq:vecteurcrowdermodGAL@cref}{{[equation][2][6,3]6.3.2}{79}}
|
||||
\newlabel{eq:generalquadmod}{{6.3.3}{79}{Méthode de l'équation d'estimation optimale}{equation.6.3.0.3}{}}
|
||||
\newlabel{eq:generalquadmod@cref}{{[equation][3][6,3]6.3.3}{79}}
|
||||
\newlabel{eq:defcentrereduite}{{6.3.4}{79}{Méthode de l'équation d'estimation optimale}{equation.6.3.0.4}{}}
|
||||
\newlabel{eq:defcentrereduite@cref}{{[equation][4][6,3]6.3.4}{79}}
|
||||
\newlabel{eq:paramnonreduit}{{6.3.5}{79}{Méthode de l'équation d'estimation optimale}{equation.6.3.0.5}{}}
|
||||
\newlabel{eq:paramnonreduit@cref}{{[equation][5][6,3]6.3.5}{79}}
|
||||
\@setckpt{chapitre6}{
|
||||
\setcounter{page}{80}
|
||||
\setcounter{equation}{5}
|
||||
\setcounter{enumi}{3}
|
||||
\setcounter{enumii}{2}
|
||||
\setcounter{enumiii}{0}
|
||||
\setcounter{enumiv}{0}
|
||||
\setcounter{footnote}{0}
|
||||
\setcounter{mpfootnote}{0}
|
||||
\setcounter{@memmarkcntra}{0}
|
||||
\setcounter{storedpagenumber}{1}
|
||||
\setcounter{book}{0}
|
||||
\setcounter{part}{0}
|
||||
\setcounter{chapter}{6}
|
||||
\setcounter{section}{3}
|
||||
\setcounter{subsection}{0}
|
||||
\setcounter{subsubsection}{0}
|
||||
\setcounter{paragraph}{0}
|
||||
\setcounter{subparagraph}{0}
|
||||
\setcounter{@ppsavesec}{0}
|
||||
\setcounter{@ppsaveapp}{0}
|
||||
\setcounter{vslineno}{0}
|
||||
\setcounter{poemline}{0}
|
||||
\setcounter{modulo@vs}{0}
|
||||
\setcounter{memfvsline}{0}
|
||||
\setcounter{verse}{0}
|
||||
\setcounter{chrsinstr}{0}
|
||||
\setcounter{poem}{0}
|
||||
\setcounter{newflo@tctr}{4}
|
||||
\setcounter{@contsubnum}{0}
|
||||
\setcounter{maxsecnumdepth}{2}
|
||||
\setcounter{sidefootnote}{0}
|
||||
\setcounter{pagenote}{0}
|
||||
\setcounter{pagenoteshadow}{0}
|
||||
\setcounter{memfbvline}{0}
|
||||
\setcounter{bvlinectr}{0}
|
||||
\setcounter{cp@cntr}{0}
|
||||
\setcounter{ism@mctr}{0}
|
||||
\setcounter{xsm@mctr}{0}
|
||||
\setcounter{csm@mctr}{0}
|
||||
\setcounter{ksm@mctr}{0}
|
||||
\setcounter{xksm@mctr}{0}
|
||||
\setcounter{cksm@mctr}{0}
|
||||
\setcounter{msm@mctr}{0}
|
||||
\setcounter{xmsm@mctr}{0}
|
||||
\setcounter{cmsm@mctr}{0}
|
||||
\setcounter{bsm@mctr}{0}
|
||||
\setcounter{workm@mctr}{0}
|
||||
\setcounter{sheetsequence}{98}
|
||||
\setcounter{lastsheet}{155}
|
||||
\setcounter{lastpage}{137}
|
||||
\setcounter{figure}{0}
|
||||
\setcounter{lofdepth}{1}
|
||||
\setcounter{table}{1}
|
||||
\setcounter{lotdepth}{1}
|
||||
\setcounter{NAT@ctr}{0}
|
||||
\setcounter{nprt@mantissa@digitsbefore}{0}
|
||||
\setcounter{nprt@mantissa@digitsafter}{0}
|
||||
\setcounter{nprt@exponent@digitsbefore}{0}
|
||||
\setcounter{nprt@exponent@digitsafter}{0}
|
||||
\setcounter{nprt@digitsfirstblock}{0}
|
||||
\setcounter{nprt@blockcnt}{0}
|
||||
\setcounter{nprt@cntprint}{0}
|
||||
\setcounter{parentequation}{0}
|
||||
\setcounter{thmt@dummyctr}{3}
|
||||
\setcounter{Item}{24}
|
||||
\setcounter{Hfootnote}{1}
|
||||
\setcounter{memhycontfloat}{0}
|
||||
\setcounter{Hpagenote}{0}
|
||||
\setcounter{bookmark@seq@number}{74}
|
||||
\setcounter{ContinuedFloat}{0}
|
||||
\setcounter{app@runs}{1}
|
||||
\setcounter{pspicture}{0}
|
||||
\setcounter{section@level}{0}
|
||||
\setcounter{theo}{0}
|
||||
\setcounter{hypothese}{0}
|
||||
}
|
393
memoire/chapitre6.tex
Normal file
393
memoire/chapitre6.tex
Normal file
|
@ -0,0 +1,393 @@
|
|||
\chapter{Estimation des paramètres de la distribution de Laplace
|
||||
asymétrique généralisée}
|
||||
|
||||
Ce chapitre présente les différents éléments qui permettent d'obtenir
|
||||
des estimateurs convergents à l'aide de la méthode des moments
|
||||
généralisée et de l'équation d'estimation optimale. Premièrement, une
|
||||
méthode pour obtenir un point de départ efficace pour l'algorithme
|
||||
d'optimisation sera détaillée. Enfin, les résultats découlant des deux
|
||||
chapitres précédents seront présentés.
|
||||
|
||||
\section{Vecteur de paramètres initiaux}
|
||||
\label{sec:condinitGAL}
|
||||
|
||||
Comme chacune des deux méthodes d'estimation étudiées requiert
|
||||
l'utilisation d'un algorithme d'optimisation numérique, on doit être
|
||||
en mesure de fournir un vecteur de paramètres initiaux qui favorisera
|
||||
la convergence de celui-ci. Ce vecteur doit faire partie de l'espace
|
||||
des paramètres $\Omega$, tel que défini à la table
|
||||
\ref{tab:roleparamGAL}. Ce vecteur est plus facile à obtenir de
|
||||
manière empirique, par exemple, avec la méthode des moments, lorsque
|
||||
c'est possible. Cependant, pour la distribution de Laplace asymétrique
|
||||
généralisée, le système d'équations formé à partir des quatre premiers
|
||||
moments centraux empiriques et théoriques \eqref{eq:momentsGAL} n'a
|
||||
pas de solution analytique.
|
||||
|
||||
\cite{seneta2004fitting} propose une technique pour obtenir un vecteur
|
||||
de paramètres initiaux basé sur la méthode des moments. En utilisant
|
||||
la même démarche que ce dernier, on peut obtenir un vecteur pour la
|
||||
forme en $\mu$ de la fonction caractéristique
|
||||
\eqref{eq:fncaractGALmu}. On pose comme hypothèse dans les équations
|
||||
des quatre premiers moments \eqref{eq:moments1GAL},
|
||||
\eqref{eq:moments2GAL}, \eqref{eq:moments5GAL} et
|
||||
\eqref{eq:moments6GAL}, que le paramètre $\mu$ est significativement
|
||||
nul, donc que la distribution est presque symétrique. On impose donc
|
||||
que les puissances de ce paramètre plus grandes ou égales à deux
|
||||
soient nulles:
|
||||
\begin{align}
|
||||
\label{eq:hypotheseMoM}
|
||||
\mu^k=0, \quad k\in\{2,3,4\}.
|
||||
\end{align}
|
||||
|
||||
En posant l'égalité entre les moments théoriques et leur estimateur
|
||||
correspondant, on obtient le système d'équations suivant:
|
||||
\begin{align*}
|
||||
\hat{m_1} &= \theta+\tau\,\mu \\
|
||||
\hat{m_2} &= {\sigma}^{2}\,\tau \\
|
||||
\hat{\gamma_1} &= \frac{3\,\mu}{\left| \sigma\right| \,\sqrt{\tau}} \\
|
||||
\hat{\gamma_2} &= \frac{3}{\tau}.
|
||||
\end{align*}
|
||||
|
||||
Ce système possède deux solutions analytiques, dont une respecte la
|
||||
condition selon laquelle le paramètre $\sigma$ doit être positif. On
|
||||
note que ce résultat ne constitue qu'un point de départ pour
|
||||
l'algorithme d'optimisation numérique et qu'on ne peut, en aucun cas,
|
||||
utiliser celui-ci à des fins statistiques. C'est un estimateur biaisé
|
||||
et non convergent étant donné la condition \eqref{eq:hypotheseMoM}:
|
||||
\begin{subequations}\label{eq:ptdepartGAL}
|
||||
\begin{align}
|
||||
\hat\theta &=-\frac{\hat{\gamma_1}\,\sqrt{\hat{m_2}}-\hat{\gamma_2}\,\hat{m_1}}{\hat{\gamma_2}} \label{eq:ptdepartGAL1}\\
|
||||
\hat\sigma &= \frac{\sqrt{\hat{\gamma_2}\,\hat{m_2}}}{\sqrt{3}} > 0 \label{eq:ptdepartGAL2}\\
|
||||
\hat\mu &= \frac{\hat{\gamma_1}\,\sqrt{\hat{m_2}}}{3} \label{eq:ptdepartGAL3}\\
|
||||
\hat\tau &= \frac{3}{\hat{\gamma_2}}. \label{eq:ptdepartGAL4}
|
||||
\end{align}
|
||||
\end{subequations}
|
||||
|
||||
\section{Méthode des moments généralisée}
|
||||
|
||||
En premier lieu, on utilise la méthode des moments généralisée afin
|
||||
d'estimer les paramètres de la distribution de Laplace asymétrique
|
||||
généralisée. Aux fins d'illustration, seulement deux conditions de
|
||||
moments seront utilisées. Cependant, pour obtenir des résultats
|
||||
optimaux en termes de convergence asymptotique, on doit utiliser au
|
||||
moins autant de conditions de moment que de paramètres. Ainsi, en
|
||||
considérant la différence entre les moyennes et variances empirique et
|
||||
théorique, on obtient les conditions de moment suivantes, qui ont une
|
||||
espérance nulle sous les vrais paramètres $\theta_0$:
|
||||
\begin{align}
|
||||
h(\theta;Y) &= \left[\begin{array}[]{c}
|
||||
Y - m_1 \\
|
||||
\left(Y - m_1 \right)^2 - m_2
|
||||
\end{array}\right] \label{eq:condmom}\\
|
||||
&= \left[\begin{array}[]{c}
|
||||
Y - \left(\theta+\mu\tau\right) \\
|
||||
\left(Y - \left(\theta+\mu\tau\right) \right)^2 -
|
||||
\tau\left(\sigma^2+\mu^2\right)
|
||||
\end{array}\right]. \label{eq:condmomGAL}
|
||||
\end{align}
|
||||
|
||||
On définit la contrepartie empirique de ces conditions de moment
|
||||
comme suit:
|
||||
\begin{align}
|
||||
g(\theta;\mathbf{y}_T) &= \frac{1}{T} \left[\begin{array}[]{c}
|
||||
g_1(\theta;\mathbf{y}_T)\\
|
||||
g_2(\theta;\mathbf{y}_T)
|
||||
\end{array}\right] \nonumber\\
|
||||
&= \frac{1}{T} \left[\begin{array}[]{c}
|
||||
\sum_{t=1}^T y_t - m_1 \\
|
||||
\sum_{t=1}^T \left(y_t - m_1 \right)^2 - m_2
|
||||
\end{array}\right] \label{eq:condmomEMP}\\
|
||||
&= \frac{1}{T} \left[\begin{array}[]{c}
|
||||
\sum_{t=1}^Ty_t - \left(\theta+\mu\tau\right) \\
|
||||
\sum_{t=1}^T\left(y_t - \left(\theta+\mu\tau\right) \right)^2 -
|
||||
\tau\left(\sigma^2+\mu^2\right)
|
||||
\end{array}\right]. \label{eq:condmomEMPGAL}
|
||||
\end{align}
|
||||
|
||||
On doit définir la matrice de pondération optimale.
|
||||
|
||||
\subsection{Matrice de pondération optimale}
|
||||
|
||||
On s'intéresse à la forme analytique de la matrice de pondération
|
||||
optimale \eqref{eq:matricevcov1}. Celle-ci est obtenue en prenant
|
||||
l'espérance du produit extérieur du vecteur des conditions de moment
|
||||
théoriques sur elles-mêmes. Pour des fins de simplification, on
|
||||
définit le produit des conditions $i$ et $j$ par la notation
|
||||
$H_{i,j}(\theta;Y) = h_i(\theta;Y)h_j(\theta;Y)$.
|
||||
\begin{align}
|
||||
S(\theta;Y) &= E \left[\begin{array}{cc}
|
||||
H_{(1,1)}(\theta;Y) & H_{(1,2)}(\theta;Y) \\
|
||||
H_{(2,1)}(\theta;Y) & H_{(2,2)}(\theta;Y)
|
||||
\end{array} \right] \nonumber\\
|
||||
&= \left[\begin{array}{cc}
|
||||
E \left[H_{(1,1)}(\theta;Y)\right] & E \left[H_{(1,2)}(\theta;Y)\right] \\
|
||||
E \left[H_{(2,1)}(\theta;Y)\right] & E \left[H_{(2,2)}(\theta;Y)\right]
|
||||
\end{array} \right]
|
||||
\end{align}
|
||||
où
|
||||
\begin{align*}
|
||||
H_{(1,1)}(\theta;Y) &=\left( Y-\theta-\mu\,\tau\right)^{2} \\
|
||||
H_{(1,2)}(\theta;Y) &=\left( {Y}^{2}-2\,\theta\,Y-2\,\mu\,\tau\,Y+{\theta}^{2}+2\,\mu\,\tau\,\theta+{\mu}^{2}\,{\tau}^{2}-{\sigma}^{2}\,\tau-{\mu}^{2}\,\tau\right)^{2} \\
|
||||
H_{(2,2)}(\theta;Y) &=\left( Y-\theta-\mu\,\tau\right) \,\left(
|
||||
{Y}^{2}-2\,\theta\,Y-2\,\mu\,\tau\,Y+{\theta}^{2}+2\,\mu\,\tau\,\theta+{\mu}^{2}\,{\tau}^{2}-{\sigma}^{2}\,\tau-{\mu}^{2}\,\tau\right).
|
||||
\end{align*}
|
||||
|
||||
On évalue ensuite l'espérance de chacun des éléments de la matrice, où
|
||||
l'on définit de manière analogue celle du produit des conditions de
|
||||
moments, $W_{(i,j)}(\theta;Y) = E[H_{(i,j)}(\theta;Y)]$.
|
||||
\begin{align}
|
||||
W(\theta;Y) &= \left[\begin{array}{cc}
|
||||
W_{(1,1)}(\theta;Y) & W_{(1,2)}(\theta;Y) \\
|
||||
W_{(2,1)}(\theta;Y) & W_{(2,2)}(\theta;Y)
|
||||
\end{array} \right]
|
||||
\end{align}
|
||||
où
|
||||
\begin{align*}
|
||||
W_{(1,1)} &= {\mu}^{2}\,{\tau}^{2}-2\,{\mu}^{2}\,\nu\,\tau+\nu\,{\sigma}^{2}+{\mu}^{2}\,{\nu}^{2}+{\mu}^{2}\,\nu \\
|
||||
W_{(2,2)} &= {\mu}^{4}\,{\tau}^{4}+\left( -2\,{\mu}^{2}\,{\sigma}^{2}-4\,{\mu}^{4}\,\nu-2\,{\mu}^{4}\right) \,{\tau}^{3}+\left( {\sigma}^{4}+\left( 10\,{\mu}^{2}\,\nu+2\,{\mu}^{2}\right) \,{\sigma}^{2}+6\,{\mu}^{4}\,{\nu}^{2}+10\,{\mu}^{4}\,\nu+{\mu}^{4}\right) \,{\tau}^{2}\\
|
||||
&+\left( -2\,\nu\,{\sigma}^{4}+ \left( -14\,{\mu}^{2}\,{\nu}^{2}-16\,{\mu}^{2}\,\nu\right) \,{\sigma}^{2}-4\,{\mu}^{4}\,{\nu}^{3}-14\,{\mu}^{4}\,{\nu}^{2}-10\,{\mu}^{4}\,\nu\right) \,\tau+\left( 3\,{\nu}^{2}+3\,\nu\right) \,{\sigma}^{4}\\
|
||||
&+\left( 6\,{\mu}^{2}\,{\nu}^{3}+18\,{\mu}^{2}\,{\nu}^{2}+12\,{\mu}^{2}\,\nu\right) \,{\sigma}^{2}+{\mu}^{4}\,{\nu}^{4}+6\,{\mu}^{4}\,{\nu}^{3}+11\,{\mu}^{4}\,{\nu}^{2}+6\,{\mu}^{4}\,\nu \\
|
||||
W_{(1,2)} &= W_{(2,1)} = 3\,{\theta}^{4}+\left( 6\,\mu\,\nu-3\right) \,{\theta}^{3}+\left( 3\,\nu\,{\sigma}^{2}+3\,{\mu}^{2}\,{\nu}^{2}+\left( 3\,{\mu}^{2}-3\,\mu\right) \,\nu\right) \,{\theta}^{2}-{\mu}^{3}\,{\tau}^{3} \\
|
||||
&+\left( \mu\,{\sigma}^{2}+3\,{\mu}^{3}\,\nu+{\mu}^{3}\right) \,{\tau}^{2}+\left( -4\,\mu\,\nu\,{\sigma}^{2}-3\,{\mu}^{3}\,{\nu}^{2}-4\,{\mu}^{3}\,\nu\right) \,\tau+\left( 3\,\mu\,{\nu}^{2}+3\,\mu\,\nu\right) \,{\sigma}^{2}\\
|
||||
&+{\mu}^{3}\,{\nu}^{3}+3\,{\mu}^{3}\,{\nu}^{2}+2\,{\mu}^{3}\,\nu.
|
||||
\end{align*}
|
||||
|
||||
On évalue quelle serait la valeur de la variance-covariance sous des
|
||||
paramètres optimaux. Ce résultat permet par la suite d'évaluer la
|
||||
distribution asymptotique des estimateurs.
|
||||
|
||||
On obtient l'estimateur de la matrice optimale \eqref{eq:matvcovGMM}
|
||||
en effectuant le produit extérieur du vecteur de conditions de moment
|
||||
empirique \eqref{eq:condmomGAL}, puis en évaluant la moyenne des
|
||||
matrices résultantes de l'équation \eqref{eq:matponderationproduith}:
|
||||
\begin{align}
|
||||
\label{eq:matvcovGMMemp1}
|
||||
\hat{S}(\theta;\mathbf{y}_T) &= \frac{1}{T} \sum_{t=1}^T
|
||||
\left[\begin{array}{cc}
|
||||
G_{(1,1)}(\theta;y_t) & G_{(1,2)}(\theta;y_t) \\
|
||||
G_{(2,1)}(\theta;y_t) & G_{(2,2)}(\theta;y_t)
|
||||
\end{array} \right]
|
||||
\end{align}
|
||||
où
|
||||
\begin{align*}
|
||||
G_{(1,1)}(\theta;y_t) &=\left( y_t-\theta-\mu\,\tau\right)^{2} \\
|
||||
G_{(1,2)}(\theta;y_t) &=\left( {y_t}^{2}-2\,\theta\,y_t-2\,\mu\,\tau\,y_t+{\theta}^{2}+2\,\mu\,\tau\,\theta+{\mu}^{2}\,{\tau}^{2}-{\sigma}^{2}\,\tau-{\mu}^{2}\,\tau\right)^{2} \\
|
||||
G_{(2,2)}(\theta;y_t) &=\left( y_t-\theta-\mu\,\tau\right) \,\left(
|
||||
{y_t}^{2}-2\,\theta\,y_t-2\,\mu\,\tau\,y_t+{\theta}^{2}+2\,\mu\,\tau\,\theta+{\mu}^{2}\,{\tau}^{2}-{\sigma}^{2}\,\tau-{\mu}^{2}\,\tau\right).
|
||||
\end{align*}
|
||||
|
||||
|
||||
\subsection{Variance-covariance des paramètres}
|
||||
|
||||
On obtient la variance-covariance asymptotique des paramètres à partir
|
||||
de la variance-covariance associée aux conditions de moment, en
|
||||
utilisant la méthode delta multivariée. Pour ce faire, on évalue
|
||||
d'abord la valeur théorique du gradient $D(\theta)$.
|
||||
\begin{align}
|
||||
D(\theta) &= E \left[ \begin{array}{cc}
|
||||
-1 & -2\,\left( Y-\theta-\mu\,\tau\right) \\
|
||||
0 & -2\,\sigma\,\tau \\
|
||||
-\tau & -2\,\tau\,\left( Y-\theta-\mu\,\tau\right) -2\,\mu\,\tau \\
|
||||
-\nu & -2\,\mu\,\left( Y-\theta-\mu\,\tau\right)
|
||||
-{\sigma}^{2}-{\mu}^{2}
|
||||
\end{array}\right] \nonumber\\
|
||||
&= \left[ \begin{array}{cc}
|
||||
-1 & 0 \\
|
||||
0 & -2\,\sigma\,\tau \\
|
||||
-\tau & -2\,\mu\,\tau \\
|
||||
-\nu & -{\sigma}^{2}-{\mu}^{2}
|
||||
\end{array}\right].
|
||||
\end{align}
|
||||
|
||||
Ensuite, on utilise le résultat \eqref{matricevcovparamGMMnc} afin
|
||||
d'obtenir la valeur de la variance-covariance $\mathcal{J}_0^{-1}$.
|
||||
|
||||
De la même manière, on évalue la variance-covariance des paramètres
|
||||
optimaux en utilisant les valeurs empiriques de la variance-covariance
|
||||
des conditions de moment \eqref{eq:matvcovGMMemp1} et du gradient
|
||||
$\hat{D}(\theta,\mathbf{y}_T)$, défini par la matrice
|
||||
\eqref{eq:gradientGMM}. On a essentiellement à calculer la moyenne
|
||||
empirique des gradients obtenus en chaque point $y_t$, puis à utiliser
|
||||
le résultat \eqref{matricevcovparamGMMnc} avec les estimateurs
|
||||
$\hat{W}_T = \hat{S}^{-1}(\theta,\mathbf{y}_T)$ et
|
||||
$\hat{D}(\theta,\mathbf{y}_T)$:
|
||||
\begin{align}
|
||||
\hat{D}(\theta,\mathbf{y}_T) &= \frac{1}{T} \sum_{t=1}^{T}
|
||||
\left[ \begin{array}{cc}
|
||||
-1 & -2\,\left( y_t-\theta-\mu\,\tau\right) \\
|
||||
0 & -2\,\sigma\,\tau \\
|
||||
-\tau & -2\,\tau\,\left( y_t-\theta-\mu\,\tau\right) -2\,\mu\,\tau \\
|
||||
-\nu & -2\,\mu\,\left( y_t-\theta-\mu\,\tau\right)
|
||||
-{\sigma}^{2}-{\mu}^{2}
|
||||
\end{array}\right].
|
||||
\end{align}
|
||||
|
||||
\subsection{Contraintes linéaires}
|
||||
|
||||
Une fois l'estimation des paramètres effectuée, on peut tester si ces
|
||||
derniers pourraient en fait correspondre à un cas particulier de la
|
||||
distribution de Laplace asymétrique généralisée ayant le même support,
|
||||
parmi celles figurant à la table \ref{tab:casspeciauxGAL}. Pour ce
|
||||
faire, on doit déterminer les paramètres de la distribution sous un
|
||||
ensemble de contraintes linéaires, sous la forme
|
||||
\eqref{eq:contraintelin}, correspondant au cas particulier, tel
|
||||
qu'énuméré dans la table \ref{tab:contraintesGAL}.
|
||||
\begin{table}[h!]
|
||||
\centering
|
||||
\begin{tabular}{ccc}
|
||||
& \multicolumn{2}{c}{\textbf{Paramètres}} \\
|
||||
\hline
|
||||
$\text{\textbf{Distribution}}$ & $R$ & $r$ \\
|
||||
\hline
|
||||
Laplace symétrique & $\begin{bmatrix}
|
||||
0&0&1&0\\
|
||||
0&0&0&1
|
||||
\end{bmatrix}$ & $\begin{bmatrix}
|
||||
0\\
|
||||
1
|
||||
\end{bmatrix}$ \\[1cm]
|
||||
Laplace asymétrique & $\begin{bmatrix} 0&0&0&1
|
||||
\end{bmatrix}$ & $\begin{bmatrix} 1
|
||||
\end{bmatrix}$ \\[1cm]
|
||||
Dégénérée à $\theta$ & $\begin{bmatrix}
|
||||
0&1&0&0\\
|
||||
0&0&1&0\\
|
||||
0&0&0&1
|
||||
\end{bmatrix}$ & $\begin{bmatrix}
|
||||
0\\
|
||||
0\\
|
||||
0\\
|
||||
\end{bmatrix}$\\\hline
|
||||
\end{tabular}
|
||||
\caption{Contraintes linéaires pour les cas particuliers de la distribution de Laplace asymétrique généralisée $GAL(\theta,\sigma,\mu,\tau)$}
|
||||
\label{tab:contraintesGAL}
|
||||
\end{table}
|
||||
|
||||
On doit ensuite utiliser un algorithme d'optimisation numérique afin
|
||||
de maximiser le lagrangien \eqref{eq:estimateurGMMlagrange} défini par
|
||||
la fonction objectif $Q_T(\theta)$ \eqref{eq:objectifGMM2} et
|
||||
l'ensemble de contraintes $a(\theta) = R\theta-r$ sélectionné
|
||||
précédemment. Enfin, on peut effectuer les tests statistiques de la
|
||||
section \ref{sec:testwald} afin de vérifier si les paramètres de la
|
||||
distribution contrainte sont significativement différents de ceux de
|
||||
la distribution non contrainte. Dans cette situation, l'hypothèse
|
||||
selon laquelle le cas particulier serait approprié pour décrire la
|
||||
distribution des données de l'échantillon serait rejetée.
|
||||
|
||||
Notons qu'on peut aussi estimer les paramètres de chacun des cas
|
||||
particuliers directement par la méthode des moments généralisée en
|
||||
utilisant des conditions de moment basées sur la moyenne $m_1$ et la
|
||||
variance $m_2$ de la forme \eqref{eq:condmom}. Par contre, dans ces
|
||||
cas, on devra utiliser des tests d'adéquation non paramétriques afin
|
||||
de décider laquelle représente mieux la distribution de l'échantillon
|
||||
de données. Ces tests seront présentés au chapitre suivant, à la
|
||||
section \ref{sec:testnonparam}.
|
||||
|
||||
\section{Méthode de l'équation d'estimation optimale}
|
||||
\label{sec:CrowderGAL}
|
||||
|
||||
On utilise maintenant la méthode de l'équation d'estimation optimale
|
||||
afin d’estimer les paramètres de la distribution de Laplace
|
||||
asymétrique généralisée. On considère une équation d'estimation de la
|
||||
forme quadratique \eqref{eq:generalquad}, basée sur les conditions de
|
||||
moments \eqref{eq:condmomGAL} utilisées à la section précédente.
|
||||
|
||||
On évalue d'abord les expressions des dérivées premières de la moyenne
|
||||
et de l'écart-type par rapport au vecteur de paramètres
|
||||
\eqref{eq:derivmom}:
|
||||
\begin{subequations}\label{eq:derivmomGAL}
|
||||
\begin{align}
|
||||
\mu^{\prime}\left( \theta \right) &= \frac{d}{d\theta}\left(\theta+\tau\,\mu\right) \nonumber\\
|
||||
&= \left[ \begin{array}{c} 1\\
|
||||
0\\
|
||||
\tau\\
|
||||
\mu\end{array} \right]^T \label{eq:derivmom1GAL}\\
|
||||
\sigma^{\prime}\left( \theta \right) &= \frac{d}{d\theta}\sqrt{\tau\sigma^2+\tau\mu^2} \nonumber\\
|
||||
&= \frac{1}{\sqrt {\tau\,{\sigma}^{2}+\tau\,{\mu}^{2}}}
|
||||
\left[ \begin{array}{c}
|
||||
0\\
|
||||
{\tau\,\sigma}\\
|
||||
{\tau\,\mu}\\
|
||||
\frac{{\sigma}^{2}+{\mu}^{2}}{2}
|
||||
\end{array} \right]^T.\label{eq:derivmom2GAL}
|
||||
\end{align}
|
||||
\end{subequations}
|
||||
|
||||
On peut alors obtenir une forme analytique en utilisant les
|
||||
expressions déterminées précédemment pour $\mathbf{a}(\theta)$ et
|
||||
$\mathbf{b}(\theta)$ \eqref{eq:coefficientscrowder}, les moments de la
|
||||
distribution \eqref{eq:momentsGAL} ainsi que les coefficients
|
||||
d'asymétrie et d'aplatissement \eqref{eq:moments56GAL}. Étant donné la
|
||||
longueur des expressions obtenues, elles ne seront pas présentées dans
|
||||
ce texte. Cependant, on peut facilement les évaluer à l'aide d'un
|
||||
logiciel de calcul symbolique. On combine ensuite celles-ci pour
|
||||
obtenir l'équation d'estimation optimale $g\left(\theta;\mathbf{y}_T
|
||||
\right)$ de forme quadratique.
|
||||
|
||||
On obtient cependant des expressions plus faciles à manipuler pour
|
||||
$\mathbf{a}(\theta)$ et $\mathbf{b}(\theta)$ en utilisant la version
|
||||
modifiée du vecteur de pondération optimal
|
||||
\eqref{eq:vecteurcrowdermod}:
|
||||
\begin{subequations}
|
||||
\label{eq:vecteurcrowdermodGAL}
|
||||
\begin{align}
|
||||
\mathbf{a}_{mod}^{*}(\theta;\mathbf{y}_T) &= \begin{bmatrix}
|
||||
\frac{-\hat\gamma_2\left(\mathbf{y}_T\right)-2}{\left( {\sigma}^{2}+{\mu}^{2}\right) \,\tau\,\hat\gamma_3\left(\mathbf{y}_T\right) } \\
|
||||
\frac{2\,\sigma\,\hat\gamma_1\left(\mathbf{y}_T\right)}{{\left( {\sigma}^{2}+{\mu}^{2}\right) }^{3/2}\,\sqrt{\tau}\,\hat\gamma_3\left(\mathbf{y}_T\right) } \\
|
||||
\frac{\frac{2\,\mu\,\sqrt{\tau}\,\hat\gamma_1\left(\mathbf{y}_T\right)}{\sqrt{{\sigma}^{2}+{\mu}^{2}}}+\tau\,\left( -\hat\gamma_2\left(\mathbf{y}_T\right)-2\right) }{\left( {\sigma}^{2}+{\mu}^{2}\right) \,\tau\,\hat\gamma_3\left(\mathbf{y}_T\right) } \\
|
||||
\frac{\frac{\sqrt{{\sigma}^{2}+{\mu}^{2}}\,\hat\gamma_1\left(\mathbf{y}_T\right)}{\sqrt{\tau}}+\mu\,\left(
|
||||
-\hat\gamma_2\left(\mathbf{y}_T\right)-2\right) }{\left(
|
||||
{\sigma}^{2}+{\mu}^{2}\right)
|
||||
\,\tau\,\hat\gamma_3\left(\mathbf{y}_T\right) }
|
||||
\end{bmatrix} \\
|
||||
\mathbf{b}_{mod}^{*}(\theta;\mathbf{y}_T) &= \begin{bmatrix}
|
||||
\frac{\hat\gamma_1\left(\mathbf{y}_T\right)}{{\left( {\sigma}^{2}+{\mu}^{2}\right) }^{3/2}\,{\tau}^{3/2}\,\hat\gamma_3\left(\mathbf{y}_T\right) } \\
|
||||
-\frac{2\,\sigma}{{\left( {\sigma}^{2}+{\mu}^{2}\right) }^{2}\,\tau\,\hat\gamma_3\left(\mathbf{y}_T\right) } \\
|
||||
\frac{\tau\,\hat\gamma_1\left(\mathbf{y}_T\right)-\frac{2\,\mu\,\sqrt{\tau}}{\sqrt{{\sigma}^{2}+{\mu}^{2}}}}{{\left( {\sigma}^{2}+{\mu}^{2}\right) }^{3/2}\,{\tau}^{3/2}\,\hat\gamma_3\left(\mathbf{y}_T\right) } \\
|
||||
\frac{\mu\,\hat\gamma_1\left(\mathbf{y}_T\right)-\frac{\sqrt{{\sigma}^{2}+{\mu}^{2}}}{\sqrt{\tau}}}{{\left(
|
||||
{\sigma}^{2}+{\mu}^{2}\right)
|
||||
}^{3/2}\,{\tau}^{3/2}\,\hat\gamma_3\left(\mathbf{y}_T\right) }
|
||||
\end{bmatrix}.
|
||||
\end{align}
|
||||
\end{subequations}
|
||||
|
||||
On insère ensuite ces dernières dans la forme générale
|
||||
\eqref{eq:generalquad} pour obtenir l'équation d'estimation optimale
|
||||
modifiée $g_{mod}^{*}\left(\theta;Y \right)$:
|
||||
\begin{align}
|
||||
\label{eq:generalquadmod}
|
||||
g_{mod}^{*}\left(\theta;Y \right) = \sum_{t=1}^n \left[
|
||||
\mathbf{a}_{mod}^{*}(\theta;\mathbf{y}_T)(y_t-\mu\left(\theta\right)) +
|
||||
\mathbf{b}_{mod}^{*}(\theta;\mathbf{y}_T)\left((y_t-\mu\left(\theta\right))^2-\sigma^2\left(\theta\right)
|
||||
\right)\right].
|
||||
\end{align}
|
||||
|
||||
On note qu'afin d'éviter des irrégularités numériques, on suggère,
|
||||
dans les deux cas, de faire l'estimation sur des données centrées et
|
||||
réduites:
|
||||
\begin{align}
|
||||
X_t &=
|
||||
\frac{Y_t-\hat{m_1}}{\sqrt{\hat{m_2}}}. \label{eq:defcentrereduite}
|
||||
\end{align}
|
||||
|
||||
Comme précédemment, on pourra utiliser la propriété d'invariance
|
||||
\eqref{eq:GALscaletrans} de la paramétrisation en $\kappa$ afin de
|
||||
retrouver les paramètres de la distribution de la variable aléatoire
|
||||
$Y_t$ une fois l'estimation effectuée:
|
||||
\begin{align}
|
||||
Y_t &= \hat{\sigma}_{t} X_t + \hat{\mu}_{t} \sim
|
||||
GAL(\hat{\sigma}_{t} \theta +
|
||||
\hat{\mu}_{t},\hat{\sigma}_{t}\sigma,\kappa,\tau). \label{eq:paramnonreduit}
|
||||
\end{align}
|
||||
|
||||
Afin d'obtenir le vecteur de paramètres estimés $\hat\theta$, on
|
||||
minimise la fonction objectif
|
||||
$\Lambda\left(\theta;\mathbf{y}_T\right)$
|
||||
\eqref{eq:eqnobjectifEE}. Une fois les paramètres obtenus, on peut
|
||||
ensuite évaluer la variance-covariance de ces estimateurs, à partir du
|
||||
résultat \eqref{eq:Moptimalestimetheta}.
|
||||
|
||||
%%% Local Variables:
|
||||
%%% mode: latex
|
||||
%%% TeX-master: "gabarit-maitrise"
|
||||
%%% End:
|
160
memoire/chapitre7.aux
Normal file
160
memoire/chapitre7.aux
Normal file
|
@ -0,0 +1,160 @@
|
|||
\relax
|
||||
\providecommand\hyper@newdestlabel[2]{}
|
||||
\citation{shapiro1965analysis}
|
||||
\citation{shapiro1965analysis}
|
||||
\citation{shapiro1965analysis}
|
||||
\citation{epps1983test}
|
||||
\@writefile{lof}{\addvspace {10pt}}
|
||||
\@writefile{lot}{\addvspace {10pt}}
|
||||
\@writefile{toc}{\contentsline {chapter}{\chapternumberline {7}Tests statistiques}{81}{chapter.7}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {7.1}Test de normalit\IeC {\'e}}{81}{section.7.1}}
|
||||
\newlabel{sec:testnormalite}{{7.1}{81}{Test de normalité}{section.7.1}{}}
|
||||
\newlabel{sec:testnormalite@cref}{{[section][1][7]7.1}{81}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {7.1.1}Test de Shapiro-Wilk}{81}{subsection.7.1.1}}
|
||||
\newlabel{sec:test-de-shapiro}{{7.1.1}{81}{Test de Shapiro-Wilk}{subsection.7.1.1}{}}
|
||||
\newlabel{sec:test-de-shapiro@cref}{{[subsection][1][7,1]7.1.1}{81}}
|
||||
\newlabel{eq:shapirowilkb1}{{7.1.1}{81}{Test de Shapiro-Wilk}{equation.7.1.0.1}{}}
|
||||
\newlabel{eq:shapirowilkb1@cref}{{[equation][1][7,1]7.1.1}{81}}
|
||||
\newlabel{eq:shapirowilkb2}{{7.1.2}{81}{Test de Shapiro-Wilk}{equation.7.1.0.2}{}}
|
||||
\newlabel{eq:shapirowilkb2@cref}{{[equation][2][7,1]7.1.2}{81}}
|
||||
\citation{henze1990approximation}
|
||||
\citation{henze1990approximation}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {7.1.2}Test d\IeC {\textquoteright }Epps-Pulley}{82}{subsection.7.1.2}}
|
||||
\newlabel{sec:test-de-epps}{{7.1.2}{82}{Test d’Epps-Pulley}{subsection.7.1.2}{}}
|
||||
\newlabel{sec:test-de-epps@cref}{{[subsection][2][7,1]7.1.2}{82}}
|
||||
\newlabel{eq:statistiqueEppsPulley}{{7.1.3}{82}{Test d’Epps-Pulley}{equation.7.1.0.3}{}}
|
||||
\newlabel{eq:statistiqueEppsPulley@cref}{{[equation][3][7,1]7.1.3}{82}}
|
||||
\newlabel{eq:EppsPulley}{{7.1.4}{82}{Test d’Epps-Pulley}{equation.7.1.0.4}{}}
|
||||
\newlabel{eq:EppsPulley@cref}{{[equation][4][7,1]7.1.4}{82}}
|
||||
\newlabel{eq:EppsPulleyMod}{{7.1.5}{82}{Test d’Epps-Pulley}{equation.7.1.0.5}{}}
|
||||
\newlabel{eq:EppsPulleyMod@cref}{{[equation][5][7,1]7.1.5}{82}}
|
||||
\newlabel{eq:ZEppsPulley}{{7.1.6}{82}{Test d’Epps-Pulley}{equation.7.1.0.6}{}}
|
||||
\newlabel{eq:ZEppsPulley@cref}{{[equation][6][7,1]7.1.6}{82}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {7.2}Tests d'ad\IeC {\'e}quation}{82}{section.7.2}}
|
||||
\newlabel{sec:testnonparam}{{7.2}{82}{Tests d'adéquation}{section.7.2}{}}
|
||||
\newlabel{sec:testnonparam@cref}{{[section][2][7]7.2}{82}}
|
||||
\citation{hogg1978introduction}
|
||||
\newlabel{eq:hypotheseadeqcomp}{{7.2.1}{83}{Tests d'adéquation}{equation.7.2.0.1}{}}
|
||||
\newlabel{eq:hypotheseadeqcomp@cref}{{[equation][1][7,2]7.2.1}{83}}
|
||||
\newlabel{eq:hypotheseadeq}{{7.2.2}{83}{Tests d'adéquation}{equation.7.2.0.2}{}}
|
||||
\newlabel{eq:hypotheseadeq@cref}{{[equation][2][7,2]7.2.2}{83}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {7.2.1}Test $\chi ^2$ de Pearson}{83}{subsection.7.2.1}}
|
||||
\newlabel{sec:testchi2}{{7.2.1}{83}{Test $\chi ^2$ de Pearson}{subsection.7.2.1}{}}
|
||||
\newlabel{sec:testchi2@cref}{{[subsection][1][7,2]7.2.1}{83}}
|
||||
\newlabel{eq:pmultinomiale}{{7.2.3}{83}{Test $\chi ^2$ de Pearson}{equation.7.2.0.3}{}}
|
||||
\newlabel{eq:pmultinomiale@cref}{{[equation][3][7,2]7.2.3}{83}}
|
||||
\newlabel{eq:statchi2}{{7.2.4}{83}{Test $\chi ^2$ de Pearson}{equation.7.2.0.4}{}}
|
||||
\newlabel{eq:statchi2@cref}{{[equation][4][7,2]7.2.4}{83}}
|
||||
\citation{wang2003evaluating}
|
||||
\newlabel{eq:hyp0-1}{{7.2.5}{84}{Test $\chi ^2$ de Pearson}{equation.7.2.0.5}{}}
|
||||
\newlabel{eq:hyp0-1@cref}{{[equation][5][7,2]7.2.5}{84}}
|
||||
\newlabel{eq:hyp0-2}{{7.2.6}{84}{Test $\chi ^2$ de Pearson}{equation.7.2.0.6}{}}
|
||||
\newlabel{eq:hyp0-2@cref}{{[equation][6][7,2]7.2.6}{84}}
|
||||
\newlabel{eq:statchi2param}{{7.2.7}{84}{Test $\chi ^2$ de Pearson}{equation.7.2.0.7}{}}
|
||||
\newlabel{eq:statchi2param@cref}{{[equation][7][7,2]7.2.7}{84}}
|
||||
\newlabel{eq:quantilechisq}{{7.2.8}{84}{Test $\chi ^2$ de Pearson}{equation.7.2.0.8}{}}
|
||||
\newlabel{eq:quantilechisq@cref}{{[equation][8][7,2]7.2.8}{84}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {7.2.2}Test de Kolmogorov-Smirnov}{84}{subsection.7.2.2}}
|
||||
\newlabel{sec:kolmogorovsmirnov}{{7.2.2}{84}{Test de Kolmogorov-Smirnov}{subsection.7.2.2}{}}
|
||||
\newlabel{sec:kolmogorovsmirnov@cref}{{[subsection][2][7,2]7.2.2}{84}}
|
||||
\newlabel{eq:statks}{{7.2.9}{84}{Test de Kolmogorov-Smirnov}{equation.7.2.0.9}{}}
|
||||
\newlabel{eq:statks@cref}{{[equation][9][7,2]7.2.9}{84}}
|
||||
\newlabel{eq:repartemp}{{7.2.10}{84}{Test de Kolmogorov-Smirnov}{equation.7.2.0.10}{}}
|
||||
\newlabel{eq:repartemp@cref}{{[equation][10][7,2]7.2.10}{84}}
|
||||
\newlabel{eq:repartkolmogorov}{{7.2.11}{84}{Test de Kolmogorov-Smirnov}{equation.7.2.0.11}{}}
|
||||
\newlabel{eq:repartkolmogorov@cref}{{[equation][11][7,2]7.2.11}{84}}
|
||||
\citation{luong1987minimum}
|
||||
\citation{feuerverger1981efficiency}
|
||||
\citation{KOUTROUVELIS01011980}
|
||||
\newlabel{eq:quantilekolmogorov}{{7.2.13}{85}{Test de Kolmogorov-Smirnov}{equation.7.2.0.13}{}}
|
||||
\newlabel{eq:quantilekolmogorov@cref}{{[equation][13][7,2]7.2.13}{85}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {7.2.3}Test de distance minimale bas\IeC {\'e} sur la fonction g\IeC {\'e}n\IeC {\'e}ratrice des moments}{85}{subsection.7.2.3}}
|
||||
\newlabel{sec:test-de-distance}{{7.2.3}{85}{Test de distance minimale basé sur la fonction génératrice des moments}{subsection.7.2.3}{}}
|
||||
\newlabel{sec:test-de-distance@cref}{{[subsection][3][7,2]7.2.3}{85}}
|
||||
\newlabel{eq:4}{{7.2.14}{85}{Test de distance minimale basé sur la fonction génératrice des moments}{equation.7.2.0.14}{}}
|
||||
\newlabel{eq:4@cref}{{[equation][14][7,2]7.2.14}{85}}
|
||||
\newlabel{eq:5}{{7.2.15}{85}{Test de distance minimale basé sur la fonction génératrice des moments}{equation.7.2.0.15}{}}
|
||||
\newlabel{eq:5@cref}{{[equation][15][7,2]7.2.15}{85}}
|
||||
\newlabel{eq:9}{{7.2.16}{85}{Test de distance minimale basé sur la fonction génératrice des moments}{equation.7.2.0.16}{}}
|
||||
\newlabel{eq:9@cref}{{[equation][16][7,2]7.2.16}{85}}
|
||||
\newlabel{eq:14}{{7.2.17}{86}{Test de distance minimale basé sur la fonction génératrice des moments}{equation.7.2.0.17}{}}
|
||||
\newlabel{eq:14@cref}{{[equation][17][7,2]7.2.17}{86}}
|
||||
\newlabel{eq:10}{{7.2.18}{86}{Test de distance minimale basé sur la fonction génératrice des moments}{equation.7.2.0.18}{}}
|
||||
\newlabel{eq:10@cref}{{[equation][18][7,2]7.2.18}{86}}
|
||||
\@setckpt{chapitre7}{
|
||||
\setcounter{page}{87}
|
||||
\setcounter{equation}{18}
|
||||
\setcounter{enumi}{2}
|
||||
\setcounter{enumii}{2}
|
||||
\setcounter{enumiii}{0}
|
||||
\setcounter{enumiv}{0}
|
||||
\setcounter{footnote}{0}
|
||||
\setcounter{mpfootnote}{0}
|
||||
\setcounter{@memmarkcntra}{0}
|
||||
\setcounter{storedpagenumber}{1}
|
||||
\setcounter{book}{0}
|
||||
\setcounter{part}{0}
|
||||
\setcounter{chapter}{7}
|
||||
\setcounter{section}{2}
|
||||
\setcounter{subsection}{3}
|
||||
\setcounter{subsubsection}{0}
|
||||
\setcounter{paragraph}{0}
|
||||
\setcounter{subparagraph}{0}
|
||||
\setcounter{@ppsavesec}{0}
|
||||
\setcounter{@ppsaveapp}{0}
|
||||
\setcounter{vslineno}{0}
|
||||
\setcounter{poemline}{0}
|
||||
\setcounter{modulo@vs}{0}
|
||||
\setcounter{memfvsline}{0}
|
||||
\setcounter{verse}{0}
|
||||
\setcounter{chrsinstr}{0}
|
||||
\setcounter{poem}{0}
|
||||
\setcounter{newflo@tctr}{4}
|
||||
\setcounter{@contsubnum}{0}
|
||||
\setcounter{maxsecnumdepth}{2}
|
||||
\setcounter{sidefootnote}{0}
|
||||
\setcounter{pagenote}{0}
|
||||
\setcounter{pagenoteshadow}{0}
|
||||
\setcounter{memfbvline}{0}
|
||||
\setcounter{bvlinectr}{0}
|
||||
\setcounter{cp@cntr}{0}
|
||||
\setcounter{ism@mctr}{0}
|
||||
\setcounter{xsm@mctr}{0}
|
||||
\setcounter{csm@mctr}{0}
|
||||
\setcounter{ksm@mctr}{0}
|
||||
\setcounter{xksm@mctr}{0}
|
||||
\setcounter{cksm@mctr}{0}
|
||||
\setcounter{msm@mctr}{0}
|
||||
\setcounter{xmsm@mctr}{0}
|
||||
\setcounter{cmsm@mctr}{0}
|
||||
\setcounter{bsm@mctr}{0}
|
||||
\setcounter{workm@mctr}{0}
|
||||
\setcounter{sheetsequence}{105}
|
||||
\setcounter{lastsheet}{155}
|
||||
\setcounter{lastpage}{137}
|
||||
\setcounter{figure}{0}
|
||||
\setcounter{lofdepth}{1}
|
||||
\setcounter{table}{0}
|
||||
\setcounter{lotdepth}{1}
|
||||
\setcounter{NAT@ctr}{0}
|
||||
\setcounter{nprt@mantissa@digitsbefore}{0}
|
||||
\setcounter{nprt@mantissa@digitsafter}{0}
|
||||
\setcounter{nprt@exponent@digitsbefore}{0}
|
||||
\setcounter{nprt@exponent@digitsafter}{0}
|
||||
\setcounter{nprt@digitsfirstblock}{0}
|
||||
\setcounter{nprt@blockcnt}{0}
|
||||
\setcounter{nprt@cntprint}{0}
|
||||
\setcounter{parentequation}{0}
|
||||
\setcounter{thmt@dummyctr}{3}
|
||||
\setcounter{Item}{26}
|
||||
\setcounter{Hfootnote}{1}
|
||||
\setcounter{memhycontfloat}{0}
|
||||
\setcounter{Hpagenote}{0}
|
||||
\setcounter{bookmark@seq@number}{82}
|
||||
\setcounter{ContinuedFloat}{0}
|
||||
\setcounter{app@runs}{1}
|
||||
\setcounter{pspicture}{0}
|
||||
\setcounter{section@level}{0}
|
||||
\setcounter{theo}{0}
|
||||
\setcounter{hypothese}{0}
|
||||
}
|
9686
memoire/chapitre7.log
Normal file
9686
memoire/chapitre7.log
Normal file
File diff suppressed because it is too large
Load diff
336
memoire/chapitre7.tex
Normal file
336
memoire/chapitre7.tex
Normal file
|
@ -0,0 +1,336 @@
|
|||
\chapter{Tests statistiques}
|
||||
|
||||
\section{Test de normalité}
|
||||
\label{sec:testnormalite}
|
||||
|
||||
On utilise un test de normalité afin de vérifier si l'on peut rejeter
|
||||
l'hypothèse de normalité de la distribution des rendements. Comme
|
||||
présenté au premier chapitre, c'est cette observation qui est à la
|
||||
base de la recherche de modèles alternatifs, étant donné que cette
|
||||
hypothèse est rejetée pour la plupart des séries financières. Il
|
||||
existe plusieurs tests disponibles pour ce faire, dont ceux de
|
||||
Shapiro-Wilk et d’Epps-Pulley.
|
||||
|
||||
\subsection{Test de Shapiro-Wilk}
|
||||
\label{sec:test-de-shapiro}
|
||||
|
||||
Le test de Shapiro-Wilk \citep{shapiro1965analysis} est basé sur les
|
||||
statistiques d'ordre de la distribution normale. Ce test est
|
||||
particulièrement efficace même pour de petits échantillons $(T<20)$,
|
||||
selon les auteurs.
|
||||
|
||||
On considère l'échantillon ordonné
|
||||
$y_{(1)},y_{(2)},\ldots,y_{(T)},$. On évalue la variance $S^2$ de
|
||||
l'échantillon puis la statistique $b$, où les valeurs $a_{T-i+1}$
|
||||
proviennent de la \emph{Table 5} de \cite{shapiro1965analysis}:
|
||||
\begin{enumerate}
|
||||
\item Si la taille de l'échantillon $T$ est paire, alors
|
||||
$k=\frac{T}{2}$ et
|
||||
\begin{align}
|
||||
\label{eq:shapirowilkb1}
|
||||
b &= \sum_{i=1}^{k}a_{T-i+1}(y_{(T-i+1)}-y_{(i)}).
|
||||
\end{align}
|
||||
\item Si la taille de l'échantillon $T$ est impaire, alors
|
||||
$k=\frac{T-1}{2}$ et
|
||||
\begin{align}
|
||||
\label{eq:shapirowilkb2}
|
||||
b &= a_{T}(y_{(T)}-y_{(1)}) + \ldots + a_{k+2}(y_{(k+2)}-y_{(k)}).
|
||||
\end{align}
|
||||
\end{enumerate}
|
||||
|
||||
La statistique de Shapiro-Wilk $W = \frac{b}{S^2}$ suit une
|
||||
distribution particulière dont on retrouve différents quantiles à la
|
||||
\emph{Table 6} de \cite{shapiro1965analysis}. On rejette l'hypothèse
|
||||
de la normalité lorsque la statistique $W$ est inférieure au seuil
|
||||
critique déterminé à partir de cette dernière table.
|
||||
|
||||
\subsection{Test d’Epps-Pulley}
|
||||
\label{sec:test-de-epps}
|
||||
|
||||
Le test d’Epps-Pulley \citep{epps1983test} est basé sur le carré de la
|
||||
différence entre les fonctions caractéristiques empirique et théorique
|
||||
de la distribution normale. Ce test est considéré comme un des plus
|
||||
puissants pour un seuil de tolérance donné, pour de larges
|
||||
échantillons. La statistique de test prend la forme suivante, où
|
||||
$\overline{X}$ et $S$ sont respectivement la moyenne et l'écart-type
|
||||
échantillonnal:
|
||||
\begin{align}
|
||||
\label{eq:statistiqueEppsPulley}
|
||||
EP_T &= T\int_{-\infty}^{\infty} \left\vert\frac{1}{T}\sum_{j=1}^T
|
||||
\exp\left[it\frac{\left(X_j-\bar{X} \right)}{S} \right] - \exp
|
||||
\left[-\frac{t^2}{2} \right]\right\vert^2w(t)dt.
|
||||
\end{align}
|
||||
|
||||
\cite{henze1990approximation} propose une procédure simple à
|
||||
implémenter pour effectuer un test basé sur la statistique
|
||||
d’Epps-Pulley $EP_T$, où la pondération de la différence quadratique
|
||||
$w(\cdot)$ est remplacée par la densité de la loi normale centrée
|
||||
réduite, ce qui permet d'accorder davantage d'importance aux
|
||||
observations près de l'origine et aussi d'obtenir une forme
|
||||
intégrable:
|
||||
\begin{align}
|
||||
\label{eq:EppsPulley}
|
||||
EP_T &= \frac{2}{T} \sum_{1\leq\,j<k\leq\,T}
|
||||
\exp\left[-\frac{\left(X_j-X_k \right)^2}{2S^2}\right] - \sqrt{2}
|
||||
\sum_{j=1}^T \exp\left[-\frac{\left(X_j-\bar{X} \right)^2}{4S^2}
|
||||
\right]+\frac{T}{\sqrt{3}}+1.
|
||||
\end{align}
|
||||
|
||||
Lorsque $T>10$, on calcule une version modifiée de la statistique:
|
||||
\begin{equation}
|
||||
\label{eq:EppsPulleyMod}
|
||||
EP_T^{*} = \left(EP_T-\frac{0.365}{T}+\frac{1.34}{T^2}\right)\left(1+\frac{1.3}{T}\right).
|
||||
\end{equation}
|
||||
|
||||
On obtient ensuite une approximation d'un quantile de la loi normale
|
||||
centrée réduite:
|
||||
\begin{align}
|
||||
\label{eq:ZEppsPulley}
|
||||
Z_T &= \gamma + \delta\ln\left(\left(EP_T^{*}-\xi
|
||||
\right)\left(\xi+\lambda-EP_T^{*} \right) \right).
|
||||
\end{align}
|
||||
|
||||
Les constantes sont dérivées à l'équation \emph{4.1} de
|
||||
\cite{henze1990approximation}:
|
||||
\begin{align*}
|
||||
\gamma &\approx 3.55295 \\
|
||||
\delta &\approx 1.23062 \\
|
||||
\lambda &\approx 2.26664 \\
|
||||
\xi &\approx -0.020682.
|
||||
\end{align*}
|
||||
|
||||
Puis, on compare cette statistique au quantile $Z_{1-\alpha}$ correspondant
|
||||
au seuil de tolérance $\alpha$. Si $Z_n>Z_{1-\alpha}$
|
||||
alors on rejette la normalité des données.
|
||||
|
||||
\section{Tests d'adéquation}
|
||||
\label{sec:testnonparam}
|
||||
|
||||
Les tests d'adéquation vérifient l'ajustement à l'échantillon de la
|
||||
fonction de répartition estimée soit:
|
||||
\begin{itemize}
|
||||
\item à partir de l'échantillon ayant servi à l'estimation du vecteur
|
||||
de paramètres
|
||||
\item à partir d'un échantillon séparé, afin de vérifier, par exemple,
|
||||
si un modèle estimé à partir d'anciennes données s'applique toujours
|
||||
à de nouvelles informations.
|
||||
\end{itemize}
|
||||
|
||||
On cherche à rejeter ou non une hypothèse concernant l'échantillon $Y$
|
||||
et le vecteur de paramètres estimés:
|
||||
\begin{itemize}
|
||||
\item Si on considère le vecteur de paramètres comme étant estimé à
|
||||
partir du même échantillon sur lequel on effectue le test, alors on
|
||||
pose l'hypothèse composée suivante:
|
||||
\begin{equation}
|
||||
\label{eq:hypotheseadeqcomp}
|
||||
H_0: Y \sim F_Y(\hat\theta).
|
||||
\end{equation}
|
||||
\item Si on considère le vecteur de paramètres comme étant connu ou
|
||||
estimé à partir d'un autre échantillon, alors on pose l'hypothèse
|
||||
simple suivante:
|
||||
\begin{equation}
|
||||
\label{eq:hypotheseadeq}
|
||||
H_0: Y \sim F_Y(\theta_0).
|
||||
\end{equation}
|
||||
\end{itemize}
|
||||
|
||||
La différence entre ces deux hypothèses est le nombre de degrés de
|
||||
liberté de la statistique de test. Les deux premiers tests présentés
|
||||
sont des classiques, largement utilisés, mais dont l'application est
|
||||
basée sur la fonction de répartition. Étant donné qu'on ne dispose que
|
||||
d'une approximation de celle-ci, on utilisera alors un test basé sur
|
||||
la fonction génératrice des moments, qui a une forme analytique.
|
||||
|
||||
\subsection{Test $\chi^2$ de Pearson}
|
||||
\label{sec:testchi2}
|
||||
|
||||
Le test $\chi^2$ de Pearson \citep[ch. 8]{hogg1978introduction} est
|
||||
basé sur une approximation multinomiale de la fonction de répartition
|
||||
$F_X(x;\theta)$ pour laquelle on veut vérifier l'ajustement des
|
||||
données échantillonnales $X_1,\ldots,X_n$. Pour ce faire, on divise le
|
||||
domaine de la variable aléatoire $X$ en $k$ intervalles, appelés
|
||||
classes. On associe la probabilité $p_i(\theta)$ que $X$ prend une
|
||||
valeur dans l'intervalle $\left[c_{i-1},c_{i}\right]$. Cette
|
||||
probabilité est évaluée à l'aide de la fonction de répartition
|
||||
$F_X(x;\theta)$ de la variable aléatoire $X$:
|
||||
\begin{equation}
|
||||
\label{eq:pmultinomiale}
|
||||
p_i(\theta) = F_X(c_{i};\theta) - F_X(c_{i-1};\theta),\qquad i = 1,\ldots,k.
|
||||
\end{equation}
|
||||
|
||||
Soit $N_i$, le nombre de données de l'échantillon observées dans
|
||||
l'intervalle défini précédemment. On définit alors la statistique $Q$
|
||||
comme étant la somme, pour chaque intervalle, du carré de la
|
||||
différence entre le nombre d'observations obtenues et espérées,
|
||||
pondérée par cette dernière valeur. Cette quantité a approximativement
|
||||
une distribution asymptotique $\chi^2(k-1)$ avec $k-1$ degrés de
|
||||
liberté:
|
||||
\begin{equation}
|
||||
\label{eq:statchi2}
|
||||
Q_{k-1} = \sum_{i=1}^{k} \frac{\left(N_i-np_i(\theta_0)\right)^2}{np_i(\theta_0)} \sim \chi^2(k-1).
|
||||
\end{equation}
|
||||
|
||||
La statistique $Q_{k-1}$ peut être utilisée pour vérifier une
|
||||
hypothèse simple, c'est-à-dire lorsque les paramètres sont connus:
|
||||
\begin{align}
|
||||
\label{eq:hyp0-1}
|
||||
\mathcal{H}_0: \theta = \theta_0.
|
||||
\end{align}
|
||||
|
||||
Cependant, comme les $q$ paramètres de la distribution $f_X$ doivent
|
||||
être estimés pour évaluer les probabilités $p_i(\theta)$, on retrouve
|
||||
alors une hypothèse composée:
|
||||
\begin{align}
|
||||
\label{eq:hyp0-2}
|
||||
\mathcal{H}_0: F \in \lbrace F_{\theta} \rbrace, \theta \in \Omega.
|
||||
\end{align}
|
||||
|
||||
On doit retrancher le même nombre de degrés de liberté à la
|
||||
distribution asymptotique approximative de la statistique $Q$ qui
|
||||
devient:
|
||||
\begin{equation}
|
||||
\label{eq:statchi2param}
|
||||
Q_{k-q-1} = \sum_{i=1}^{k} \frac{\left(N_i-n{p}_i(\hat\theta)\right)^2}{n{p}_i(\hat\theta)} \sim \chi^2(k-q-1).
|
||||
\end{equation}
|
||||
|
||||
Il est important de noter que ce test est approximatif, car pour
|
||||
obtenir asymptotiquement la distribution $\chi^2$, les paramètres
|
||||
doivent être estimés en minimisant la statistique $Q_{k-q-1}$
|
||||
\eqref{eq:statchi2param}, qui devient alors une fonction objectif.
|
||||
|
||||
On rejette l'hypothèse composée $\mathcal{H}_0$ lorsque la condition
|
||||
$Q_{k-q-1} > \chi^2_{1-\alpha}(k-q-1)$ est respectée. On effectue le
|
||||
même test pour l'hypothèse simple, en posant $q=0$. Le point critique
|
||||
de la distribution $\chi^2(k-q-1)$ est sélectionné selon le critère
|
||||
\begin{equation}
|
||||
\label{eq:quantilechisq}
|
||||
\operatorname{Pr}\left(Q_{k-q-1}\leq \chi^2_{1-\alpha}(k-q-1)\right)=1-\alpha.
|
||||
\end{equation}
|
||||
|
||||
\subsection{Test de Kolmogorov-Smirnov}
|
||||
\label{sec:kolmogorovsmirnov}
|
||||
|
||||
Le test de Kolmogorov-Smirnov vérifie l'hypothèse simple
|
||||
\eqref{eq:hypotheseadeq}. On définit la statistique $D_n$ comme étant
|
||||
la valeur maximale de la distance entre les fonctions de répartition
|
||||
empiriques $F_n(x)$ et celle $F_X(x)$ de la distribution exacte
|
||||
spécifiée par l'hypothèse nulle $H_0$:
|
||||
\begin{equation}
|
||||
\label{eq:statks}
|
||||
D_n=\sup_x |F_n(x)-F_X(x)|
|
||||
\end{equation}
|
||||
où
|
||||
\begin{equation}
|
||||
\label{eq:repartemp}
|
||||
F_n(x)={1 \over n}\sum_{i=1}^n I_{X_i\leq x}.
|
||||
\end{equation}
|
||||
|
||||
La statistique $\sqrt{n}D_n$ suit asymptotiquement une distribution de
|
||||
Kolmogorov, selon \cite{wang2003evaluating}, dont la fonction de
|
||||
répartition est définie comme suit:
|
||||
\begin{align}
|
||||
\label{eq:repartkolmogorov}
|
||||
\operatorname{Pr}(\sqrt{n}D_n\leq x)&=1-2\sum_{k=1}^\infty (-1)^{k-1} e^{-2k^2 x^2}\\
|
||||
&=\frac{\sqrt{2\pi}}{x}\sum_{k=1}^\infty e^{-(2k-1)^2\pi^2/(8x^2)}.
|
||||
\end{align}
|
||||
|
||||
On rejette l'hypothèse nulle $H_0$ lorsque la condition
|
||||
$\sqrt{n}D_n>K_{1-\alpha}$ est respectée. On sélectionne le quantile
|
||||
de cette distribution selon le critère suivant:
|
||||
\begin{equation}
|
||||
\label{eq:quantilekolmogorov}
|
||||
\operatorname{Pr}(\sqrt{n}D_n \leq K_{1-\alpha})=1-\alpha.
|
||||
\end{equation}
|
||||
|
||||
\subsection{Test de distance minimale basé sur la fonction génératrice
|
||||
des moments}
|
||||
\label{sec:test-de-distance}
|
||||
|
||||
\cite{luong1987minimum} développent un ensemble de tests d'ajustement
|
||||
pour l'hypothèse simple \eqref{eq:hypotheseadeq} basée sur une
|
||||
transformation de la fonction de densité ou de répartition. Parmi
|
||||
cette classe de tests, on retrouve celui d’Epps-Pulley, développé pour
|
||||
vérifier l'hypothèse de normalité des données, tel que présenté à la
|
||||
section \ref{sec:test-de-epps}. On retrouve aussi le test K-L de
|
||||
\cite{feuerverger1981efficiency} basé sur les parties réelles et
|
||||
imaginaires de la fonction caractéristique. Cependant, pour la
|
||||
distribution de Laplace asymétrique généralisée, on ne peut effectuer
|
||||
cette séparation. On préfèrera donc utiliser la fonction génératrice
|
||||
des moments $M_Y(\xi)$ afin de construire la statistique de test
|
||||
$D(F_T;f_{\theta_0})$. Comme on a déjà estimé les paramètres, on veut donc
|
||||
vérifier une hypothèse simple. On se réfère à
|
||||
\cite{KOUTROUVELIS01011980}, qui a développé le test K-L pour cette
|
||||
situation. Cependant, on remplacera la fonction caractéristique par la
|
||||
fonction génératrice des moments.
|
||||
|
||||
On considère un ensemble de fonctions $h_j(y), j=1,\ldots,K$. La
|
||||
transformée de la fonction de répartition $F_Y(y)$ est donnée par le
|
||||
vecteur $\mathbf{z}(F)=[z_1(F),\ldots,z_K(F)]$ :
|
||||
\begin{align}
|
||||
\label{eq:4}
|
||||
z_j(F) &= \int_{-\infty}^{\infty} h_j(y) dF_Y(y)\nonumber\\
|
||||
&= E[h_j(y)]\nonumber\\
|
||||
&= M_Y(t_j),\quad j=1,\ldots,K.
|
||||
\end{align}
|
||||
|
||||
En posant $h_j(y)=e^{t_j y}$, on définit $z_j(F)$ comme étant la
|
||||
fonction génératrice des moments. On définit aussi la transformée de
|
||||
la fonction de répartition empirique $F_T(y)$ par le vecteur
|
||||
$\mathbf{z}(F_T)=[z_1(F_T),\ldots,z_K(F_T)]$, où
|
||||
\begin{align}
|
||||
\label{eq:5}
|
||||
z_j(F_T) = \frac{1}{T} \sum_{t=1}^T e^{t_j y_t}.
|
||||
\end{align}
|
||||
|
||||
La statistique de distance quadratique prend alors la forme suivante:
|
||||
\begin{align}
|
||||
\label{eq:9}
|
||||
Td(F_n,F_\theta) &= T\left\{\mathbf{z}(F_n)-\mathbf{z}(F_\theta)
|
||||
\right\}^{\prime} \mathbf{Q}(F_\theta)
|
||||
\left\{\mathbf{z}(F_n)-\mathbf{z}(F_\theta) \right\} \nonumber\\
|
||||
&= \mathbf{v}_n^{\prime }\mathbf{Q}(F_\theta)\mathbf{v}_n.
|
||||
\end{align}
|
||||
|
||||
On doit maintenant sélectionner une matrice $\mathbf{Q}(F_\theta)$ de
|
||||
sorte que la distribution de la statistique $Td(F_n,F_\theta)$ soit
|
||||
$\chi^2$. Comme $\mathbf{v}_n =
|
||||
\sqrt{T}\left\{\mathbf{z}(F_n)-\mathbf{z}(F_\theta) \right\}$ suit
|
||||
asymptotiquement une distribution normale multivariée de moyenne 0 et
|
||||
de variance-covariance $\mathbf{\Sigma}$, on a, si la matrice
|
||||
$\mathbf{\Sigma}$ est inversible et que l'on pose
|
||||
$\mathbf{Q}=\mathbf{\Sigma}^{-1}$, que $\mathbf{v}_n^{\prime
|
||||
}\mathbf{Q}(F_\theta)\mathbf{v}_n$ suit une distribution $\chi^2$ avec
|
||||
$K$ degrés de liberté, dans le cadre d'une hypothèse simple. Afin
|
||||
d'évaluer la variance-covariance $\mathbf{\Sigma}$, on définit
|
||||
l'espérance du produit des deux fonctions $h_j(y)$ et $h_k(y)$
|
||||
:$z_{j,k}(F) = E[h_j(y)h_k(y)]$.
|
||||
|
||||
On décrit la matrice de variance-covariance $\mathbf{\Sigma}$ comme
|
||||
suit:
|
||||
\begin{align}
|
||||
\label{eq:14}
|
||||
\mathbf{\Sigma} &= \begin{bmatrix}
|
||||
\sigma_{1,1} & \cdots & \sigma_{1,k} \\
|
||||
\vdots & \ddots & \vdots \\
|
||||
\sigma_{j,1} & \cdots & \sigma_{j,k}
|
||||
\end{bmatrix}
|
||||
\end{align}
|
||||
où
|
||||
\begin{align}
|
||||
\label{eq:10}
|
||||
\sigma_{j,k} &= z_{j,k}(F) - z_j(F)z_k(F)\nonumber\\
|
||||
&= M_Y(t_j+t_k) - M_Y(t_j)M_Y(t_k),\quad j,k=1,\ldots,K.
|
||||
\end{align}
|
||||
|
||||
On peut maintenant évaluer la statistique $Td(F_n,F_\theta)$ et
|
||||
effectuer le test. On rejette l'hypothèse $H_0$ lorsque la valeur de
|
||||
celle-ci est supérieure au quantile correspondant au seuil $\alpha$ de
|
||||
la distribution $\chi^2$ avec $K$ degrés de liberté:
|
||||
$Td(F_n,F_\theta)>\chi^2_{1-\alpha}(K)$.
|
||||
|
||||
|
||||
%%% Local Variables:
|
||||
%%% mode: latex
|
||||
%%% TeX-master: "gabarit-maitrise"
|
||||
%%% End:
|
188
memoire/chapitre8.aux
Normal file
188
memoire/chapitre8.aux
Normal file
|
@ -0,0 +1,188 @@
|
|||
\relax
|
||||
\providecommand\hyper@newdestlabel[2]{}
|
||||
\citation{bingham2004risk}
|
||||
\@writefile{lof}{\addvspace {10pt}}
|
||||
\@writefile{lot}{\addvspace {10pt}}
|
||||
\@writefile{toc}{\contentsline {chapter}{\chapternumberline {8}\IeC {\'E}valuation d'options}{87}{chapter.8}}
|
||||
\newlabel{chap:options}{{8}{87}{Évaluation d'options}{chapter.8}{}}
|
||||
\newlabel{chap:options@cref}{{[chapter][8][]8}{87}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {8.1}D\IeC {\'e}finitions}{87}{section.8.1}}
|
||||
\newlabel{sec:options}{{8.1}{87}{Définitions}{section.8.1}{}}
|
||||
\newlabel{sec:options@cref}{{[section][1][8]8.1}{87}}
|
||||
\newlabel{eq:callpayoff}{{8.1.1}{87}{Définitions}{equation.8.1.0.1}{}}
|
||||
\newlabel{eq:callpayoff@cref}{{[equation][1][8,1]8.1.1}{87}}
|
||||
\citation{black1973pricing}
|
||||
\newlabel{eq:reclamationcall}{{8.1.2}{88}{Définitions}{equation.8.1.0.2}{}}
|
||||
\newlabel{eq:reclamationcall@cref}{{[equation][2][8,1]8.1.2}{88}}
|
||||
\newlabel{eq:reclamationcallintlog}{{8.1.3}{88}{Définitions}{equation.8.1.0.3}{}}
|
||||
\newlabel{eq:reclamationcallintlog@cref}{{[equation][3][8,1]8.1.3}{88}}
|
||||
\newlabel{eq:pariteputcall}{{8.1.4}{88}{Définitions}{equation.8.1.0.4}{}}
|
||||
\newlabel{eq:pariteputcall@cref}{{[equation][4][8,1]8.1.4}{88}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {8.1.1}\IeC {\'E}quation martingale}{88}{subsection.8.1.1}}
|
||||
\newlabel{sec:equationmartingale}{{8.1.1}{88}{Équation martingale}{subsection.8.1.1}{}}
|
||||
\newlabel{sec:equationmartingale@cref}{{[subsection][1][8,1]8.1.1}{88}}
|
||||
\newlabel{eq:equationmartingale}{{8.1.5}{89}{Équation martingale}{equation.8.1.0.5}{}}
|
||||
\newlabel{eq:equationmartingale@cref}{{[equation][5][8,1]8.1.5}{89}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {8.1.2}Param\IeC {\`e}tres neutres au risque}{89}{subsection.8.1.2}}
|
||||
\newlabel{sec:GALrn}{{8.1.2}{89}{Paramètres neutres au risque}{subsection.8.1.2}{}}
|
||||
\newlabel{sec:GALrn@cref}{{[subsection][2][8,1]8.1.2}{89}}
|
||||
\newlabel{eq:martingaleGAL}{{8.1.6}{89}{Paramètres neutres au risque}{equation.8.1.0.6}{}}
|
||||
\newlabel{eq:martingaleGAL@cref}{{[equation][6][8,1]8.1.6}{89}}
|
||||
\newlabel{eq:omegaGAL}{{8.1.7}{89}{Paramètres neutres au risque}{equation.8.1.0.7}{}}
|
||||
\newlabel{eq:omegaGAL@cref}{{[equation][7][8,1]8.1.7}{89}}
|
||||
\newlabel{eq:inegaliteparamrn}{{8.1.8}{89}{Paramètres neutres au risque}{equation.8.1.0.8}{}}
|
||||
\newlabel{eq:inegaliteparamrn@cref}{{[equation][8][8,1]8.1.8}{89}}
|
||||
\newlabel{eq:fncaractGALrn}{{8.1.9}{89}{Paramètres neutres au risque}{equation.8.1.0.9}{}}
|
||||
\newlabel{eq:fncaractGALrn@cref}{{[equation][9][8,1]8.1.9}{89}}
|
||||
\citation{heston1993closed}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {8.2}Aper\IeC {\c c}u du mod\IeC {\`e}le de Black-Scholes}{90}{section.8.2}}
|
||||
\newlabel{sec:blackscholes}{{8.2}{90}{Aperçu du modèle de Black-Scholes}{section.8.2}{}}
|
||||
\newlabel{sec:blackscholes@cref}{{[section][2][8]8.2}{90}}
|
||||
\newlabel{eq:blackscholes}{{8.2.1}{90}{Aperçu du modèle de Black-Scholes}{equation.8.2.0.1}{}}
|
||||
\newlabel{eq:blackscholes@cref}{{[equation][1][8,2]8.2.1}{90}}
|
||||
\newlabel{eq:putblackscholes}{{8.2.2}{90}{Aperçu du modèle de Black-Scholes}{equation.8.2.0.2}{}}
|
||||
\newlabel{eq:putblackscholes@cref}{{[equation][2][8,2]8.2.2}{90}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {8.3}M\IeC {\'e}thodes d'\IeC {\'e}valuation pour options europ\IeC {\'e}ennes}{90}{section.8.3}}
|
||||
\newlabel{sec:methodesoptions}{{8.3}{90}{Méthodes d'évaluation pour options européennes}{section.8.3}{}}
|
||||
\newlabel{sec:methodesoptions@cref}{{[section][3][8]8.3}{90}}
|
||||
\citation{carr1999option}
|
||||
\citation{madan1998variance}
|
||||
\citation{epps2007pricing}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {8.3.1}M\IeC {\'e}thode de Heston}{91}{subsection.8.3.1}}
|
||||
\newlabel{sec:heston1993}{{8.3.1}{91}{Méthode de Heston}{subsection.8.3.1}{}}
|
||||
\newlabel{sec:heston1993@cref}{{[subsection][1][8,3]8.3.1}{91}}
|
||||
\newlabel{eq:PutHeston93-1}{{8.3.1}{91}{Méthode de Heston}{equation.8.3.0.1}{}}
|
||||
\newlabel{eq:PutHeston93-1@cref}{{[equation][1][8,3]8.3.1}{91}}
|
||||
\newlabel{eq:PutHeston93}{{8.3.2}{91}{Méthode de Heston}{equation.8.3.0.2}{}}
|
||||
\newlabel{eq:PutHeston93@cref}{{[equation][2][8,3]8.3.2}{91}}
|
||||
\newlabel{eq:mesureGHeston}{{8.3.3}{91}{Méthode de Heston}{equation.8.3.0.3}{}}
|
||||
\newlabel{eq:mesureGHeston@cref}{{[equation][3][8,3]8.3.3}{91}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {8.3.2}M\IeC {\'e}thode de Carr et Madan}{91}{subsection.8.3.2}}
|
||||
\newlabel{sec:carrmadanfftoptions}{{8.3.2}{91}{Méthode de Carr et Madan}{subsection.8.3.2}{}}
|
||||
\newlabel{sec:carrmadanfftoptions@cref}{{[subsection][2][8,3]8.3.2}{91}}
|
||||
\newlabel{eq:callamortiCarr}{{8.3.4}{91}{Méthode de Carr et Madan}{equation.8.3.0.4}{}}
|
||||
\newlabel{eq:callamortiCarr@cref}{{[equation][4][8,3]8.3.4}{91}}
|
||||
\citation{carr1999option}
|
||||
\newlabel{eq:fouriercallamortiCarr}{{8.3.6}{92}{Méthode de Carr et Madan}{equation.8.3.0.6}{}}
|
||||
\newlabel{eq:fouriercallamortiCarr@cref}{{[equation][6][8,3]8.3.6}{92}}
|
||||
\newlabel{eq:prixoptionCarr}{{8.3.7}{92}{Méthode de Carr et Madan}{equation.8.3.0.7}{}}
|
||||
\newlabel{eq:prixoptionCarr@cref}{{[equation][7][8,3]8.3.7}{92}}
|
||||
\newlabel{eq:prixoptionFFT}{{8.3.10}{92}{Méthode de Carr et Madan}{equation.8.3.0.10}{}}
|
||||
\newlabel{eq:prixoptionFFT@cref}{{[equation][10][8,3]8.3.10}{92}}
|
||||
\newlabel{eq:prixoptionFFTsimpson}{{8.3.11}{92}{Méthode de Carr et Madan}{equation.8.3.0.11}{}}
|
||||
\newlabel{eq:prixoptionFFTsimpson@cref}{{[equation][11][8,3]8.3.11}{92}}
|
||||
\citation{carr1999option}
|
||||
\citation{itkin2005pricing}
|
||||
\citation{epps2007pricing}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {8.3.3}Prix d'exercice hors du cours}{93}{subsection.8.3.3}}
|
||||
\newlabel{sec:outofmoneyfft}{{8.3.3}{93}{Prix d'exercice hors du cours}{subsection.8.3.3}{}}
|
||||
\newlabel{sec:outofmoneyfft@cref}{{[subsection][3][8,3]8.3.3}{93}}
|
||||
\newlabel{eq:prixoptionCarrOOM}{{8.3.12}{93}{Prix d'exercice hors du cours}{equation.8.3.0.12}{}}
|
||||
\newlabel{eq:prixoptionCarrOOM@cref}{{[equation][12][8,3]8.3.12}{93}}
|
||||
\newlabel{eq:prixoptionFFTsimpsonOOM}{{8.3.14}{93}{Prix d'exercice hors du cours}{equation.8.3.0.14}{}}
|
||||
\newlabel{eq:prixoptionFFTsimpsonOOM@cref}{{[equation][14][8,3]8.3.14}{93}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {8.3.4}Critique de la m\IeC {\'e}thode de Carr-Madan}{93}{subsection.8.3.4}}
|
||||
\newlabel{sec:critiquecarrmadanfft}{{8.3.4}{93}{Critique de la méthode de Carr-Madan}{subsection.8.3.4}{}}
|
||||
\newlabel{sec:critiquecarrmadanfft@cref}{{[subsection][4][8,3]8.3.4}{93}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {8.3.5}M\IeC {\'e}thode d\IeC {\textquoteright }Epps}{93}{subsection.8.3.5}}
|
||||
\newlabel{sec:epps2007}{{8.3.5}{93}{Méthode d’Epps}{subsection.8.3.5}{}}
|
||||
\newlabel{sec:epps2007@cref}{{[subsection][5][8,3]8.3.5}{93}}
|
||||
\newlabel{eq:putepps-1}{{8.3.15}{94}{Méthode d’Epps}{equation.8.3.0.15}{}}
|
||||
\newlabel{eq:putepps-1@cref}{{[equation][15][8,3]8.3.15}{94}}
|
||||
\newlabel{eq:putepps-resultat1}{{8.3.16}{94}{Méthode d’Epps}{equation.8.3.0.16}{}}
|
||||
\newlabel{eq:putepps-resultat1@cref}{{[equation][16][8,3]8.3.16}{94}}
|
||||
\newlabel{eq:fubini-integrale-a-EPPS}{{8.3.17}{94}{Méthode d’Epps}{equation.8.3.0.17}{}}
|
||||
\newlabel{eq:fubini-integrale-a-EPPS@cref}{{[equation][17][8,3]8.3.17}{94}}
|
||||
\newlabel{eq:PutEpps8.37}{{8.3.18}{94}{Méthode d’Epps}{equation.8.3.0.18}{}}
|
||||
\newlabel{eq:PutEpps8.37@cref}{{[equation][18][8,3]8.3.18}{94}}
|
||||
\citation{black1976pricing}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {8.4}Particularit\IeC {\'e}s}{95}{section.8.4}}
|
||||
\newlabel{sec:monnaiescontrats}{{8.4}{95}{Particularités}{section.8.4}{}}
|
||||
\newlabel{sec:monnaiescontrats@cref}{{[section][4][8]8.4}{95}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {8.4.1}Option sur actions avec dividendes}{95}{subsection.8.4.1}}
|
||||
\newlabel{sec:dividentoptions}{{8.4.1}{95}{Option sur actions avec dividendes}{subsection.8.4.1}{}}
|
||||
\newlabel{sec:dividentoptions@cref}{{[subsection][1][8,4]8.4.1}{95}}
|
||||
\newlabel{eq:prixinitialdividende}{{8.4.1}{95}{Option sur actions avec dividendes}{equation.8.4.0.1}{}}
|
||||
\newlabel{eq:prixinitialdividende@cref}{{[equation][1][8,4]8.4.1}{95}}
|
||||
\newlabel{eq:pricinitialdivcontinu}{{8.4.2}{95}{Option sur actions avec dividendes}{equation.8.4.0.2}{}}
|
||||
\newlabel{eq:pricinitialdivcontinu@cref}{{[equation][2][8,4]8.4.2}{95}}
|
||||
\@writefile{toc}{\contentsline {subsection}{\numberline {8.4.2}Options sur contrats \IeC {\`a} terme et taux de change}{95}{subsection.8.4.2}}
|
||||
\newlabel{sec:futureoptions}{{8.4.2}{95}{Options sur contrats à terme et taux de change}{subsection.8.4.2}{}}
|
||||
\newlabel{sec:futureoptions@cref}{{[subsection][2][8,4]8.4.2}{95}}
|
||||
\@setckpt{chapitre8}{
|
||||
\setcounter{page}{96}
|
||||
\setcounter{equation}{2}
|
||||
\setcounter{enumi}{4}
|
||||
\setcounter{enumii}{2}
|
||||
\setcounter{enumiii}{0}
|
||||
\setcounter{enumiv}{0}
|
||||
\setcounter{footnote}{2}
|
||||
\setcounter{mpfootnote}{0}
|
||||
\setcounter{@memmarkcntra}{0}
|
||||
\setcounter{storedpagenumber}{1}
|
||||
\setcounter{book}{0}
|
||||
\setcounter{part}{0}
|
||||
\setcounter{chapter}{8}
|
||||
\setcounter{section}{4}
|
||||
\setcounter{subsection}{2}
|
||||
\setcounter{subsubsection}{0}
|
||||
\setcounter{paragraph}{0}
|
||||
\setcounter{subparagraph}{0}
|
||||
\setcounter{@ppsavesec}{0}
|
||||
\setcounter{@ppsaveapp}{0}
|
||||
\setcounter{vslineno}{0}
|
||||
\setcounter{poemline}{0}
|
||||
\setcounter{modulo@vs}{0}
|
||||
\setcounter{memfvsline}{0}
|
||||
\setcounter{verse}{0}
|
||||
\setcounter{chrsinstr}{0}
|
||||
\setcounter{poem}{0}
|
||||
\setcounter{newflo@tctr}{4}
|
||||
\setcounter{@contsubnum}{0}
|
||||
\setcounter{maxsecnumdepth}{2}
|
||||
\setcounter{sidefootnote}{0}
|
||||
\setcounter{pagenote}{0}
|
||||
\setcounter{pagenoteshadow}{0}
|
||||
\setcounter{memfbvline}{0}
|
||||
\setcounter{bvlinectr}{0}
|
||||
\setcounter{cp@cntr}{0}
|
||||
\setcounter{ism@mctr}{0}
|
||||
\setcounter{xsm@mctr}{0}
|
||||
\setcounter{csm@mctr}{0}
|
||||
\setcounter{ksm@mctr}{0}
|
||||
\setcounter{xksm@mctr}{0}
|
||||
\setcounter{cksm@mctr}{0}
|
||||
\setcounter{msm@mctr}{0}
|
||||
\setcounter{xmsm@mctr}{0}
|
||||
\setcounter{cmsm@mctr}{0}
|
||||
\setcounter{bsm@mctr}{0}
|
||||
\setcounter{workm@mctr}{0}
|
||||
\setcounter{sheetsequence}{114}
|
||||
\setcounter{lastsheet}{155}
|
||||
\setcounter{lastpage}{137}
|
||||
\setcounter{figure}{0}
|
||||
\setcounter{lofdepth}{1}
|
||||
\setcounter{table}{0}
|
||||
\setcounter{lotdepth}{1}
|
||||
\setcounter{NAT@ctr}{0}
|
||||
\setcounter{nprt@mantissa@digitsbefore}{0}
|
||||
\setcounter{nprt@mantissa@digitsafter}{0}
|
||||
\setcounter{nprt@exponent@digitsbefore}{0}
|
||||
\setcounter{nprt@exponent@digitsafter}{0}
|
||||
\setcounter{nprt@digitsfirstblock}{0}
|
||||
\setcounter{nprt@blockcnt}{0}
|
||||
\setcounter{nprt@cntprint}{0}
|
||||
\setcounter{parentequation}{0}
|
||||
\setcounter{thmt@dummyctr}{3}
|
||||
\setcounter{Item}{30}
|
||||
\setcounter{Hfootnote}{3}
|
||||
\setcounter{memhycontfloat}{0}
|
||||
\setcounter{Hpagenote}{0}
|
||||
\setcounter{bookmark@seq@number}{96}
|
||||
\setcounter{ContinuedFloat}{0}
|
||||
\setcounter{app@runs}{1}
|
||||
\setcounter{pspicture}{0}
|
||||
\setcounter{section@level}{0}
|
||||
\setcounter{theo}{0}
|
||||
\setcounter{hypothese}{0}
|
||||
}
|
15774
memoire/chapitre8.log
Normal file
15774
memoire/chapitre8.log
Normal file
File diff suppressed because it is too large
Load diff
506
memoire/chapitre8.tex
Normal file
506
memoire/chapitre8.tex
Normal file
|
@ -0,0 +1,506 @@
|
|||
\chapter{Évaluation d'options}
|
||||
\label{chap:options}
|
||||
Un des principaux intérêts de connaître la distribution des rendements
|
||||
d'un actif est de pouvoir évaluer la valeur de différents produits
|
||||
dérivés.
|
||||
|
||||
\section{Définitions}
|
||||
\label{sec:options}
|
||||
En se référant à \cite{bingham2004risk}, on définit:
|
||||
|
||||
\begin{itemize}
|
||||
\item Un \textbf{produit dérivé} est un contrat financier dont la
|
||||
valeur à la date d'échéance $T$ est déterminée par le prix de
|
||||
l'actif sous-jacent au temps $T$ ou par celles prises au cours de
|
||||
l'intervalle $\left[0,T \right]$.
|
||||
\item Une \textbf{option} est un instrument financier qui donne le
|
||||
droit (et non l'obligation) d'effectuer une transaction avant ou à
|
||||
une date et pour un prix spécifiés.
|
||||
\item Une \textbf{option d'achat (de vente) européenne} donne le
|
||||
\textbf{droit} d'acheter (de vendre) un actif au \textbf{prix
|
||||
d'exercice} $K$ au temps $T$.
|
||||
\item Lorsque la valeur actuelle du titre est, par rapport au prix
|
||||
d'exercice:
|
||||
\begin{itemize}
|
||||
\item supérieure $(S(t)>K)$, l'option est dite \textbf{dans le
|
||||
cours};
|
||||
\item égale $(S(t)=K)$, l'option est dite \textbf{au cours};
|
||||
\item inférieure $(S(t)<K)$, l'option est dite \textbf{hors du
|
||||
cours}.
|
||||
\end{itemize}
|
||||
\end{itemize}
|
||||
|
||||
Le prix à l'échéance d'une option d'achat européenne $C(t)$ est défini
|
||||
comme suit:
|
||||
\begin{align}
|
||||
\label{eq:callpayoff}
|
||||
C(T) = \left\{ \begin{array}{cc}
|
||||
S(T)-K & ,S(T) > K \\
|
||||
0 & S(T) \leq K.
|
||||
\end{array} \right.
|
||||
\end{align}
|
||||
|
||||
La valeur du prix à l'échéance est appelée une \textbf{créance
|
||||
éventuelle}. L'évaluation d'un produit dérivé équivaut à calculer la
|
||||
valeur espérée actualisée de la réclamation contingente définie par le
|
||||
contrat. Pour l'option d'achat européenne, on obtient la formule
|
||||
suivante:
|
||||
\begin{align}
|
||||
C(t) &= B(t,T) E \left[C(T) \right] \nonumber\\
|
||||
&= B(t,T) \int_{K}^{\infty} (S(T)-K)
|
||||
d\hat{F}_{S(T)} \label{eq:reclamationcall}.
|
||||
\end{align}
|
||||
$B(t,T)$ est la valeur au temps $t$ d'une obligation zéro-coupon au taux sans
|
||||
risque $r$ d'échéance $T$. $\hat{F}_t(S(T))$ est la fonction de
|
||||
répartition de la distribution neutre au risque de $S(T)$.
|
||||
|
||||
Les déterminants de la valeur d'une option sont:
|
||||
\begin{itemize}
|
||||
\item le prix courant de l'actif $S(t)$
|
||||
\item le prix d'exercice $K$
|
||||
\item la volatilité de l'actif $\sigma$
|
||||
\item le temps d'ici l'échéance $T-t$
|
||||
\item le taux d'intérêt sans risque $r$.
|
||||
\end{itemize}
|
||||
|
||||
On peut aussi récrire \eqref{eq:reclamationcall} avec le logarithme du
|
||||
prix $k=\ln{K}$. On utilise donc $s(t)=\ln{S(T)}$, dont la fonction de
|
||||
répartition est définie par ${F}_{s(T)}(y) = Pr\left[\ln{S(T)} < y
|
||||
\right]$:
|
||||
\begin{align}
|
||||
C(t) = B(t,T) \int_{k}^{\infty} (e^{s(T)}-e^{k}) d{F}_{s(T)}. \label{eq:reclamationcallintlog}
|
||||
\end{align}
|
||||
|
||||
Enfin, une relation fondamentale, appelée parité vente-achat, permet,
|
||||
dans un scénario sans arbitrage, de calculer le prix d'une option de
|
||||
vente $P(t)$ (d'achat $C(t)$) en connaissant la valeur:
|
||||
\begin{itemize}
|
||||
\item de l'autre lorsqu'elles sont de mêmes échéance et prix
|
||||
d'exercice
|
||||
\item de l'obligation $B(t,T)$
|
||||
\item initiale du titre sous-jacent $S(t)$ commun aux deux options.
|
||||
\end{itemize}
|
||||
|
||||
\begin{align}
|
||||
\label{eq:pariteputcall}
|
||||
P(t)+S(t) = C(t)+ B(t,T) K.
|
||||
\end{align}
|
||||
|
||||
Cette relation permettra d'évaluer les deux types d'option à l'aide
|
||||
d'un seul calcul.
|
||||
|
||||
\subsection{Équation martingale}
|
||||
\label{sec:equationmartingale}
|
||||
L'évaluation d'options se fait traditionnellement dans un univers ou
|
||||
un espace de probabilités neutre au risque, noté $\mathbb{Q}$,
|
||||
c'est-à-dire un point de vue selon lequel les investisseurs n'exigent
|
||||
pas une prime de risque. Cette approche a été introduite par
|
||||
\cite{black1973pricing}. Dans cette perspective, les rendements
|
||||
espérés futurs sont escomptés au taux sans risque. La distribution des
|
||||
rendements cumulés \eqref{eq:rendementcumL} répond à la propriété
|
||||
martingale, selon laquelle la valeur actuelle d'un titre financier
|
||||
reflète l'ensemble de l'information connue sur ce dernier. Cette
|
||||
propriété permet de fixer un seul prix pour les
|
||||
options. \textbf{L'équation martingale} établit l'égalité entre la
|
||||
valeur espérée du titre au temps $t$ et celle d'un investissement de
|
||||
même valeur dans un compte en banque créditant le taux sans risque:
|
||||
\begin{align}
|
||||
\label{eq:equationmartingale}
|
||||
E\left[\exp(L_t) \right] = e^{rt}.
|
||||
\end{align}
|
||||
|
||||
\subsection{Paramètres neutres au risque}
|
||||
\label{sec:GALrn}
|
||||
|
||||
Afin de pouvoir utiliser les résultats de l'estimation paramétrique
|
||||
des chapitres précédents pour évaluer le prix de produits dérivés, on
|
||||
doit tout d'abord identifier les paramètres neutres au risque de la
|
||||
distribution de Laplace asymétrique généralisée associant le
|
||||
rendements cumulé $L_t$ au taux d'intérêt sans risque $r$. Pour ce
|
||||
faire, on utilise l'équation martingale \eqref{eq:equationmartingale}
|
||||
ainsi que la fonction génératrice des moments \eqref{eq:fgmGAL}. On
|
||||
obtient alors une expression pour le paramètre de dérive neutre au
|
||||
risque $\theta_{RN}$:
|
||||
\begin{align}
|
||||
e^{rt} &= E\left[\exp(L_t) \right]
|
||||
= E\left[\exp(R_1+\ldots+R_t) \right] \nonumber\\
|
||||
&= M_{R_1+\ldots+R_t}(1)
|
||||
= (M_{R}(1))^t \nonumber\\
|
||||
&= \left(\frac{e^{\theta_{RN}}}{(1-\mu-\sigma^2/2)^{\tau}} \right)^t \nonumber\\
|
||||
r &= \ln \left(\frac{e^{\theta_{RN}}}{(1-\mu-\sigma^2/2)^{\tau}} \right) \nonumber\\
|
||||
&= \theta_{RN} - \tau\ln(1-\mu-\frac{\sigma^2}{2}) \nonumber\\
|
||||
\theta_{RN} &= r +
|
||||
\tau\ln(1-\mu-\frac{\sigma^2}{2}). \label{eq:martingaleGAL}
|
||||
\end{align}
|
||||
|
||||
On obtient ainsi le paramètre de correction de la dérive $\omega$ à
|
||||
partir de l'équation martingale \eqref{eq:martingaleGAL}:
|
||||
\begin{align}
|
||||
\label{eq:omegaGAL}
|
||||
\omega = \tau\ln(1-\mu-\frac{\sigma^2}{2}).
|
||||
\end{align}
|
||||
|
||||
Cette égalité impose une contrainte aux paramètres $\mu$ et $\sigma$
|
||||
qui doit respecter la condition
|
||||
\begin{align}
|
||||
\label{eq:inegaliteparamrn}
|
||||
\mu+\frac{\sigma^2}{2} < 1.
|
||||
\end{align}
|
||||
|
||||
On obtient ensuite la fonction caractéristique de la mesure neutre au
|
||||
risque $\mathbb{Q}$ pour $L_T$ en remplaçant $\theta$ par
|
||||
$\theta_{RN}$:
|
||||
\begin{align}
|
||||
\label{eq:fncaractGALrn}
|
||||
\phi(\xi,L_T) = \frac{\exp\left(i\xi*\left(\ln\left(S_{t}\right)+\left(T-t\right)\left(r+\omega\right)\right)\right)}{\left(1-i\mu\,\xi+\left(\sigma^2\xi^2\right)/2\right)^{\tau\left(T-t\right)}}.
|
||||
\end{align}
|
||||
|
||||
La distribution neutre au risque des rendements est donc $R_t \sim
|
||||
GAL(r+\tau\ln(1-\mu-\sigma^2/2),\sigma,\mu,\tau)$.
|
||||
|
||||
\section{Aperçu du modèle de Black-Scholes}
|
||||
\label{sec:blackscholes}
|
||||
|
||||
Étant donné l'importance du modèle de Black-Scholes en finance, on se
|
||||
doit de le présenter comme outil de référence lorsque l'on veut le
|
||||
remplacer. Ce modèle est basé sur les quatre hypothèses suivantes:
|
||||
\begin{enumerate}
|
||||
\item Les rendements ont une distribution normale de moyenne $\mu$ et
|
||||
variance $\sigma^2$, ou, de manière équivalente, le processus de
|
||||
prix $\lbrace S(t) \rbrace$ est un mouvement brownien géométrique de
|
||||
dérive $\mu$ et de volatilité $\sigma$.
|
||||
\item Une obligation zéro-coupon au taux d'intérêt sans risque $r$
|
||||
existe sur le marché.
|
||||
\item Le marché est complet et sans friction. Une position prise sur
|
||||
ce marché peut être couverte de manière continue.
|
||||
\item La vente à découvert est autorisée, de plus tous les actifs sont
|
||||
infiniment divisibles.
|
||||
\end{enumerate}
|
||||
|
||||
En utilisant l'équation martingale \eqref{eq:equationmartingale}, on
|
||||
obtient la distribution neutre au risque des rendements, qui est
|
||||
normale avec une moyenne $r-\frac{\sigma^2}{2}$ et une variance
|
||||
$\sigma^2$.
|
||||
|
||||
À partir de cette information, on peut dériver la formule de
|
||||
Black-Scholes pour le prix d'une option d'achat ou de vente
|
||||
\eqref{eq:pariteputcall} européenne:
|
||||
\begin{align}
|
||||
\label{eq:blackscholes}
|
||||
C(S(t),K,T) &= \Phi(\Delta_1) ~ S(t) - \Phi(\Delta_2) ~ K B(t,T) \\
|
||||
\Delta_1 &= \frac{\ln\left(\frac{S(t)}{K}\right) + \left(r + \frac{\sigma^2}{2}\right)(T - t)}{\sigma\sqrt{T - t}} \nonumber\\
|
||||
\Delta_2 &= \Delta_1 - \sigma\sqrt{T - t} \nonumber\\
|
||||
P(S(t),K,T) &= \Phi(-\delta_2)K B(t,T) -
|
||||
\Phi(-\delta_1)S(t). \label{eq:putblackscholes}
|
||||
\end{align}
|
||||
|
||||
L'avantage de ce modèle est que toutes les données requises pour
|
||||
évaluer le prix d'options sur des actifs cotés sur les marchés
|
||||
boursiers, à l'exception de la volatilité, sont accessibles auprès de
|
||||
fournisseurs d'informations financières. Comme les options sont
|
||||
négociées sur les marchés financiers, on a aussi accès à leur prix, ce
|
||||
qui permet d'extrapoler la valeur de la volatilité implicite. C'est
|
||||
pour cette raison que le modèle, bien qu'il soit basé sur des
|
||||
hypothèses très restrictives, est toujours utilisé comme point de
|
||||
référence.
|
||||
|
||||
\section{Méthodes d'évaluation pour options européennes}
|
||||
\label{sec:methodesoptions}
|
||||
|
||||
Le modèle de Black-Scholes est un des seuls qui présentent une forme
|
||||
analytique simple pour le prix des options. Bien qu'on puisse en
|
||||
dériver une pour plusieurs modèles en utilisant les équations
|
||||
différentielles stochastiques et le calcul d'Îto, les résultats sont
|
||||
souvent difficiles à utiliser. On préfèrera alors utiliser des
|
||||
méthodes numériques pour calculer le prix des options.
|
||||
|
||||
\subsection{Méthode de Heston}
|
||||
\label{sec:heston1993}
|
||||
|
||||
L'approche utilisée par \cite{heston1993closed} est de calculer
|
||||
directement l'espérance de la créance éventuelle associée à l'option
|
||||
de vente européenne $P(S(t),K,T-t)$ sous la mesure neutre au risque
|
||||
$\mathbb{Q}$:
|
||||
\begin{align}
|
||||
P(S(t),K,T) &= B(t,T) \int_{0}^{\infty} \max\left(K-S(T),0\right)\cdot d{F}_{S(T)} \label{eq:PutHeston93-1}\\
|
||||
&= B(t,T)K \int_{0}^{K} dF_{S(T)} - B(t,T)\int_{0}^{K} S(T)\cdot d{F}_{S(T)} \nonumber\\
|
||||
&= B(t,T)K F_{S(t)}(K) - S(t) G_{S(t)}(K). \label{eq:PutHeston93}
|
||||
\end{align}
|
||||
|
||||
On définit la fonction de répartition $F_{S(t)}(K)$ de la variable
|
||||
aléatoire $S(t) \leq K$ sous la mesure $\mathbb{Q}$. On définit aussi
|
||||
la fonction de répartition $G_{S(t)}(K)$ sous une autre mesure
|
||||
équivalant à $\mathbb{Q}$. Soit $\phi_F(\xi)$ la fonction
|
||||
caractéristique de $S(T)$ sous $\mathbb{Q}$, celle de cette mesure est
|
||||
alors définie comme suit:
|
||||
\begin{align}
|
||||
\label{eq:mesureGHeston}
|
||||
\phi_G(\xi) = \frac{\phi_F(\xi-i)}{\phi_F(-i)}.
|
||||
\end{align}
|
||||
C'est une transformée d'Esscher de paramètre $h=1$ de la mesure
|
||||
$\mathbb{Q}$. On remarquera la forme de \eqref{eq:PutHeston93} qui est
|
||||
très similaire à la formule du prix de l'option de vente du modèle de
|
||||
Black-Scholes \eqref{eq:putblackscholes}.
|
||||
|
||||
Les fonctions de répartition $F_{S(t)}(K)$ et $G_{S(t)}(K)$
|
||||
peuvent être évaluées à partir de \eqref{eq:approxinvfncaract} ou de
|
||||
la méthode du point de selle.
|
||||
|
||||
\cite{carr1999option} notent qu'on ne peut pas inverser
|
||||
l'approximation \eqref{eq:approxinvfncaract} en utilisant la méthode
|
||||
de la transformée de Fourier rapide. Cependant, l'approche de la
|
||||
méthode du point de selle n'a pas été considérée, bien qu'elle puisse
|
||||
fournir une solution analytique dans plusieurs situations, en
|
||||
particulier pour la distribution de Laplace asymétrique généralisée
|
||||
\eqref{eq:saddlepointGAL}.
|
||||
|
||||
\subsection{Méthode de Carr et Madan}
|
||||
\label{sec:carrmadanfftoptions}
|
||||
|
||||
La méthode de Heston nécessite l'évaluation de deux probabilités, donc
|
||||
deux inversions de fonctions
|
||||
caractéristiques. \cite{madan1998variance} ont développé une méthode
|
||||
qui ne nécessite qu'une seule inversion, décrite par
|
||||
\cite{epps2007pricing}. Cette méthode nécessite cependant la sélection
|
||||
d'un paramètre d'amortissement $\theta_{D}$ par tâtonnement afin
|
||||
d'obtenir de bons résultats. Elle utilise l'expression de la créance
|
||||
éventuelle \emph{amortie} \footnote{traduction de l'anglais damped} de
|
||||
l'option d'achat, construite à partir de l'expression
|
||||
\eqref{eq:reclamationcallintlog}:
|
||||
\begin{align}
|
||||
\label{eq:callamortiCarr}
|
||||
C_{\theta_D}(S(t),k,T) &= e^{\theta_{D}k} C(S(t),k,T) \\
|
||||
&= e^{\theta_{D}k} B(t,T) \int_{K}^{\infty} (e^{s(T)}-e^{k})
|
||||
d{F}_{s(T)}.
|
||||
\end{align}
|
||||
|
||||
On applique la transformée de Fourier:
|
||||
\begin{align}
|
||||
\label{eq:fouriercallamortiCarr}
|
||||
\mathcal{F}C_{\theta_D}(\nu) = B(t,T) \frac{\phi\left( \nu - i(1+\theta_D) \ \right)}{(\theta_D+i\nu)(1+\theta_D+i\nu)}.
|
||||
\end{align}
|
||||
|
||||
Ce résultat est inversé et \emph{amplifié} \footnote{traduction de
|
||||
l'anglais amplified} pour retrouver le prix de l'option:
|
||||
\begin{align}
|
||||
C(S(t),k,T) &= e^{-\theta_{D}k} \mathcal{F}^{-1}\left(\mathcal{F}C_{\theta_D}(\nu) \right) \nonumber\\
|
||||
&= \frac{e^{-\theta_{D}k}}{2\pi} \int_{-\infty}^{\infty} e^{-i\nu k}
|
||||
(\mathcal{F}C_{\theta_D})(\nu)\cdot
|
||||
d\nu \nonumber\\
|
||||
&= \frac{e^{-\theta_{D}k}}{\pi} \int_{0}^{\infty} e^{-i\nu k}
|
||||
(\mathcal{F}C_{\theta_D})(\nu)\cdot d\nu \qquad \mbox{(par
|
||||
symétrie)}. \label{eq:prixoptionCarr}
|
||||
\end{align}
|
||||
|
||||
On peut utiliser la méthode de la transformée de Fourier rapide
|
||||
(section \ref{sec:methodeFFT}) pour retrouver les prix d'options en se
|
||||
référant à \cite{carr1999option}.
|
||||
|
||||
On doit donc discrétiser \eqref{eq:prixoptionCarr} et effectuer des
|
||||
changements de variables pour obtenir la forme \eqref{eq:sommefft}. On
|
||||
fixe le nombre de points $N$ (idéalement une puissance de deux) et
|
||||
$\eta$ le pas de discrétisation. On définit l'incrément $\lambda$ pour le
|
||||
vecteur $k_u$, $u=1,\ldots,N$ des logarithmes des prix d'exercice:
|
||||
\begin{align}
|
||||
\lambda = \frac{2\pi}{N\eta}.
|
||||
\end{align}
|
||||
|
||||
La valeur maximale $b$ de ce prix d'exercice sera:
|
||||
\begin{align}
|
||||
b=\frac{N\lambda}{2}.
|
||||
\end{align}
|
||||
|
||||
Enfin, on obtient la suite des points d'évaluation de la fonction
|
||||
caractéristique $\nu_j = \eta (j-1)$. L'ensemble de ces substitutions
|
||||
permet d'obtenir une expression qui est de la forme requise pour
|
||||
appliquer la méthode de la transformée de Fourier rapide.
|
||||
\begin{align}
|
||||
C(S(t),k_u,T) &\approx \frac{e^{-\theta_D\,k}}{\pi} \sum_{j=1}^N e^{-i\nu_j\,k} (\mathcal{F}C_{\theta_D})(\nu_j) \nonumber\\
|
||||
&\approx \frac{e^{-\theta_D\,k}}{\pi} \sum_{j=1}^N
|
||||
e^{-i\lambda\eta(j-1)(u-1)} e^{ib\nu_j}
|
||||
(\mathcal{F}C_{\theta_D})(\nu_j) \eta. \label{eq:prixoptionFFT}
|
||||
\end{align}
|
||||
|
||||
C'est essentiellement une intégration par la méthode du trapèze. On
|
||||
suggère d'implémenter la correction de Simpson, qui permet une
|
||||
intégration plus précise tout en conservant le même nombre de points
|
||||
de discrétisation. On obtiendra alors la formule suivante:
|
||||
\begin{align}
|
||||
C(S(t),k_u,T) &\approx \frac{e^{-\theta_D\,k}}{\pi} \sum_{j=1}^N
|
||||
e^{-i\lambda\eta(j-1)(u-1)} e^{ib\nu_j}
|
||||
(\mathcal{F}C_{\theta_D})(\nu_j) \frac{\eta}{3} \left(3 + (-1)^j +
|
||||
\delta_{j-1}\right). \label{eq:prixoptionFFTsimpson}
|
||||
\end{align}
|
||||
|
||||
On peut par la suite calculer un prix d'option pour chaque prix
|
||||
d'exercice en utilisant une méthode d'interpolation (splines cubiques
|
||||
par exemple).
|
||||
|
||||
\subsection{Prix d'exercice hors du cours}
|
||||
\label{sec:outofmoneyfft}
|
||||
|
||||
L'intégration numérique de \eqref{eq:prixoptionCarr} pose problème
|
||||
quand l'échéance $T-t$ est petite, ou encore le prix d'exercice $K$
|
||||
est hors du cours ($k > \ln(S(0))$). Dans ce contexte particulier,
|
||||
\cite{carr1999option} développent une formule alternative à l'équation
|
||||
\eqref{eq:prixoptionCarr} pour évaluer le prix de l'option d'achat :
|
||||
\begin{align}
|
||||
C(S(t),k,T) &= \frac{1}{\pi\sinh(\theta^{*}_D k)} \int_{0}^{\infty}
|
||||
e^{-i\nu k} (\mathcal{F}C^{*}_{\theta^{*}_D})(\nu)\cdot
|
||||
d\nu. \label{eq:prixoptionCarrOOM}
|
||||
\end{align}
|
||||
La transformée de Fourier de l'expression du prix de l'option d'achat
|
||||
européenne est exprimée sous la forme
|
||||
\begin{align}
|
||||
\mathcal{F}C^{*}_{\theta^{*}_D} &= \frac{\zeta_T(\nu-i\theta^{*}_D) - \zeta_T(\nu+i\theta^{*}_D)}{2}\\
|
||||
\zeta_T(\nu) &= e^{-r(T-t)}\bigg[\frac{1}{1+i\nu} -
|
||||
\frac{e^{r(T-t)}}{iv} - \frac{\phi(\nu-i)}{\nu(\nu-i)} \bigg].
|
||||
\nonumber
|
||||
\end{align}
|
||||
|
||||
On note que ce paramètre d'amortissement $\theta^{*}_D$ peut être
|
||||
différent du paramètre $\theta_D$ qui a été utilisé précédemment.
|
||||
|
||||
L'expression à utiliser pour la méthode de la transformée de Fourier
|
||||
rapide devient
|
||||
\begin{align}
|
||||
C^{*}(S(t),k_u,T) &\approx \frac{1}{\pi\sinh(\theta^{*}_D k)}
|
||||
\sum_{j=1}^N e^{-i\lambda\eta(j-1)(u-1)} e^{ib\nu_j}
|
||||
(\mathcal{F}C^{*}_{\theta^{*}_D})(\nu_j) \frac{\eta}{3} \left(3 +
|
||||
(-1)^j + \delta_{j-1}\right). \label{eq:prixoptionFFTsimpsonOOM}
|
||||
\end{align}
|
||||
Les paramètres $N ,\eta, \lambda$ et $\nu_j$ prennent les valeurs
|
||||
utilisées pour évaluer le prix dans la situation où le titre est dans
|
||||
le cours \eqref{eq:prixoptionFFTsimpson}.
|
||||
|
||||
\subsection{Critique de la méthode de Carr-Madan}
|
||||
\label{sec:critiquecarrmadanfft}
|
||||
|
||||
Un paramètre d'amortissement $\theta_{D}$ inférieur à la valeur
|
||||
optimale (lorsque comparé avec la méthode de Heston ou d’Epps) aura
|
||||
tendance à surestimer le prix des options d'achat
|
||||
européennes. \cite{itkin2005pricing} démontre que pour certaines
|
||||
régions de l'espace des paramètres, l'intégrale
|
||||
\eqref{eq:prixoptionCarr} a un comportement très irrégulier. De plus,
|
||||
il décrit plusieurs restrictions pour $\theta_{D}$ qui, dans plusieurs
|
||||
cas, ne permettent pas d'estimation convergente.
|
||||
|
||||
\subsection{Méthode d’Epps}
|
||||
\label{sec:epps2007}
|
||||
|
||||
\cite{epps2007pricing} propose une méthode qui, contrairement à celle
|
||||
de Carr et Madan, ne nécessite pas de paramètre d'amortissement et qui
|
||||
ne requiert aussi qu'une seule inversion de la fonction
|
||||
caractéristique. Pour ce faire, on se base sur l'expression de
|
||||
l'option de vente développée précédemment \eqref{eq:PutHeston93-1}, qui
|
||||
est ensuite exprimée sous la forme du logarithme, à la manière de
|
||||
\eqref{eq:reclamationcallintlog}. Après l'utilisation de la formule
|
||||
d'inversion \eqref{eq:gilpelaez2}, on obtient le résultat suivant:
|
||||
\begin{align}
|
||||
\label{eq:putepps-1}
|
||||
E\left[max(K-S_T;0) \right] &= \int_{-\infty}^{k} {F}_{S(T)}(s)e^s\cdot\,ds \nonumber\\
|
||||
&= \frac{K}{2}-\frac{1}{2}\int_{-\infty}^{k} \lim_{c\to\infty}
|
||||
\underbrace{\int_{-c}^{c} \frac{e^{-i\nu s}}{\pi
|
||||
i\nu}\phi(\nu)d\nu}_{a(c,s)}e^sds.
|
||||
\end{align}
|
||||
|
||||
La formule d'inversion implique que lorsque $|\lim_{c\to\infty}
|
||||
a(c,s)| = |1-2{F}_{S(t)}(s)|\leq 1$, pour toute valeur $\epsilon>0$,
|
||||
$c_{\epsilon}$ existe telle que l'on a le résultat suivant:
|
||||
\begin{align}
|
||||
\label{eq:putepps-resultat1}
|
||||
|sup_s\left[1-2{F}_{S(t)}(s)-a(c_{\epsilon},s) \right]|<\epsilon.
|
||||
\end{align}
|
||||
|
||||
Dans cette situation, $|a(c,s)e^s|\leq e^s(1+\epsilon)$ lorsque la
|
||||
constante $c$ est suffisamment grande. Comme la fonction $e^s$ est
|
||||
intégrable sur le support $(-\infty,k)$, le théorème de convergence
|
||||
dominée de Lebesgue (section \ref{sec:theor-de-conv}) implique que
|
||||
l'on peut poser l'égalité suivante:
|
||||
\begin{align}
|
||||
\int_{-\infty}^{k} \lim_{c\to\infty} a(c,s)e^sds &= \lim_{c\to\infty}\int_{-\infty}^{k} a(c,s)e^sds \nonumber\\
|
||||
&= \lim_{c\to\infty} \int_{-\infty}^{k}\int_{-c}^{c}
|
||||
\frac{e^{(1-i\nu) s}}{\pi i\nu}\phi(\nu)d\nu ds. \nonumber
|
||||
\end{align}
|
||||
|
||||
De plus, comme la limite de la double intégrale précédente est égale à
|
||||
$K-2E\left[max(K-S_T;0) \right]$ qui appartient à l'intervalle
|
||||
$\left[-K,K\right]$, le théorème de Fubini (section
|
||||
\ref{sec:theoreme-de-fubini}) permet d'inverser l'ordre d'intégration:
|
||||
\begin{align}
|
||||
\lim_{c\to\infty} \int_{-\infty}^{k}\int_{-c}^{c} \frac{e^{-i\nu
|
||||
s}}{\pi i\nu}\phi(\nu)d\nu ds &= \lim_{c\to\infty} \int_{-c}^{c} \int_{-\infty}^{k}e^{(1-i\nu)s} ds \frac{\phi(\nu)}{\pi i \nu} d\nu \nonumber\\
|
||||
&= \frac{K}{\pi} \lim_{c\to\infty} \int_{-c}^{c}
|
||||
\frac{K^{-i\nu}}{i\nu+\nu^2}\phi(\nu)d\nu. \label{eq:fubini-integrale-a-EPPS}
|
||||
\end{align}
|
||||
|
||||
En remplaçant le résultat \eqref{eq:fubini-integrale-a-EPPS} dans
|
||||
l'équation de départ \eqref{eq:putepps-1}, on obtient ainsi une
|
||||
expression particulièrement simple pour le prix de l'option d'achat:
|
||||
\begin{align}
|
||||
P(S(t),K,T) &= B(t,T)K\left[\frac{1}{2}-\frac{1}{2\pi} \int_{-c}^c
|
||||
K^{-i\nu} \frac{\phi(\nu)}{\nu(i+\nu)}
|
||||
d\nu\right]. \label{eq:PutEpps8.37}
|
||||
\end{align}
|
||||
|
||||
Cependant, puisque la forme ne se prête pas à l'utilisation de
|
||||
l'algorithme de la transformée de Fourier rapide, on a recours à une
|
||||
procédure d'intégration numérique.
|
||||
|
||||
\section{Particularités}
|
||||
\label{sec:monnaiescontrats}
|
||||
|
||||
\subsection{Option sur actions avec dividendes}
|
||||
\label{sec:dividentoptions}
|
||||
|
||||
Lorsqu'une option a, pour titre sous-jacent, une action qui verse des
|
||||
dividendes, on doit en tenir compte dans l'évaluation de son prix. Si
|
||||
l'on considère que la valeur au marché de l'action $S^{*}(t)$ a été
|
||||
évaluée avec la méthode de l'actualisation des flux financiers futurs,
|
||||
on doit tenir compte de la valeur actualisée des dividendes qui seront
|
||||
versés avant l'échéance de l'option et la soustraire de ce prix.
|
||||
|
||||
Parfois, les dividendes ne sont pas fixes, mais proportionnels à la
|
||||
valeur de l'action à la date ex-dividende avec un taux $\delta$. Soit
|
||||
$n(T)$ le nombre de dates ex-dividende dans l'intervalle $\left] t,T
|
||||
\right]$, le prix initial $S(t)$ considéré pour le calcul de la valeur
|
||||
de l'option est alors défini comme suit:
|
||||
\begin{align}
|
||||
\label{eq:prixinitialdividende}
|
||||
S(t) = S^{*}(t) (1-\delta)^{n(T)}.
|
||||
\end{align}
|
||||
|
||||
Lorsque l'on considère un indice composé de plusieurs titres, on peut
|
||||
prendre un dividende versé de manière continue à un taux $q$. Dans ce
|
||||
cas, le prix initial $S(t)$ sera
|
||||
\begin{align}
|
||||
\label{eq:pricinitialdivcontinu}
|
||||
S(t) = S^{*}(t) e^{-q(T-t)}.
|
||||
\end{align}
|
||||
|
||||
\subsection{Options sur contrats à terme et taux de change}
|
||||
\label{sec:futureoptions}
|
||||
|
||||
\cite{black1976pricing} (p.177) démontre que le prix d'une option sur
|
||||
un contrat à terme a le même prix que sur une action dont le taux de
|
||||
dividende équivaut au taux sans risque. On peut donc utiliser les
|
||||
résultats \eqref{eq:prixinitialdividende} et
|
||||
\eqref{eq:pricinitialdivcontinu} en posant $q=r$.
|
||||
|
||||
De même, on peut évaluer le prix d'une option sur une monnaie
|
||||
étrangère en considérant le taux sans risque étranger $r_f$ comme un
|
||||
taux de dividende $q=r_f$. Selon la Banque des Règlements
|
||||
Internationaux, c'est le type d'options le plus transigé sur les
|
||||
marchés non réglementés en date de 2005, même s'il est moins étudié
|
||||
que les autres.
|
||||
|
||||
|
||||
|
||||
|
||||
|
||||
|
||||
|
||||
%%% Local Variables:
|
||||
%%% mode: latex
|
||||
%%% TeX-master: "gabarit-maitrise"
|
||||
%%% End:
|
186
memoire/chapitre9.aux
Normal file
186
memoire/chapitre9.aux
Normal file
|
@ -0,0 +1,186 @@
|
|||
\relax
|
||||
\providecommand\hyper@newdestlabel[2]{}
|
||||
\citation{buckle1995bayesian}
|
||||
\@writefile{lof}{\addvspace {10pt}}
|
||||
\@writefile{lot}{\addvspace {10pt}}
|
||||
\@writefile{toc}{\contentsline {chapter}{\chapternumberline {9}Exemple d'application}{97}{chapter.9}}
|
||||
\newlabel{chap:application}{{9}{97}{Exemple d'application}{chapter.9}{}}
|
||||
\newlabel{chap:application@cref}{{[chapter][9][]9}{97}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {9.1}Description des donn\IeC {\'e}es}{97}{section.9.1}}
|
||||
\newlabel{sec:analysepA}{{9.1}{97}{Description des données}{section.9.1}{}}
|
||||
\newlabel{sec:analysepA@cref}{{[section][1][9]9.1}{97}}
|
||||
\@writefile{lot}{\contentsline {table}{\numberline {9.1}{\ignorespaces Statistiques d'ordre de l'\IeC {\'e}chantillon $R_1$\relax }}{97}{table.caption.29}}
|
||||
\newlabel{tab:statordreR1}{{9.1}{97}{Statistiques d'ordre de l'échantillon $R_1$\relax }{table.caption.29}{}}
|
||||
\newlabel{tab:statordreR1@cref}{{[table][1][9]9.1}{97}}
|
||||
\@writefile{lof}{\contentsline {figure}{\numberline {9.1}{\ignorespaces Repr\IeC {\'e}sentation en s\IeC {\'e}rie chronologique de l'\IeC {\'e}chantillon $R_1$\relax }}{98}{figure.caption.28}}
|
||||
\newlabel{fig:seriechronoR1}{{9.1}{98}{Représentation en série chronologique de l'échantillon $R_1$\relax }{figure.caption.28}{}}
|
||||
\newlabel{fig:seriechronoR1@cref}{{[figure][1][9]9.1}{98}}
|
||||
\@writefile{lot}{\contentsline {table}{\numberline {9.2}{\ignorespaces Valeurs relatives aux premiers moments de l'\IeC {\'e}chantillon $R_1$\relax }}{98}{table.caption.30}}
|
||||
\newlabel{tab:statmomentsR1}{{9.2}{98}{Valeurs relatives aux premiers moments de l'échantillon $R_1$\relax }{table.caption.30}{}}
|
||||
\newlabel{tab:statmomentsR1@cref}{{[table][2][9]9.2}{98}}
|
||||
\@writefile{lot}{\contentsline {table}{\numberline {9.3}{\ignorespaces Test de normalit\IeC {\'e} d'Epps-Pulley pour $R_1$\relax }}{98}{table.caption.32}}
|
||||
\newlabel{tab:eppspulleyR1}{{9.3}{98}{Test de normalité d'Epps-Pulley pour $R_1$\relax }{table.caption.32}{}}
|
||||
\newlabel{tab:eppspulleyR1@cref}{{[table][3][9]9.3}{98}}
|
||||
\@writefile{lof}{\contentsline {figure}{\numberline {9.2}{\ignorespaces Distribution de la variable al\IeC {\'e}atoire $R_1$\relax }}{99}{figure.caption.31}}
|
||||
\newlabel{fig:distributionR1}{{9.2}{99}{Distribution de la variable aléatoire $R_1$\relax }{figure.caption.31}{}}
|
||||
\newlabel{fig:distributionR1@cref}{{[figure][2][9]9.2}{99}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {9.2}Estimation}{99}{section.9.2}}
|
||||
\newlabel{sec:estimation}{{9.2}{99}{Estimation}{section.9.2}{}}
|
||||
\newlabel{sec:estimation@cref}{{[section][2][9]9.2}{99}}
|
||||
\@writefile{lof}{\contentsline {figure}{\numberline {9.3}{\ignorespaces Graphique Quantile-Quantile\relax }}{100}{figure.caption.33}}
|
||||
\newlabel{fig:qqplotR1}{{9.3}{100}{Graphique Quantile-Quantile\relax }{figure.caption.33}{}}
|
||||
\newlabel{fig:qqplotR1@cref}{{[figure][3][9]9.3}{100}}
|
||||
\@writefile{lot}{\contentsline {table}{\numberline {9.4}{\ignorespaces Param\IeC {\`e}tres $\theta _1$ de la premi\IeC {\`e}re optimisation\relax }}{100}{table.caption.34}}
|
||||
\newlabel{tab:premiereoptimR1}{{9.4}{100}{Paramètres $\theta _1$ de la première optimisation\relax }{table.caption.34}{}}
|
||||
\newlabel{tab:premiereoptimR1@cref}{{[table][4][9]9.4}{100}}
|
||||
\newlabel{eq:vcov1gaussR1}{{9.2.1}{100}{Estimation}{equation.9.2.0.1}{}}
|
||||
\newlabel{eq:vcov1gaussR1@cref}{{[equation][1][9,2]9.2.1}{100}}
|
||||
\newlabel{eq:vcov1eeR1}{{9.2.2}{100}{Estimation}{equation.9.2.0.2}{}}
|
||||
\newlabel{eq:vcov1eeR1@cref}{{[equation][2][9,2]9.2.2}{100}}
|
||||
\newlabel{eq:vcov1eemodR1}{{9.2.3}{101}{Estimation}{equation.9.2.0.3}{}}
|
||||
\newlabel{eq:vcov1eemodR1@cref}{{[equation][3][9,2]9.2.3}{101}}
|
||||
\@writefile{lot}{\contentsline {table}{\numberline {9.5}{\ignorespaces Param\IeC {\`e}tres $\theta _1$ de la premi\IeC {\`e}re optimisation\relax }}{102}{table.caption.35}}
|
||||
\newlabel{tab:secondeoptimR1}{{9.5}{102}{Paramètres $\theta _1$ de la première optimisation\relax }{table.caption.35}{}}
|
||||
\newlabel{tab:secondeoptimR1@cref}{{[table][5][9]9.5}{102}}
|
||||
\newlabel{eq:vcov1gmmR1}{{9.2.4}{102}{Estimation}{equation.9.2.0.4}{}}
|
||||
\newlabel{eq:vcov1gmmR1@cref}{{[equation][4][9,2]9.2.4}{102}}
|
||||
\newlabel{eq:matvcov2R1-gauss}{{9.2.5}{102}{Estimation}{equation.9.2.0.5}{}}
|
||||
\newlabel{eq:matvcov2R1-gauss@cref}{{[equation][5][9,2]9.2.5}{102}}
|
||||
\newlabel{eq:matvcov2R1-ee}{{9.2.6}{102}{Estimation}{equation.9.2.0.6}{}}
|
||||
\newlabel{eq:matvcov2R1-ee@cref}{{[equation][6][9,2]9.2.6}{102}}
|
||||
\newlabel{eq:matvcov2R1-eemod}{{9.2.7}{102}{Estimation}{equation.9.2.0.7}{}}
|
||||
\newlabel{eq:matvcov2R1-eemod@cref}{{[equation][7][9,2]9.2.7}{102}}
|
||||
\@writefile{lot}{\contentsline {table}{\numberline {9.6}{\ignorespaces Param\IeC {\`e}tres des donn\IeC {\'e}es $R_1$\relax }}{103}{table.caption.36}}
|
||||
\newlabel{tab:parametresdonneesorigineR1}{{9.6}{103}{Paramètres des données $R_1$\relax }{table.caption.36}{}}
|
||||
\newlabel{tab:parametresdonneesorigineR1@cref}{{[table][6][9]9.6}{103}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {9.3}Approximation}{104}{section.9.3}}
|
||||
\newlabel{sec:approximationR1}{{9.3}{104}{Approximation}{section.9.3}{}}
|
||||
\newlabel{sec:approximationR1@cref}{{[section][3][9]9.3}{104}}
|
||||
\@writefile{lof}{\contentsline {figure}{\numberline {9.4}{\ignorespaces \IeC {\'E}quation du point de selle pour $r=0.01$\relax }}{104}{figure.caption.37}}
|
||||
\newlabel{fig:equationptselle0.01R1}{{9.4}{104}{Équation du point de selle pour $r=0.01$\relax }{figure.caption.37}{}}
|
||||
\newlabel{fig:equationptselle0.01R1@cref}{{[figure][4][9]9.4}{104}}
|
||||
\@writefile{lot}{\contentsline {table}{\numberline {9.7}{\ignorespaces Approximation de la densit\IeC {\'e} de $R_1$\relax }}{104}{table.caption.38}}
|
||||
\newlabel{tab:approximationdensiteR1}{{9.7}{104}{Approximation de la densité de $R_1$\relax }{table.caption.38}{}}
|
||||
\newlabel{tab:approximationdensiteR1@cref}{{[table][7][9]9.7}{104}}
|
||||
\@writefile{lot}{\contentsline {table}{\numberline {9.8}{\ignorespaces Approximation de la fonction de r\IeC {\'e}partition de $R_1$\relax }}{105}{table.caption.39}}
|
||||
\newlabel{tab:approximationrepartR1}{{9.8}{105}{Approximation de la fonction de répartition de $R_1$\relax }{table.caption.39}{}}
|
||||
\newlabel{tab:approximationrepartR1@cref}{{[table][8][9]9.8}{105}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {9.4}Graphiques}{105}{section.9.4}}
|
||||
\newlabel{sec:graphiques}{{9.4}{105}{Graphiques}{section.9.4}{}}
|
||||
\newlabel{sec:graphiques@cref}{{[section][4][9]9.4}{105}}
|
||||
\@writefile{lot}{\contentsline {table}{\numberline {9.9}{\ignorespaces Courbes de densit\IeC {\'e}\relax }}{105}{table.caption.40}}
|
||||
\newlabel{tab:courbesdensite}{{9.9}{105}{Courbes de densité\relax }{table.caption.40}{}}
|
||||
\newlabel{tab:courbesdensite@cref}{{[table][9][9]9.9}{105}}
|
||||
\@writefile{lot}{\contentsline {table}{\numberline {9.10}{\ignorespaces Valeur de l'int\IeC {\'e}grale de l'approximation de la densit\IeC {\'e} par la m\IeC {\'e}thode du point de selle \relax }}{105}{table.caption.41}}
|
||||
\newlabel{tab:intapproxpointselleR1}{{9.10}{105}{Valeur de l'intégrale de l'approximation de la densité par la méthode du point de selle \relax }{table.caption.41}{}}
|
||||
\newlabel{tab:intapproxpointselleR1@cref}{{[table][10][9]9.10}{105}}
|
||||
\@writefile{lof}{\contentsline {figure}{\numberline {9.5}{\ignorespaces Densit\IeC {\'e} de $R_1^{*}$ selon la m\IeC {\'e}thode des moments g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e\relax }}{106}{figure.caption.42}}
|
||||
\newlabel{fig:densite1R1}{{9.5}{106}{Densité de $R_1^{*}$ selon la méthode des moments généralisée\relax }{figure.caption.42}{}}
|
||||
\newlabel{fig:densite1R1@cref}{{[figure][5][9]9.5}{106}}
|
||||
\@writefile{lof}{\contentsline {figure}{\numberline {9.6}{\ignorespaces Densit\IeC {\'e} de $R_1^{*}$ selon la m\IeC {\'e}thode de l'\IeC {\'e}quation d'estimation optimale\relax }}{107}{figure.caption.43}}
|
||||
\newlabel{fig:densite3R1}{{9.6}{107}{Densité de $R_1^{*}$ selon la méthode de l'équation d'estimation optimale\relax }{figure.caption.43}{}}
|
||||
\newlabel{fig:densite3R1@cref}{{[figure][6][9]9.6}{107}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {9.5}Tests statistiques}{108}{section.9.5}}
|
||||
\newlabel{sec:tests-statistiques}{{9.5}{108}{Tests statistiques}{section.9.5}{}}
|
||||
\newlabel{sec:tests-statistiques@cref}{{[section][5][9]9.5}{108}}
|
||||
\@writefile{lot}{\contentsline {table}{\numberline {9.11}{\ignorespaces Test du $\chi ^2$\relax }}{108}{table.caption.44}}
|
||||
\newlabel{tab:testchi2R1}{{9.11}{108}{Test du $\chi ^2$\relax }{table.caption.44}{}}
|
||||
\newlabel{tab:testchi2R1@cref}{{[table][11][9]9.11}{108}}
|
||||
\@writefile{lot}{\contentsline {table}{\numberline {9.12}{\ignorespaces Test de Kolmogorov-Smirnov\relax }}{108}{table.caption.45}}
|
||||
\newlabel{tab:testKSR1}{{9.12}{108}{Test de Kolmogorov-Smirnov\relax }{table.caption.45}{}}
|
||||
\newlabel{tab:testKSR1@cref}{{[table][12][9]9.12}{108}}
|
||||
\@writefile{lot}{\contentsline {table}{\numberline {9.13}{\ignorespaces Test de distance minimale bas\IeC {\'e} sur la fonction g\IeC {\'e}n\IeC {\'e}ratrice des moments\relax }}{109}{table.caption.46}}
|
||||
\newlabel{tab:testDMR1}{{9.13}{109}{Test de distance minimale basé sur la fonction génératrice des moments\relax }{table.caption.46}{}}
|
||||
\newlabel{tab:testDMR1@cref}{{[table][13][9]9.13}{109}}
|
||||
\@writefile{toc}{\contentsline {section}{\numberline {9.6}\IeC {\'E}valuation d'options}{109}{section.9.6}}
|
||||
\newlabel{sec:evaluation-doptions}{{9.6}{109}{Évaluation d'options}{section.9.6}{}}
|
||||
\newlabel{sec:evaluation-doptions@cref}{{[section][6][9]9.6}{109}}
|
||||
\@writefile{lot}{\contentsline {table}{\numberline {9.14}{\ignorespaces Caract\IeC {\'e}ristiques de l'option\relax }}{109}{table.caption.47}}
|
||||
\newlabel{tab:caracteristiqueoptionR1}{{9.14}{109}{Caractéristiques de l'option\relax }{table.caption.47}{}}
|
||||
\newlabel{tab:caracteristiqueoptionR1@cref}{{[table][14][9]9.14}{109}}
|
||||
\@writefile{lot}{\contentsline {table}{\numberline {9.15}{\ignorespaces Param\IeC {\`e}tres neutres au risque\relax }}{109}{table.caption.48}}
|
||||
\newlabel{tab:paramrisqueneutreR1}{{9.15}{109}{Paramètres neutres au risque\relax }{table.caption.48}{}}
|
||||
\newlabel{tab:paramrisqueneutreR1@cref}{{[table][15][9]9.15}{109}}
|
||||
\@writefile{lof}{\contentsline {figure}{\numberline {9.7}{\ignorespaces Prix de l'option selon les param\IeC {\`e}tres estim\IeC {\'e}s avec la m\IeC {\'e}thode des moments g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e\relax }}{110}{figure.caption.49}}
|
||||
\newlabel{fig:prix1R1-1}{{9.7}{110}{Prix de l'option selon les paramètres estimés avec la méthode des moments généralisée\relax }{figure.caption.49}{}}
|
||||
\newlabel{fig:prix1R1-1@cref}{{[figure][7][9]9.7}{110}}
|
||||
\@writefile{lof}{\contentsline {figure}{\numberline {9.8}{\ignorespaces Prix de l'option selon les param\IeC {\`e}tres estim\IeC {\'e}s avec la m\IeC {\'e}thode de l'\IeC {\'e}quation d'estimation optimale\relax }}{111}{figure.caption.50}}
|
||||
\newlabel{fig:prix1R1-3}{{9.8}{111}{Prix de l'option selon les paramètres estimés avec la méthode de l'équation d'estimation optimale\relax }{figure.caption.50}{}}
|
||||
\newlabel{fig:prix1R1-3@cref}{{[figure][8][9]9.8}{111}}
|
||||
\@setckpt{chapitre9}{
|
||||
\setcounter{page}{112}
|
||||
\setcounter{equation}{0}
|
||||
\setcounter{enumi}{4}
|
||||
\setcounter{enumii}{2}
|
||||
\setcounter{enumiii}{0}
|
||||
\setcounter{enumiv}{0}
|
||||
\setcounter{footnote}{0}
|
||||
\setcounter{mpfootnote}{0}
|
||||
\setcounter{@memmarkcntra}{0}
|
||||
\setcounter{storedpagenumber}{1}
|
||||
\setcounter{book}{0}
|
||||
\setcounter{part}{0}
|
||||
\setcounter{chapter}{9}
|
||||
\setcounter{section}{6}
|
||||
\setcounter{subsection}{0}
|
||||
\setcounter{subsubsection}{0}
|
||||
\setcounter{paragraph}{0}
|
||||
\setcounter{subparagraph}{0}
|
||||
\setcounter{@ppsavesec}{0}
|
||||
\setcounter{@ppsaveapp}{0}
|
||||
\setcounter{vslineno}{0}
|
||||
\setcounter{poemline}{0}
|
||||
\setcounter{modulo@vs}{0}
|
||||
\setcounter{memfvsline}{0}
|
||||
\setcounter{verse}{0}
|
||||
\setcounter{chrsinstr}{0}
|
||||
\setcounter{poem}{0}
|
||||
\setcounter{newflo@tctr}{4}
|
||||
\setcounter{@contsubnum}{0}
|
||||
\setcounter{maxsecnumdepth}{2}
|
||||
\setcounter{sidefootnote}{0}
|
||||
\setcounter{pagenote}{0}
|
||||
\setcounter{pagenoteshadow}{0}
|
||||
\setcounter{memfbvline}{0}
|
||||
\setcounter{bvlinectr}{0}
|
||||
\setcounter{cp@cntr}{0}
|
||||
\setcounter{ism@mctr}{0}
|
||||
\setcounter{xsm@mctr}{0}
|
||||
\setcounter{csm@mctr}{0}
|
||||
\setcounter{ksm@mctr}{0}
|
||||
\setcounter{xksm@mctr}{0}
|
||||
\setcounter{cksm@mctr}{0}
|
||||
\setcounter{msm@mctr}{0}
|
||||
\setcounter{xmsm@mctr}{0}
|
||||
\setcounter{cmsm@mctr}{0}
|
||||
\setcounter{bsm@mctr}{0}
|
||||
\setcounter{workm@mctr}{0}
|
||||
\setcounter{sheetsequence}{130}
|
||||
\setcounter{lastsheet}{155}
|
||||
\setcounter{lastpage}{137}
|
||||
\setcounter{figure}{8}
|
||||
\setcounter{lofdepth}{1}
|
||||
\setcounter{table}{15}
|
||||
\setcounter{lotdepth}{1}
|
||||
\setcounter{NAT@ctr}{0}
|
||||
\setcounter{nprt@mantissa@digitsbefore}{0}
|
||||
\setcounter{nprt@mantissa@digitsafter}{0}
|
||||
\setcounter{nprt@exponent@digitsbefore}{0}
|
||||
\setcounter{nprt@exponent@digitsafter}{0}
|
||||
\setcounter{nprt@digitsfirstblock}{0}
|
||||
\setcounter{nprt@blockcnt}{0}
|
||||
\setcounter{nprt@cntprint}{0}
|
||||
\setcounter{parentequation}{0}
|
||||
\setcounter{thmt@dummyctr}{3}
|
||||
\setcounter{Item}{30}
|
||||
\setcounter{Hfootnote}{3}
|
||||
\setcounter{memhycontfloat}{0}
|
||||
\setcounter{Hpagenote}{0}
|
||||
\setcounter{bookmark@seq@number}{103}
|
||||
\setcounter{ContinuedFloat}{0}
|
||||
\setcounter{app@runs}{1}
|
||||
\setcounter{pspicture}{0}
|
||||
\setcounter{section@level}{0}
|
||||
\setcounter{theo}{0}
|
||||
\setcounter{hypothese}{0}
|
||||
}
|
17870
memoire/chapitre9.log
Normal file
17870
memoire/chapitre9.log
Normal file
File diff suppressed because it is too large
Load diff
702
memoire/chapitre9.tex
Normal file
702
memoire/chapitre9.tex
Normal file
|
@ -0,0 +1,702 @@
|
|||
\chapter{Exemple d'application}
|
||||
\label{chap:application}%
|
||||
|
||||
On considère un échantillon $S_1$ formé de l'ensemble des prix
|
||||
$S_1(t)$ à la fermeture du titre Abbey National entre le 31 juillet et
|
||||
le 8 octobre 1991. La table \ref{prixabbeyn} présente l'ensemble des 50
|
||||
observations. Cet échantillon a notamment été étudié précédemment par
|
||||
\cite{buckle1995bayesian}.
|
||||
|
||||
\section{Description des données}
|
||||
\label{sec:analysepA}
|
||||
|
||||
On évalue tout d'abord les rendements quotidiens $R_1$ à l'aide de
|
||||
l'équation \eqref{eq:rendementlogprix}. On obtient alors 49
|
||||
observations du processus des rendements $R(t)$, que l'on présente à
|
||||
la figure \ref{fig:seriechronoR1} sous forme de série chronologique.
|
||||
|
||||
\begin{figure}[!ht]
|
||||
\centering
|
||||
\includegraphics[height=4in,
|
||||
width=4in]{../contenus/r/code/ABBEYN-chronologie.pdf}
|
||||
\caption{Représentation en série chronologique de l'échantillon
|
||||
$R_1$}
|
||||
\label{fig:seriechronoR1}
|
||||
\end{figure}
|
||||
|
||||
On énumère d'abord quelques propriétés de cet échantillon qui pourront
|
||||
compléter l'analyse. À la table \ref{tab:statordreR1}, on présente
|
||||
quelques statistiques d'ordre. De plus, à la table
|
||||
\ref{tab:statmomentsR1}, on retrouve quelques valeurs relatives aux
|
||||
premiers moments.
|
||||
|
||||
\begin{table}[!ht]
|
||||
\centering
|
||||
\begin{tabular}{cccccc}
|
||||
\hline
|
||||
\textbf{Statistique d'ordre} & \textbf{Valeur} \\
|
||||
\hline
|
||||
Minimum & -0.027500\\
|
||||
1er quartile & -0.009790\\
|
||||
Médiane & -0.003260\\
|
||||
3e Quartile & 0.006620\\
|
||||
Maximum & 0.043400\\
|
||||
\hline
|
||||
|
||||
\end{tabular}
|
||||
\caption{Statistiques d'ordre de l'échantillon $R_1$}
|
||||
\label{tab:statordreR1}
|
||||
\end{table}
|
||||
|
||||
\begin{table}[!ht]
|
||||
\centering
|
||||
\begin{tabular}{cccc}
|
||||
\hline
|
||||
\textbf{Statistique} & \textbf{Valeur} \\
|
||||
\hline
|
||||
Moyenne & 0.000206\\
|
||||
Variance & 0.000169\\
|
||||
Coefficient d'asymétrie & 0.977563\\
|
||||
Coefficient d'aplatissement & 4.597114 \\
|
||||
\hline
|
||||
\end{tabular}
|
||||
\caption{Valeurs relatives aux premiers moments de l'échantillon $R_1$}
|
||||
\label{tab:statmomentsR1}
|
||||
\end{table}
|
||||
|
||||
On présente maintenant la distribution des rendements sous la forme
|
||||
d'une courbe de densité à la figure \ref{fig:distributionR1}.
|
||||
|
||||
\begin{figure}[!ht]
|
||||
\centering
|
||||
\includegraphics[height=4in,width=4in]{../contenus/r/code/ABBEYN-histogramme.pdf}
|
||||
\caption{Distribution de la variable aléatoire $R_1$}
|
||||
\label{fig:distributionR1}
|
||||
\end{figure}
|
||||
|
||||
À l'aide du test de normalité d'Epps-Pulley (Section
|
||||
\ref{sec:test-de-epps}), on vérifie si la distribution des rendements
|
||||
$R_1$ est significativement différente de la normale. On fixe le seuil
|
||||
de tolérance $\alpha = 5\% $.
|
||||
|
||||
On évalue d'abord la statistique $EP_T$
|
||||
\eqref{eq:statistiqueEppsPulley}, puis la statistique modifiée
|
||||
$EP_T^{*}$ \eqref{eq:EppsPulleyMod} étant donné que $T>10$. La table
|
||||
\ref{tab:eppspulleyR1} présente les résultats.
|
||||
|
||||
\begin{table}[!ht]
|
||||
\centering
|
||||
\begin{tabular}{ll}
|
||||
\hline
|
||||
\textbf{Statistique} & \textbf{Valeur} \\
|
||||
\hline
|
||||
$EP_T$ & 0.626033 \\
|
||||
$EP_T^{*}$ & 0.635568 \\
|
||||
$Z_T$ & 2.44824 \\
|
||||
$p$ & 0.007178 \\
|
||||
\hline
|
||||
\end{tabular}
|
||||
\caption{Test de normalité d'Epps-Pulley pour $R_1$}
|
||||
\label{tab:eppspulleyR1}
|
||||
\end{table}
|
||||
|
||||
Étant donné que la valeur $p$ est inférieure au seuil $\alpha$, on
|
||||
rejette l'hypothèse de normalité de l'échantillon $R_1$. On peut
|
||||
vérifier cette affirmation à l'aide du graphique de comparaison des
|
||||
quantiles empiriques avec ceux de la loi normale présenté à la figure
|
||||
\ref{fig:qqplotR1}.
|
||||
|
||||
\begin{figure}[!ht]
|
||||
\centering
|
||||
\includegraphics[height=4in,
|
||||
width=4in]{../contenus/r/code/ABBEYN-qq.pdf}
|
||||
\caption{Graphique Quantile-Quantile}
|
||||
\label{fig:qqplotR1}
|
||||
\end{figure}
|
||||
|
||||
\section{Estimation}
|
||||
\label{sec:estimation}
|
||||
|
||||
Dans cette section, on estime les paramètres de la distribution de
|
||||
Laplace asymétrique généralisée pour l'échantillon de données centrées
|
||||
et réduites $R_1^{*}$, à l'aide des méthodes:
|
||||
\begin{itemize}
|
||||
\item des moments généralisée itérative (Section \ref{sec:GMMtwostep})
|
||||
\item d'estimation gaussienne de Whittle (table
|
||||
\ref{tab:methodesquad})
|
||||
\item de l'équation d'estimation optimale de Crowder (Section
|
||||
\ref{sec:equationsquadopt}) et
|
||||
\item de l'équation d'estimation optimale modifiée (Section
|
||||
\ref{sec:eqoptmodif}).
|
||||
\end{itemize}
|
||||
|
||||
On évalue d'abord le vecteur de paramètres initiaux $\theta_0$ à
|
||||
l'aide des équations \eqref{eq:ptdepartGAL}. On effectue ensuite une
|
||||
première optimisation à l'aide de chacune des trois méthodes afin de
|
||||
pouvoir évaluer la matrice de pondération qui servira à la seconde. La
|
||||
table \ref{tab:premiereoptimR1} présente les paramètres obtenus
|
||||
$\theta_1$.
|
||||
|
||||
\begin{table}[!ht]
|
||||
\centering
|
||||
\begin{tabular}{lcccc}
|
||||
\hline
|
||||
\textbf{Méthode} & $\theta$ & $\sigma$ & $\mu$ & $\tau$ \\
|
||||
\hline
|
||||
Paramètres initiaux & -0.612081 & 0.515932 & 0.325854 & 1.878388 \\
|
||||
\hline
|
||||
Moments généralisée & -0.641646 & 0.625908 & 0.326366 & 1.965995 \\
|
||||
Estimation gaussienne & -0.776204 & 0.581154 & 0.385120 & 2.015437 \\
|
||||
Équation d'estimation optimale & -0.660300 & 0.645678 & 0.376654 & 1.753069 \\
|
||||
Équation d'estimation optimale modifiée & -0.711439 & 0.606642 & 0.362932 & 1.960299 \\
|
||||
\hline
|
||||
\end{tabular}
|
||||
\caption{Paramètres $\theta_1$ de la première optimisation}
|
||||
\label{tab:premiereoptimR1}
|
||||
\end{table}
|
||||
|
||||
On obtient la matrice de variance-covariance des paramètres pour les
|
||||
méthodes basées sur une équation d'estimation
|
||||
\eqref{eq:VarAsymptEstEE} en évaluant l'inverse de la
|
||||
variance-covariance des éléments composant celle-ci
|
||||
\eqref{eq:Crowder86-th3.3-def-2} et le gradient
|
||||
\eqref{eq:Crowder86-th3.3-def-1}:
|
||||
\begin{itemize}
|
||||
\item Pour la méthode d'estimation gaussienne:
|
||||
\begin{align}
|
||||
\label{eq:vcov1gaussR1}
|
||||
\mathbf{S}_T^{*}(\hat\theta_1;R_1^{*}) = \begin{bmatrix}
|
||||
1.13756e-03 &-0.00207546& 0.000917316& 7.46064e-06\\
|
||||
-2.07546e-03 & 0.00984423& 0.002340623& 1.24328e-03\\
|
||||
9.17316e-04 & 0.00234062& 0.003399880& 8.38932e-04\\
|
||||
7.46064e-06 & 0.00124328& 0.000838932& 2.60840e-04
|
||||
\end{bmatrix}
|
||||
\end{align}
|
||||
\item Pour la méthode de l'équation d'estimation optimale:
|
||||
\begin{align}
|
||||
\label{eq:vcov1eeR1}
|
||||
\mathbf{S}_T^{*}(\hat\theta_1;R_1^{*}) = \begin{bmatrix}
|
||||
1.47029e-03 &-0.00212833& 0.00133597& 2.84688e-05\\
|
||||
-2.12833e-03 & 0.01115599& 0.00277669& 1.95192e-03\\
|
||||
1.33597e-03 & 0.00277669& 0.00396182& 1.18855e-03\\
|
||||
2.84688e-05 & 0.00195192& 0.00118855& 4.92502e-04
|
||||
\end{bmatrix}
|
||||
\end{align}
|
||||
\item Pour la méthode de l'équation d'estimation optimale modifiée:
|
||||
\begin{align}
|
||||
\label{eq:vcov1eemodR1}
|
||||
\mathbf{S}_T^{*}(\hat\theta_1;R_1^{*}) = \begin{bmatrix}
|
||||
1.03165e-03& -0.00146603& 0.001145269& 6.63861e-05\\
|
||||
-1.46603e-03& 0.00812868& 0.001989247& 1.17588e-03\\
|
||||
1.14527e-03& 0.00198925& 0.003435163& 8.33622e-04\\
|
||||
6.63861e-05& 0.00117588& 0.000833622& 2.71162e-04
|
||||
\end{bmatrix}
|
||||
\end{align}
|
||||
\end{itemize}
|
||||
|
||||
On peut ainsi construire des intervalles de confiance pour les
|
||||
paramètres estimés. On utilise un seuil de tolérance de $\alpha=5\%$:
|
||||
\begin{itemize}
|
||||
\item Pour la méthode d'estimation gaussienne:\\ \\
|
||||
\begin{tabular}{rrrr}
|
||||
\hline
|
||||
& \textbf{Borne inférieure} & \textbf{Valeur estimée} & \textbf{Borne supérieure} \\
|
||||
\hline
|
||||
$\theta$ & -0.8328 & -0.7762 & -0.7197 \\
|
||||
$\sigma$ & 0.4148 & 0.5812 & 0.7475 \\
|
||||
$\mu$ & 0.2874 & 0.3851 & 0.4829 \\
|
||||
$\tau$ & 1.9884 & 2.0154 & 2.0425 \\
|
||||
\hline
|
||||
\end{tabular}\\
|
||||
|
||||
\item Pour la méthode de l'équation d'estimation optimale:\\ \\
|
||||
\begin{tabular}{rrrr}
|
||||
\hline
|
||||
& \textbf{Borne inférieure} & \textbf{Valeur estimée} & \textbf{Borne supérieure} \\
|
||||
\hline
|
||||
$\theta$ & -0.7246 & -0.6603 & -0.5960 \\
|
||||
$\sigma$ & 0.4686 & 0.6457 & 0.8228 \\
|
||||
$\mu$ & 0.2711 & 0.3767 & 0.4822 \\
|
||||
$\tau$ & 1.7159 & 1.7531 & 1.7903 \\
|
||||
\hline
|
||||
\end{tabular}\\
|
||||
|
||||
\item Pour la méthode de l'équation d'estimation optimale modifiée:\\ \\
|
||||
\begin{tabular}{rrrr}
|
||||
\hline
|
||||
& \textbf{Borne inférieure} & \textbf{Valeur estimée} & \textbf{Borne supérieure} \\
|
||||
\hline
|
||||
$\theta$ & -0.7653 & -0.7114 & -0.6576 \\
|
||||
$\sigma$ & 0.4555 & 0.6066 & 0.7578 \\
|
||||
$\mu$ & 0.2647 & 0.3629 & 0.4612 \\
|
||||
$\tau$ & 1.9327 & 1.9603 & 1.9879 \\
|
||||
\hline
|
||||
\end{tabular}\\
|
||||
|
||||
\end{itemize}
|
||||
|
||||
À l'aide de l'inverse de la variance-covariance des conditions de
|
||||
moments et des équations d'estimation, on peut effectuer une seconde
|
||||
optimisation afin d'obtenir des estimateurs convergents. Pour la
|
||||
méthode des moments généralisée, on utilisera plutôt une procédure
|
||||
itérative. Les paramètres présentés à la table
|
||||
\ref{tab:secondeoptimR1} sont donc ceux obtenus avec la convergence de
|
||||
l'algorithme itératif de la section \ref{sec:GMMtwostep} avec un
|
||||
critère d'arrêt $\epsilon=10^{-7}$ \eqref{eq:criterearret}.
|
||||
|
||||
\begin{table}[!ht]
|
||||
\centering
|
||||
\begin{tabular}{lcccc}
|
||||
\hline
|
||||
\textbf{Méthode} & $\theta$ & $\sigma$ & $\mu$ & $\tau$ \\
|
||||
\hline
|
||||
Moments généralisée & -0.640067 & 0.625431 & 0.324311 & 1.973623 \\
|
||||
Estimation gaussienne & -0.775071 & 0.581413 & 0.384342 & 2.016619 \\
|
||||
Équation d'estimation optimale & -0.658697 & 0.646516 & 0.376251 & 1.750685 \\
|
||||
Équation d'estimation optimale modifiée & -0.712450 & 0.606193 & 0.363196 & 1.961614 \\
|
||||
\hline
|
||||
\end{tabular}
|
||||
\caption{Paramètres $\theta_1$ de la première optimisation}
|
||||
\label{tab:secondeoptimR1}
|
||||
\end{table}
|
||||
|
||||
Pour la méthode des moments généralisée, puisque l'on utilise une
|
||||
procédure itérative, présenter la première matrice de
|
||||
variance-covariance des paramètres n'est pas pertinent. On obtient
|
||||
celle à la convergence de l'algorithme \eqref{matricevcovparamGMMnc}
|
||||
en évaluant l'inverse de la variance-covariance des conditions de
|
||||
moments \eqref{eq:matponderationproduith} et le gradient
|
||||
\eqref{eq:gradientGMM}. On obtient donc:
|
||||
\begin{align}
|
||||
\label{eq:vcov1gmmR1}
|
||||
\mathbf{S}_T^{*}(\hat\theta_{OPT};R_1^{*}) =
|
||||
\begin{bmatrix}
|
||||
0.00203708& 0.00438553& 0.00174636& 0.00154237\\
|
||||
0.00438553& 0.01207044& 0.00239640& 0.00384905\\
|
||||
0.00174636& 0.00239640& 0.00220402& 0.00104816\\
|
||||
0.00154237& 0.00384905& 0.00104816& 0.00127406
|
||||
\end{bmatrix}.
|
||||
\end{align}
|
||||
|
||||
Pour les méthodes basées sur une équation d'estimation, on obtient,
|
||||
pour la seconde optimisation, les variances-covariances suivantes:
|
||||
\begin{itemize}
|
||||
\item Pour la méthode d'estimation gaussienne:
|
||||
\begin{align}
|
||||
\label{eq:matvcov2R1-gauss}
|
||||
\mathbf{S}_T^{*}(\hat\theta_2;R_1^{*}) = \begin{bmatrix}
|
||||
1.13314e-03& -0.00206602& 0.000919367& 7.53773e-06\\
|
||||
-2.06602e-03 & 0.00983078& 0.002332240 &1.24238e-03\\
|
||||
9.19367e-04 & 0.00233224& 0.003395736& 8.36472e-04\\
|
||||
7.53773e-06 & 0.00124238& 0.000836472& 2.60254e-04
|
||||
\end{bmatrix}
|
||||
\end{align}
|
||||
\item Pour la méthode de l'équation d'estimation optimale:
|
||||
\begin{align}
|
||||
\label{eq:matvcov2R1-ee}
|
||||
\mathbf{S}_T^{*}(\hat\theta_2;R_1^{*}) = \begin{bmatrix}
|
||||
1.47327e-03& -0.00212557& 0.00134221& 2.89119e-05\\
|
||||
-2.12557e-03 & 0.01116770 &0.00277803& 1.96072e-03\\
|
||||
1.34221e-03 & 0.00277803& 0.00396652& 1.19169e-03 \\
|
||||
2.89119e-05 & 0.00196072& 0.00119169& 4.95537e-04
|
||||
\end{bmatrix}
|
||||
\end{align}
|
||||
\item Pour la méthode de l'équation d'estimation optimale modifiée:
|
||||
\begin{align}
|
||||
\label{eq:matvcov2R1-eemod}
|
||||
\mathbf{S}_T^{*}(\hat\theta_2;R_1^{*}) = \begin{bmatrix}
|
||||
1.03121e-03& -0.00146899& 0.001142696& 6.60715e-05\\
|
||||
-1.46899e-03 & 0.00812703 &0.001987649& 1.17298e-03\\
|
||||
1.14270e-03 & 0.00198765& 0.003432414& 8.32388e-04\\
|
||||
6.60715e-05 & 0.00117298& 0.000832388& 2.70299e-04
|
||||
\end{bmatrix}
|
||||
\end{align}
|
||||
\end{itemize}
|
||||
|
||||
On peut donc construire des intervalles de confiance:
|
||||
\begin{itemize}
|
||||
\item Pour la méthode des moments généralisée:\\ \\
|
||||
\begin{tabular}{rrrr}
|
||||
\hline
|
||||
& \textbf{Borne inférieure} & \textbf{Valeur estimée} & \textbf{Borne supérieure} \\
|
||||
\hline
|
||||
$\theta$ & -0.715736& -0.640067& -0.564397\\
|
||||
$\sigma$ & 0.441236 & 0.625431 & 0.809627\\
|
||||
$\mu$ & 0.245602 & 0.324311 & 0.403020\\
|
||||
$\tau$ & 1.913780 & 1.973623 & 2.033466\\
|
||||
\hline
|
||||
\end{tabular} \\
|
||||
\item Pour la méthode d'estimation gaussienne:\\ \\
|
||||
\begin{tabular}{rrrr}
|
||||
\hline
|
||||
& \textbf{Borne inférieure} & \textbf{Valeur estimée} & \textbf{Borne supérieure} \\
|
||||
\hline
|
||||
$\theta$ & -0.8315 & -0.7751 & -0.7186 \\
|
||||
$\sigma$ & 0.4152 & 0.5814 & 0.7476 \\
|
||||
$\mu$ & 0.2866 & 0.3843 & 0.4820 \\
|
||||
$\tau$ & 1.9896 & 2.0166 & 2.0437 \\
|
||||
\hline
|
||||
\end{tabular} \\
|
||||
\item Pour la méthode de l'équation d'estimation optimale:\\ \\
|
||||
\begin{tabular}{rrrr}
|
||||
\hline
|
||||
& \textbf{Borne inférieure} & \textbf{Valeur estimée} & \textbf{Borne supérieure} \\
|
||||
\hline
|
||||
$\theta$ & -0.7230 & -0.6587 & -0.5943 \\
|
||||
$\sigma$ & 0.4693 & 0.6465 & 0.8237 \\
|
||||
$\mu$ & 0.2707 & 0.3763 & 0.4818 \\
|
||||
$\tau$ & 1.7134 & 1.7507 & 1.7880 \\
|
||||
\hline
|
||||
\end{tabular} \\
|
||||
\item Pour la méthode de l'équation d'estimation optimale modifiée:\\ \\
|
||||
\begin{tabular}{rrrr}
|
||||
\hline
|
||||
& \textbf{Borne inférieure} & \textbf{Valeur estimée} & \textbf{Borne supérieure} \\
|
||||
\hline
|
||||
$\theta$ & -0.7663 & -0.7124 & -0.6586 \\
|
||||
$\sigma$ & 0.4551 & 0.6062 & 0.7573 \\
|
||||
$\mu$ & 0.2650 & 0.3632 & 0.4614 \\
|
||||
$\tau$ & 1.9341 & 1.9616 & 1.9892 \\
|
||||
\hline
|
||||
\end{tabular} \\
|
||||
\end{itemize}
|
||||
|
||||
En utilisant la propriété \eqref{eq:transparamGALNS}, on retrouve les
|
||||
paramètres, correspondants aux données $R(t)= \sqrt{Var[R_1]} R^{*}(t)
|
||||
+ E[R_1], t=1,\ldots,50$, présentés à la table
|
||||
\ref{tab:parametresdonneesorigineR1}.
|
||||
|
||||
\begin{table}[!ht] \centering
|
||||
\begin{tabular}{lcccc}
|
||||
\hline
|
||||
\textbf{Méthode} & $\theta$ & $\sigma$ & $\mu$ & $\tau$ \\
|
||||
\hline
|
||||
Moments généralisée& -0.008119 & 0.008134 & 0.002983 & 1.973623 \\
|
||||
Estimation gaussienne& -0.009875 & 0.007562 & 0.003535 & 2.016619 \\
|
||||
Équation d'estimation optimale& -0.008361 & 0.008409 & 0.003460 & 1.750685 \\
|
||||
Équation d'estimation optimale modifiée& -0.009060 & 0.007884 & 0.003340 & 1.961614 \\
|
||||
\hline
|
||||
\end{tabular}
|
||||
\caption{Paramètres des données $R_1$}
|
||||
\label{tab:parametresdonneesorigineR1}
|
||||
\end{table}
|
||||
|
||||
\section{Approximation}
|
||||
\label{sec:approximationR1}
|
||||
|
||||
On effectue l'approximation des fonctions de densité et de répartition
|
||||
pour un ensemble de points $r \in
|
||||
\left\{-0.03,-0.02,-0.01,0,0.01,0.02,0.03 \right\}$ à l'aide de la
|
||||
méthode du point de selle. On utilise les paramètres obtenus par la
|
||||
méthode des moments généralisée.
|
||||
|
||||
On résout d'abord l'équation du point de selle
|
||||
\eqref{eq:saddlepoint}. On illustre graphiquement cette équation pour
|
||||
$r=0.01$ à la figure \ref{fig:equationptselle0.01R1} :
|
||||
\begin{figure}[!ht]
|
||||
\centering
|
||||
\includegraphics[scale=0.5]{../contenus/maxima/pointdeselleGMM.png}
|
||||
\caption{Équation du point de selle pour $r=0.01$}
|
||||
\label{fig:equationptselle0.01R1}
|
||||
\end{figure}
|
||||
|
||||
Le point de selle prend alors une valeur de $\hat{s}=56.050951$ dans
|
||||
cette situation. En utilisant l'approximation de premier ordre
|
||||
$\hat{f}_{R,1}(r)$
|
||||
\eqref{eq:approximationsaddlepointordre1} % et celle
|
||||
% de second ordre $\hat{f}_{R,2}(r)$
|
||||
% \eqref{eq:approximationsaddlepointordre2}
|
||||
de la fonction de densité, et en comparant le résutat avec la fonction
|
||||
de densité ${f}_{R}(r)$ \eqref{eq:densitekotz2001}, on obtient les
|
||||
résultats présentés à la table \ref{tab:approximationdensiteR1}. Dans
|
||||
les deux cas, la fonction de densité a été normalisée à l'aide de
|
||||
l'intégrale \eqref{eq:normalisationsaddle1}.
|
||||
|
||||
% latex table generated in R 2.15.2 by xtable 1.7-1 package Mon Aug 19
|
||||
% 16:36:59 2013
|
||||
\begin{table}[ht]
|
||||
\centering
|
||||
\begin{tabular}{cccc}
|
||||
& \multicolumn{2}{c}{\textbf{Densité}} & \multicolumn{1}{c}{\textbf{Erreur relative}} \\
|
||||
\hline
|
||||
$r$ & $\hat{f}_{R,1}(r)$ & ${f}_{R}(r)$ & $(\hat{f}_{R,1}(r)-{f}_{R}(r))/{{f}_{R}(r)}$ \\
|
||||
\hline
|
||||
-0.03 & 1.561365 & 2.065547 & -0.244091 \\
|
||||
-0.02 & 9.038616 & 10.702896 & -0.155498 \\
|
||||
-0.01 & 31.216317 & 37.581108 & -0.169361 \\
|
||||
0.00 & 33.015869 & 31.073988 & 0.062492 \\
|
||||
0.01 & 15.941633 & 12.450742 & 0.280376 \\
|
||||
0.02 & 5.988373 & 4.120017 & 0.453483 \\
|
||||
0.03 & 2.026838 & 1.246205 & 0.626409 \\
|
||||
\hline
|
||||
\end{tabular}
|
||||
\caption{Approximation de la densité de $R_1$}
|
||||
\label{tab:approximationdensiteR1}
|
||||
\end{table}
|
||||
|
||||
On évalue ensuite la valeur de la fonction de répartition à l'aide de
|
||||
l'approximation de premier ordre $\hat{F}_{R,1}(r)$
|
||||
\eqref{eq:approximationsaddlepointREPordre1} % et de second ordre
|
||||
% $\hat{F}_{R,2}(r)$ \eqref{eq:approximationsaddlepointREPordre2}
|
||||
. On compare celle-ci à la valeur de la fonction de répartition
|
||||
obtenue en intégrant numériquement la fonction de densité. Les
|
||||
résultats sont présentés à la table \ref{tab:approximationrepartR1}.
|
||||
|
||||
% latex table generated in R 2.15.2 by xtable 1.7-1 package Mon Aug 19
|
||||
% 16:49:26 2013
|
||||
\begin{table}[ht]
|
||||
\centering
|
||||
\begin{tabular}{cccc}
|
||||
& \multicolumn{2}{c}{\textbf{Fonction de répartition}} & \multicolumn{1}{c}{\textbf{Erreur relative}} \\
|
||||
\hline
|
||||
$r$ & $\hat{F}_{R,1}(r)$ & ${F}_{R}(r)$ & $(\hat{F}_{R,1}(r)-{F}_{R}(r))/{{F}_{R}(r)}$ \\
|
||||
\hline
|
||||
-0.03 & 0.007402 & 0.011577 & -0.360606 \\
|
||||
-0.02 & 0.048942 & 0.064944 & -0.246402 \\
|
||||
-0.01 & 0.249911 & 0.292034 & -0.144241 \\
|
||||
0.00 & 0.625225 & 0.681167 & -0.082126 \\
|
||||
0.01 & 0.857830 & 0.889832 & -0.035965 \\
|
||||
0.02 & 0.951508 & 0.965916 & -0.014916 \\
|
||||
0.03 & 0.984393 & 0.990080 & -0.005744 \\
|
||||
\hline
|
||||
\end{tabular}
|
||||
\caption{Approximation de la fonction de répartition de $R_1$}
|
||||
\label{tab:approximationrepartR1}
|
||||
\end{table}
|
||||
|
||||
\section{Graphiques}
|
||||
\label{sec:graphiques}
|
||||
|
||||
On illustre graphiquement, aux figures \ref{fig:densite1R1} et
|
||||
\ref{fig:densite3R1}, la fonction de densité de la distribution de
|
||||
Laplace asymétrique généralisée avec les paramètres estimés par la
|
||||
méthode des moments généralisée et la méthode de l'équation
|
||||
d'estimation optimale. La table \ref{tab:courbesdensite} décrit
|
||||
chacune des courbes.
|
||||
\begin{table}[!ht]
|
||||
\centering
|
||||
\begin{tabular}{lp{12cm}}
|
||||
\hline
|
||||
\textbf{Abbréviation} & \textbf{Description} \\
|
||||
\hline
|
||||
Emp. & Données empiriques. \\
|
||||
Norm. & Densité de la distribution normale ayant les mêmes moyenne et variance que la variable aléatoire $R$. \\
|
||||
Estim. & Densité de la distribution de Laplace asymétrique généralisée avec les paramètres estimés.\\
|
||||
Pt selle o.1 & Approximation de premier ordre avec la méthode du point de selle. \\
|
||||
FFT & Transformée de Fourier rapide. \\
|
||||
\hline
|
||||
\end{tabular}
|
||||
\caption{Courbes de densité}
|
||||
\label{tab:courbesdensite}
|
||||
\end{table}
|
||||
|
||||
On remarquera au passage que la méthode du point de selle nécessite
|
||||
une normalisation. La valeur de l'intégrale $c$
|
||||
\eqref{eq:normalisationsaddle1} pour les quatre méthodes se trouve à
|
||||
la table \ref{tab:intapproxpointselleR1}.
|
||||
\begin{table}[!ht]
|
||||
\centering
|
||||
\begin{tabular}{ll}
|
||||
\hline
|
||||
\textbf{Méthode} & \textbf{Valeur de l'intégrale $c$}\\
|
||||
\hline
|
||||
Moments généralisée & 0.920148 \\
|
||||
Estimation gaussienne & 0.932246 \\
|
||||
Équation d'estimation optimale & 0.917326 \\
|
||||
Équation d'estimation optimale modifiée & 0.925781 \\
|
||||
\hline
|
||||
\end{tabular}
|
||||
\caption{Valeur de l'intégrale de l'approximation de la densité par la méthode du point de selle }
|
||||
\label{tab:intapproxpointselleR1}
|
||||
\end{table}
|
||||
|
||||
\begin{figure}[!ht]
|
||||
\centering
|
||||
\includegraphics[height=6in,
|
||||
width=6in]{../contenus/r/code/ABBEYN-densiteGALmu-7.pdf}
|
||||
\caption{Densité de $R_1^{*}$ selon la méthode des moments
|
||||
généralisée}
|
||||
\label{fig:densite1R1}
|
||||
\end{figure}
|
||||
|
||||
\begin{figure}[!ht]
|
||||
\centering
|
||||
\includegraphics[height=6in,
|
||||
width=6in]{../contenus/r/code/ABBEYN-densiteGALmu-5.pdf}
|
||||
\caption{Densité de $R_1^{*}$ selon la méthode de l'équation
|
||||
d'estimation optimale}
|
||||
\label{fig:densite3R1}
|
||||
\end{figure}
|
||||
|
||||
\clearpage
|
||||
\section{Tests statistiques}
|
||||
\label{sec:tests-statistiques}
|
||||
|
||||
On effectue le test du $\chi^2$ en utilisant sept classes optimales
|
||||
déterminées par l'algorithme du logiciel GNU R. On obtient la fonction
|
||||
de répartition à partir de la fonction caractéristique en utilisant la
|
||||
formule d'inversion \eqref{eq:approxinvfncaract}. On se rappelle que
|
||||
cet algorithme produit surtout des erreurs aux extrémités de la
|
||||
distribution. Par contre, ce test donne davantage d'importance aux
|
||||
classes ayant un plus grand nombre de données par construction. On
|
||||
utilisera donc l'inversion plutôt que la méthode du point de selle. On
|
||||
obtient la statistique $Q_{6}$ présentée à la table
|
||||
\ref{tab:testchi2R1} à partir de la définition \eqref{eq:statchi2}. On
|
||||
utilise un seuil de tolérance $\alpha = 5\%$.
|
||||
\begin{table}[!ht]
|
||||
\centering
|
||||
\begin{tabular}{ll}
|
||||
\hline
|
||||
\textbf{Méthode} & \textbf{Valeur de la statistique $Q_{6}$} \\
|
||||
\hline
|
||||
Moments généralisée & 0.484919 \\
|
||||
Estimation gaussienne & 0.473527 \\
|
||||
Équation d'estimation optimale & 0.531888 \\
|
||||
Équation d'estimation optimale modifiée & 0.494769 \\
|
||||
\hline
|
||||
\end{tabular}
|
||||
\caption{Test du $\chi^2$}
|
||||
\label{tab:testchi2R1}
|
||||
\end{table}
|
||||
|
||||
Ce test ne permet pas de rejeter l'hypothèse de la distribution de
|
||||
Laplace asymétrique généralisée avec les paramètres obtenus pour
|
||||
aucune des méthodes d'estimation.
|
||||
|
||||
On effectue maintenant le test de Kolmogorov-Smirnov. Comme celui-ci
|
||||
est basé sur la fonction de répartition, on utilisera la même méthode
|
||||
que précédemment, impliquant l'inversion de la fonction
|
||||
caractéristique. On évalue la fonction de répartition en chaque point
|
||||
de l'échantillon $R_1^{*}$ et l'on obtient la statistique $D_{49}$
|
||||
présentée à la table \ref{tab:testKSR1} à l'aide de la définition
|
||||
\eqref{eq:statks}. En utilisant un seuil de tolérance de $\alpha=5\%$,
|
||||
on obtient une valeur critique de $0.194286$.
|
||||
|
||||
\begin{table}[!ht]
|
||||
\centering
|
||||
\begin{tabular}{ll}
|
||||
\hline
|
||||
\textbf{Méthode} & \textbf{Valeur de la statistique $D_{49}$} \\
|
||||
\hline
|
||||
Moments généralisée & 0.0684329 \\
|
||||
Estimation gaussienne & 0.0784436 \\
|
||||
Équation d'estimation optimale & 0.0758317 \\
|
||||
Équation d'estimation optimale modifiée & 0.074668 \\
|
||||
\hline
|
||||
\end{tabular}
|
||||
\caption{Test de Kolmogorov-Smirnov}
|
||||
\label{tab:testKSR1}
|
||||
\end{table}
|
||||
|
||||
Encore une fois, on ne peut pas rejeter l'hypothèse de la distribution
|
||||
de Laplace asymétrique généralisée avec les paramètres estimés pour
|
||||
chacune des méthodes.
|
||||
|
||||
Ces deux tests sont approximatifs, puisque les paramètres n'ont pas
|
||||
été estimés en minimisant la statistique utilisée. Cependant, on
|
||||
obtient un test asymptotiquement exact en utilisant une statistique de
|
||||
distance minimale basée sur la fonction génératrice des moments, tel
|
||||
que développé à la section \ref{sec:test-de-distance}. Avec un seuil
|
||||
de tolérance de $\alpha=5\%$, on obtient une valeur critique de
|
||||
67.5048. Les statistiques obtenues sont présentées à la table
|
||||
\ref{tab:testDMR1}.
|
||||
|
||||
\begin{table}[!ht]
|
||||
\centering
|
||||
\begin{tabular}{ll}
|
||||
\hline
|
||||
\textbf{Méthode} & \textbf{Valeur de la statistique $Td(F_{49},F_{\theta})$} \\
|
||||
\hline
|
||||
Moments généralisée & 0.226891 \\
|
||||
Estimation gaussienne & 0.110573 \\
|
||||
Équation d'estimation optimale & 0.074020 \\
|
||||
Équation d'estimation optimale modifiée & 0.108625 \\
|
||||
\hline
|
||||
\end{tabular}
|
||||
\caption{Test de distance minimale basé sur la fonction génératrice des moments}
|
||||
\label{tab:testDMR1}
|
||||
\end{table}
|
||||
|
||||
On ne peut pas rejeter l'hypothèse de la distribution de Laplace
|
||||
asymétrique généralisée avec les paramètres estimés pour chacune des
|
||||
méthodes avec ce test.
|
||||
|
||||
\section{Évaluation d'options}
|
||||
\label{sec:evaluation-doptions}
|
||||
|
||||
À titre d'exemple, on évaluera une option européenne dont les
|
||||
différentes caractéristiques figurent à la table
|
||||
\ref{tab:caracteristiqueoptionR1}.
|
||||
|
||||
\begin{table}[!ht]
|
||||
\centering
|
||||
\begin{tabular}{ll}
|
||||
\hline
|
||||
\textbf{Caractéristique} & \textbf{Valeur} \\
|
||||
\hline
|
||||
Type & Option de vente \\
|
||||
Échéance ($T$) & 30 jours \\
|
||||
Valeur actuelle du titre ($S(0)$) & 299 \\
|
||||
Prix d'exercice ($K$) & entre 95\% et 105\% de la valeur actuelle \\
|
||||
Taux sans risque annuel ($r_f$) & 5\% \\
|
||||
\hline
|
||||
\end{tabular}
|
||||
\caption{Caractéristiques de l'option}
|
||||
\label{tab:caracteristiqueoptionR1}
|
||||
\end{table}
|
||||
|
||||
À partir des paramètres de la table
|
||||
\ref{tab:parametresdonneesorigineR1}, en utilisant l'équation
|
||||
martingale appliquée à la distribution de Laplace asymétrique
|
||||
généralisée \eqref{eq:martingaleGAL}, on obtient l'ensemble
|
||||
correspondant pour la mesure neutre au risque. On rappelle que
|
||||
celle-ci n'est pas unique étant donné que le processus de Laplace est
|
||||
un processus de sauts. La table \ref{tab:paramrisqueneutreR1} présente
|
||||
ces paramètres.
|
||||
\begin{table}[!ht]
|
||||
\centering
|
||||
\begin{tabular}{lcccc}
|
||||
\hline
|
||||
& $\theta$ & $\sigma$ & $\mu$ & $\tau$ \\
|
||||
\hline
|
||||
Moments généralisée & -0.005824 & 0.008134 & 0.002983 & 1.973623 \\
|
||||
Estimation gaussienne & -0.007062 & 0.007562 & 0.003535 & 2.016619 \\
|
||||
Équation d'estimation optimale & -0.005993 & 0.008409 & 0.003460 & 1.750685 \\
|
||||
Équation d'estimation optimale modifiée & -0.006487 & 0.007884 & 0.003340 & 1.961614 \\
|
||||
\hline
|
||||
\end{tabular}
|
||||
\caption{Paramètres neutres au risque}
|
||||
\label{tab:paramrisqueneutreR1}
|
||||
\end{table}
|
||||
|
||||
On présente les graphiques de la valeur du prix de l'option de vente
|
||||
pour les méthodes des moments généralisée et de l'équation d'estimation
|
||||
optimale aux figures \ref{fig:prix1R1-1} et \ref{fig:prix1R1-3}. On
|
||||
peut facilement remarquer le manque de précision de l'approche de
|
||||
Carr-Madan, qui s'approche de la courbe de Black-Scholes lorsque le
|
||||
titre est dans la monnaie et qui se met à osciller dès que le titre
|
||||
est hors de la monnaie. Les méthodes de Epps et de Heston donnent des
|
||||
résultats très similaires, et l'approximation du point de selle
|
||||
d'ordre 1 est très précise dans ce contexte.
|
||||
\begin{figure}[!ht]
|
||||
\centering
|
||||
\includegraphics[height=6in,
|
||||
width=6in]{../contenus/r/code/ABBEYN-callGAL-7.pdf}
|
||||
\caption{Prix de l'option selon les paramètres estimés avec la
|
||||
méthode des moments généralisée}
|
||||
\label{fig:prix1R1-1}
|
||||
\end{figure}
|
||||
|
||||
\begin{figure}[!ht]
|
||||
\centering
|
||||
\includegraphics[height=6in,
|
||||
width=6in]{../contenus/r/code/ABBEYN-callGAL-5.pdf}
|
||||
\caption{Prix de l'option selon les paramètres estimés avec la
|
||||
méthode de l'équation d'estimation optimale}
|
||||
\label{fig:prix1R1-3}
|
||||
\end{figure}
|
||||
|
||||
%%% Local Variables:
|
||||
%%% mode: latex
|
||||
%%% TeX-master: "gabarit-maitrise"
|
||||
%%% End:
|
80
memoire/conclusion.aux
Normal file
80
memoire/conclusion.aux
Normal file
|
@ -0,0 +1,80 @@
|
|||
\relax
|
||||
\providecommand\hyper@newdestlabel[2]{}
|
||||
\@writefile{toc}{\contentsline {chapter}{Conclusion}{113}{section*.52}}
|
||||
\@setckpt{conclusion}{
|
||||
\setcounter{page}{114}
|
||||
\setcounter{equation}{0}
|
||||
\setcounter{enumi}{4}
|
||||
\setcounter{enumii}{2}
|
||||
\setcounter{enumiii}{0}
|
||||
\setcounter{enumiv}{0}
|
||||
\setcounter{footnote}{0}
|
||||
\setcounter{mpfootnote}{0}
|
||||
\setcounter{@memmarkcntra}{0}
|
||||
\setcounter{storedpagenumber}{1}
|
||||
\setcounter{book}{0}
|
||||
\setcounter{part}{0}
|
||||
\setcounter{chapter}{9}
|
||||
\setcounter{section}{6}
|
||||
\setcounter{subsection}{0}
|
||||
\setcounter{subsubsection}{0}
|
||||
\setcounter{paragraph}{0}
|
||||
\setcounter{subparagraph}{0}
|
||||
\setcounter{@ppsavesec}{0}
|
||||
\setcounter{@ppsaveapp}{0}
|
||||
\setcounter{vslineno}{0}
|
||||
\setcounter{poemline}{0}
|
||||
\setcounter{modulo@vs}{0}
|
||||
\setcounter{memfvsline}{0}
|
||||
\setcounter{verse}{0}
|
||||
\setcounter{chrsinstr}{0}
|
||||
\setcounter{poem}{0}
|
||||
\setcounter{newflo@tctr}{4}
|
||||
\setcounter{@contsubnum}{0}
|
||||
\setcounter{maxsecnumdepth}{2}
|
||||
\setcounter{sidefootnote}{0}
|
||||
\setcounter{pagenote}{0}
|
||||
\setcounter{pagenoteshadow}{0}
|
||||
\setcounter{memfbvline}{0}
|
||||
\setcounter{bvlinectr}{0}
|
||||
\setcounter{cp@cntr}{0}
|
||||
\setcounter{ism@mctr}{0}
|
||||
\setcounter{xsm@mctr}{0}
|
||||
\setcounter{csm@mctr}{0}
|
||||
\setcounter{ksm@mctr}{0}
|
||||
\setcounter{xksm@mctr}{0}
|
||||
\setcounter{cksm@mctr}{0}
|
||||
\setcounter{msm@mctr}{0}
|
||||
\setcounter{xmsm@mctr}{0}
|
||||
\setcounter{cmsm@mctr}{0}
|
||||
\setcounter{bsm@mctr}{0}
|
||||
\setcounter{workm@mctr}{0}
|
||||
\setcounter{sheetsequence}{132}
|
||||
\setcounter{lastsheet}{155}
|
||||
\setcounter{lastpage}{137}
|
||||
\setcounter{figure}{8}
|
||||
\setcounter{lofdepth}{1}
|
||||
\setcounter{table}{15}
|
||||
\setcounter{lotdepth}{1}
|
||||
\setcounter{NAT@ctr}{0}
|
||||
\setcounter{nprt@mantissa@digitsbefore}{0}
|
||||
\setcounter{nprt@mantissa@digitsafter}{0}
|
||||
\setcounter{nprt@exponent@digitsbefore}{0}
|
||||
\setcounter{nprt@exponent@digitsafter}{0}
|
||||
\setcounter{nprt@digitsfirstblock}{0}
|
||||
\setcounter{nprt@blockcnt}{0}
|
||||
\setcounter{nprt@cntprint}{0}
|
||||
\setcounter{parentequation}{0}
|
||||
\setcounter{thmt@dummyctr}{3}
|
||||
\setcounter{Item}{30}
|
||||
\setcounter{Hfootnote}{3}
|
||||
\setcounter{memhycontfloat}{0}
|
||||
\setcounter{Hpagenote}{0}
|
||||
\setcounter{bookmark@seq@number}{104}
|
||||
\setcounter{ContinuedFloat}{0}
|
||||
\setcounter{app@runs}{1}
|
||||
\setcounter{pspicture}{0}
|
||||
\setcounter{section@level}{0}
|
||||
\setcounter{theo}{0}
|
||||
\setcounter{hypothese}{0}
|
||||
}
|
47
memoire/conclusion.tex
Normal file
47
memoire/conclusion.tex
Normal file
|
@ -0,0 +1,47 @@
|
|||
\chapter*{Conclusion} % ne pas numéroter
|
||||
\phantomsection\addcontentsline{toc}{chapter}{Conclusion} % dans TdM
|
||||
|
||||
%% Revenir sur le papier de Derman, résumé des avantages et
|
||||
%% inconvénients du modèle, des méthodes d'estimation et d'évaluation
|
||||
%% d'options
|
||||
|
||||
En guise de conclusion, j'aimerais tout d'abord effectuer un retour
|
||||
sur les différents éléments introduits au début du premier chapitre,
|
||||
concernant le risque de modélisation. Le modèle présenté n'en est pas
|
||||
exempt, bien au contraire. Cependant, il
|
||||
nécessite moins d'hypothèses restrictives que les autres modèles
|
||||
présentés pour être valide, bien qu'il exige toujours l'indépendance
|
||||
des observations. Il tient compte de la possibilité de sauts tout en
|
||||
conservant une composante de mouvement aléatoire, ce qui décrit
|
||||
adéquatement les observations empiriques à ce jour. Comme tout modèle
|
||||
paramétrique, il reste dépendant du nombre et de la qualité des
|
||||
données disponibles. Étant donné que l'utilisation d'algorithmes
|
||||
d'optimisation numérique est inévitable, il subsiste un risque
|
||||
important autour de l'estimation des paramètres et de l'approximation de la distribution. De plus, étant donné qu'il n'existe pas
|
||||
de mesure neutre au risque unique, l'arbitrage de modèle reste
|
||||
possible et doit être considéré. L'utilisation d'un échantillon de
|
||||
données instables à travers le temps peut produire des résultats
|
||||
inattendus, surtout au niveau de la distribution de la volatilité
|
||||
historique, un aspect qui pourra être approfondi ultérieurement.
|
||||
Enfin, subsiste toujours le risque d'erreurs de nature informatique
|
||||
qui pourraient produire de faux résultats.
|
||||
|
||||
Ce retour permet de constater qu'il y a toujours place à
|
||||
l'amélioration des outils développés. Entre autres, il pourrait être
|
||||
pertinent d'étudier les différences entre le comportement à court et à long terme du modèle. En se basant sur la théorie de
|
||||
l'utilité, on pourrait développer une meilleure approche pour
|
||||
déterminer les paramètres de la distribution neutre au risque. Il
|
||||
pourrait aussi être intéressant de développer des mesures de risque
|
||||
cohérentes pour les processus de Lévy, notamment
|
||||
avec les avancées de celles basées sur l'entropie. L'extension
|
||||
multivariée de ce modèle n'a toujours pas été développée dans la
|
||||
littérature, alors il pourrait être pertinent de s'y attarder, entre
|
||||
autres pour étudier les titres indiciels et optimiser la composition
|
||||
de portefeuilles. Enfin, il pourrait être intéressant d'aborder le
|
||||
problème inverse de l'estimation des paramètres à partir des prix des
|
||||
produits dérivés observés sur les marchés financiers.
|
||||
|
||||
%%% Local Variables:
|
||||
%%% mode: latex
|
||||
%%% TeX-master: "gabarit-maitrise"
|
||||
%%% End:
|
80
memoire/deed.aux
Normal file
80
memoire/deed.aux
Normal file
|
@ -0,0 +1,80 @@
|
|||
\relax
|
||||
\providecommand\hyper@newdestlabel[2]{}
|
||||
\@writefile{toc}{\contentsline {chapter}{Contrat de partage}{137}{section*.64}}
|
||||
\@setckpt{deed}{
|
||||
\setcounter{page}{138}
|
||||
\setcounter{equation}{0}
|
||||
\setcounter{enumi}{2}
|
||||
\setcounter{enumii}{2}
|
||||
\setcounter{enumiii}{0}
|
||||
\setcounter{enumiv}{0}
|
||||
\setcounter{footnote}{0}
|
||||
\setcounter{mpfootnote}{0}
|
||||
\setcounter{@memmarkcntra}{-1}
|
||||
\setcounter{storedpagenumber}{1}
|
||||
\setcounter{book}{0}
|
||||
\setcounter{part}{0}
|
||||
\setcounter{chapter}{3}
|
||||
\setcounter{section}{0}
|
||||
\setcounter{subsection}{0}
|
||||
\setcounter{subsubsection}{0}
|
||||
\setcounter{paragraph}{0}
|
||||
\setcounter{subparagraph}{0}
|
||||
\setcounter{@ppsavesec}{0}
|
||||
\setcounter{@ppsaveapp}{0}
|
||||
\setcounter{vslineno}{0}
|
||||
\setcounter{poemline}{0}
|
||||
\setcounter{modulo@vs}{0}
|
||||
\setcounter{memfvsline}{0}
|
||||
\setcounter{verse}{0}
|
||||
\setcounter{chrsinstr}{0}
|
||||
\setcounter{poem}{0}
|
||||
\setcounter{newflo@tctr}{4}
|
||||
\setcounter{@contsubnum}{0}
|
||||
\setcounter{maxsecnumdepth}{2}
|
||||
\setcounter{sidefootnote}{0}
|
||||
\setcounter{pagenote}{0}
|
||||
\setcounter{pagenoteshadow}{0}
|
||||
\setcounter{memfbvline}{0}
|
||||
\setcounter{bvlinectr}{0}
|
||||
\setcounter{cp@cntr}{0}
|
||||
\setcounter{ism@mctr}{0}
|
||||
\setcounter{xsm@mctr}{0}
|
||||
\setcounter{csm@mctr}{0}
|
||||
\setcounter{ksm@mctr}{0}
|
||||
\setcounter{xksm@mctr}{0}
|
||||
\setcounter{cksm@mctr}{0}
|
||||
\setcounter{msm@mctr}{0}
|
||||
\setcounter{xmsm@mctr}{0}
|
||||
\setcounter{cmsm@mctr}{0}
|
||||
\setcounter{bsm@mctr}{0}
|
||||
\setcounter{workm@mctr}{0}
|
||||
\setcounter{sheetsequence}{156}
|
||||
\setcounter{lastsheet}{155}
|
||||
\setcounter{lastpage}{137}
|
||||
\setcounter{figure}{0}
|
||||
\setcounter{lofdepth}{1}
|
||||
\setcounter{table}{1}
|
||||
\setcounter{lotdepth}{1}
|
||||
\setcounter{NAT@ctr}{63}
|
||||
\setcounter{nprt@mantissa@digitsbefore}{0}
|
||||
\setcounter{nprt@mantissa@digitsafter}{0}
|
||||
\setcounter{nprt@exponent@digitsbefore}{0}
|
||||
\setcounter{nprt@exponent@digitsafter}{0}
|
||||
\setcounter{nprt@digitsfirstblock}{0}
|
||||
\setcounter{nprt@blockcnt}{0}
|
||||
\setcounter{nprt@cntprint}{0}
|
||||
\setcounter{parentequation}{0}
|
||||
\setcounter{thmt@dummyctr}{3}
|
||||
\setcounter{Item}{35}
|
||||
\setcounter{Hfootnote}{3}
|
||||
\setcounter{memhycontfloat}{0}
|
||||
\setcounter{Hpagenote}{0}
|
||||
\setcounter{bookmark@seq@number}{135}
|
||||
\setcounter{ContinuedFloat}{0}
|
||||
\setcounter{app@runs}{1}
|
||||
\setcounter{pspicture}{0}
|
||||
\setcounter{section@level}{0}
|
||||
\setcounter{theo}{0}
|
||||
\setcounter{hypothese}{0}
|
||||
}
|
1022
memoire/deed.log
Normal file
1022
memoire/deed.log
Normal file
File diff suppressed because it is too large
Load diff
46
memoire/deed.tex
Normal file
46
memoire/deed.tex
Normal file
|
@ -0,0 +1,46 @@
|
|||
\chapter*{Contrat de partage} % ne pas numéroter
|
||||
\phantomsection\addcontentsline{toc}{chapter}{Contrat de
|
||||
partage} % dans TdM
|
||||
|
||||
Cette création est mise à disposition selon le contrat
|
||||
\emph{Attribution - Partage dans les Mêmes Conditions 4.0 International}
|
||||
de Creative Commons disponible à l'adresse
|
||||
\url{http://creativecommons.org/licenses/by-sa/4.0/deed.fr}
|
||||
|
||||
En vertu de ce contrat, vous êtes autorisé à:
|
||||
\begin{itemize}
|
||||
\item \textbf{Partager} --- copier, distribuer et communiquer le
|
||||
matériel par tous moyens et sous tous formats
|
||||
\item \textbf{Adapter} --- remixer, transformer et créer à partir du
|
||||
matériel pour toute utilisation, y compris commerciale.
|
||||
\end{itemize}
|
||||
|
||||
L'Offrant ne peux retirer les autorisations concédées par la
|
||||
licence tant que vous appliquez les termes de cette licence. \\
|
||||
|
||||
Selon les conditions suivantes:\\
|
||||
|
||||
\begin{tabularx}{\linewidth}{@{}lX@{}}
|
||||
\raisebox{-9mm}[0mm][13mm]{%
|
||||
\includegraphics[height=11mm,keepaspectratio=true]{by}} &
|
||||
\textbf{Attribution} --- Vous devez créditer l'Oeuvre, intégrer un lien vers la licence et indiquer si des modifications ont été effectuées à l'Oeuvre. Vous devez indiquer ces informations par tous les moyens possibles mais vous ne pouvez pas suggérer que l'Offrant vous soutient ou soutient la façon dont vous avez utilisé son Oeuvre. \\ \\
|
||||
\raisebox{-9mm}{\includegraphics[height=11mm,keepaspectratio=true]{sa}}
|
||||
& \textbf{Partage à l'identique} --- Dans le cas où vous effectuez
|
||||
un remix, que vous transformez, ou créez à partir du matériel
|
||||
composant l'Oeuvre originale, vous devez diffuser l'Oeuvre
|
||||
modifiée dans les même conditions, c'est-à-dire avec la même
|
||||
licence avec laquelle l'Oeuvre originale a été diffusée.
|
||||
\end{tabularx} \\ \\
|
||||
\textbf{Aucune autre restriction} --- Vous n'êtes pas autorisé à
|
||||
appliquer des conditions légales ou des mesures techniques qui
|
||||
restreindraient légalement autrui à utiliser l'Oeuvre dans les
|
||||
conditions décrites par la licence.
|
||||
|
||||
\begin{center}
|
||||
\includegraphics[height=7mm,keepaspectratio=true]{by-sa}\\%
|
||||
\end{center}
|
||||
|
||||
%%% Local Variables:
|
||||
%%% mode: latex
|
||||
%%% TeX-master: "gabarit-maitrise"
|
||||
%%% End:
|
122
memoire/gabarit-maitrise.aux
Normal file
122
memoire/gabarit-maitrise.aux
Normal file
|
@ -0,0 +1,122 @@
|
|||
\relax
|
||||
\providecommand\hyper@newdestlabel[2]{}
|
||||
\providecommand*{\memsetcounter}[2]{}
|
||||
\catcode `:\active
|
||||
\catcode `;\active
|
||||
\catcode `!\active
|
||||
\catcode `?\active
|
||||
\providecommand\HyperFirstAtBeginDocument{\AtBeginDocument}
|
||||
\HyperFirstAtBeginDocument{\ifx\hyper@anchor\@undefined
|
||||
\global\let\oldcontentsline\contentsline
|
||||
\gdef\contentsline#1#2#3#4{\oldcontentsline{#1}{#2}{#3}}
|
||||
\global\let\oldnewlabel\newlabel
|
||||
\gdef\newlabel#1#2{\newlabelxx{#1}#2}
|
||||
\gdef\newlabelxx#1#2#3#4#5#6{\oldnewlabel{#1}{{#2}{#3}}}
|
||||
\AtEndDocument{\ifx\hyper@anchor\@undefined
|
||||
\let\contentsline\oldcontentsline
|
||||
\let\newlabel\oldnewlabel
|
||||
\fi}
|
||||
\fi}
|
||||
\global\let\hyper@last\relax
|
||||
\gdef\HyperFirstAtBeginDocument#1{#1}
|
||||
\providecommand\HyField@AuxAddToFields[1]{}
|
||||
\providecommand\HyField@AuxAddToCoFields[2]{}
|
||||
\bibstyle{plainnatmod}
|
||||
\select@language{french}
|
||||
\@writefile{toc}{\select@language{french}}
|
||||
\@writefile{lof}{\select@language{french}}
|
||||
\@writefile{lot}{\select@language{french}}
|
||||
\select@language{french}
|
||||
\@writefile{toc}{\select@language{french}}
|
||||
\@writefile{lof}{\select@language{french}}
|
||||
\@writefile{lot}{\select@language{french}}
|
||||
\@input{resume.aux}
|
||||
\@input{abstract.aux}
|
||||
\@writefile{toc}{\contentsline {chapter}{Table des mati{\`e}res}{vii}{section*.5}}
|
||||
\citation{madan1990variance}
|
||||
\@writefile{toc}{\contentsline {chapter}{Liste des tableaux}{xi}{section*.6}}
|
||||
\citation{mitchell1916critique}
|
||||
\@writefile{toc}{\contentsline {chapter}{Liste des figures}{xiii}{section*.7}}
|
||||
\@input{remerciements.aux}
|
||||
\@input{introduction.aux}
|
||||
\@input{chapitre1.aux}
|
||||
\@input{chapitre2.aux}
|
||||
\@input{chapitre3.aux}
|
||||
\@input{chapitre4.aux}
|
||||
\@input{chapitre5.aux}
|
||||
\@input{chapitre6.aux}
|
||||
\@input{chapitre7.aux}
|
||||
\@input{chapitre8.aux}
|
||||
\@input{chapitre9.aux}
|
||||
\@input{conclusion.aux}
|
||||
\@input{annexe1.aux}
|
||||
\@input{annexe2.aux}
|
||||
\@input{annexe3.aux}
|
||||
\bibdata{memoire}
|
||||
\bibcite{abramowitz1965handbook}{{1}{1965}{{Abramowitz et Stegun}}{{}}}
|
||||
\bibcite{applebaum2004levy}{{2}{2004}{{Applebaum}}{{}}}
|
||||
\bibcite{bachelier1900theorie}{{3}{1900}{{Bachelier}}{{}}}
|
||||
\bibcite{barndorff2001levy}{{4}{2001}{{Barndorff-Nielsen et~al.}}{{Barndorff-Nielsen, Mikosch, et Resnick}}}
|
||||
\bibcite{berkson1980minimum}{{5}{1980}{{Berkson}}{{}}}
|
||||
\bibcite{bingham2004risk}{{6}{2004}{{Bingham et Kiesel}}{{}}}
|
||||
\bibcite{black1976pricing}{{7}{1976}{{Black}}{{}}}
|
||||
\bibcite{black1973pricing}{{8}{1973}{{Black et Scholes}}{{}}}
|
||||
\bibcite{buckle1995bayesian}{{9}{1995}{{Buckle}}{{}}}
|
||||
\bibcite{butler2007saddlepoint}{{10}{2007}{{Butler}}{{}}}
|
||||
\bibcite{carr1999option}{{11}{1999}{{Carr et Madan}}{{}}}
|
||||
\bibcite{crowder1986consistency}{{12}{1986}{{Crowder}}{{}}}
|
||||
\bibcite{crowder1987linear}{{13}{1987}{{Crowder}}{{}}}
|
||||
\@writefile{toc}{\contentsline {chapter}{Bibliographie}{131}{section*.62}}
|
||||
\bibcite{daniels1954saddlepoint}{{14}{1954}{{Daniels}}{{}}}
|
||||
\bibcite{derman1996modelrisk}{{15}{1996}{{Derman}}{{}}}
|
||||
\bibcite{dodge2004statistique}{{16}{2004}{{Dodge}}{{}}}
|
||||
\bibcite{epps2007pricing}{{17}{2007}{{Epps}}{{}}}
|
||||
\bibcite{epps1983test}{{18}{1983}{{Epps et Pulley}}{{}}}
|
||||
\bibcite{everitt2006cambridge}{{19}{2006}{{Everitt et Skrondal}}{{}}}
|
||||
\bibcite{fama1993common}{{20}{1993}{{Fama et French}}{{}}}
|
||||
\bibcite{feuerverger1981efficiency}{{21}{1981}{{Feuerverger et McDunnough}}{{}}}
|
||||
\bibcite{fox1986large}{{22}{1986}{{Fox et Taqqu}}{{}}}
|
||||
\bibcite{gil1951note}{{23}{1951}{{Gil-Pelaez}}{{}}}
|
||||
\bibcite{gourieroux1989statistique}{{24}{1989}{{Gourieroux et Monfort}}{{}}}
|
||||
\bibcite{hall2005generalized}{{25}{2005}{{Hall}}{{}}}
|
||||
\bibcite{hamilton1994time}{{26}{1994}{{Hamilton}}{{}}}
|
||||
\bibcite{hansen1982large}{{27}{1982}{{Hansen}}{{}}}
|
||||
\bibcite{henze1990approximation}{{28}{1990}{{Henze}}{{}}}
|
||||
\bibcite{heston1993closed}{{29}{1993}{{Heston}}{{}}}
|
||||
\bibcite{hinkley1977estimation}{{30}{1977}{{Hinkley et Revankar}}{{}}}
|
||||
\bibcite{hogg1978introduction}{{31}{1978}{{Hogg et Craig}}{{}}}
|
||||
\bibcite{itkin2005pricing}{{32}{2005}{{Itkin}}{{}}}
|
||||
\bibcite{kotz2001laplace}{{33}{2001}{{Kotz et~al.}}{{Kotz, Kozubowski, et Podg{\'o}rski}}}
|
||||
\bibcite{KOUTROUVELIS01011980}{{34}{1980}{{Koutrouvelis}}{{}}}
|
||||
\bibcite{kozubowski1999class}{{35}{1999}{{Kozubowski et Podg{\'o}rski}}{{}}}
|
||||
\bibcite{kozubowski2001asymmetric}{{36}{2001}{{Kozubowski et Podg{\'o}rski}}{{}}}
|
||||
\bibcite{kyprianou2007introductory}{{37}{2007}{{Kyprianou}}{{}}}
|
||||
\bibcite{lugannani1980saddle}{{38}{1980}{{Lugannani et Rice}}{{}}}
|
||||
\bibcite{lukacs1960characteristic}{{39}{1960}{{Lukacs}}{{}}}
|
||||
\bibcite{luong1987minimum}{{40}{1987}{{Luong et Thompson}}{{}}}
|
||||
\bibcite{madan1990variance}{{41}{1990}{{Madan et Seneta}}{{}}}
|
||||
\bibcite{madan1998variance}{{42}{1998}{{Madan et~al.}}{{Madan, Carr, et Chang}}}
|
||||
\bibcite{mandelbrot1963variation}{{43}{1963}{{Mandelbrot}}{{}}}
|
||||
\bibcite{merton1976option}{{44}{1976}{{Merton}}{{}}}
|
||||
\bibcite{mitchell1916critique}{{45}{1916}{{Mitchell}}{{}}}
|
||||
\bibcite{newey1994large}{{46}{1994}{{Newey et McFadden}}{{}}}
|
||||
\bibcite{newey1987hypothesis}{{47}{1987}{{Newey et West}}{{}}}
|
||||
\bibcite{praetz1972distribution}{{48}{1972}{{Praetz}}{{}}}
|
||||
\bibcite{press1967compound}{{49}{1967}{{Press}}{{}}}
|
||||
\bibcite{sato1999levy}{{50}{1999}{{Sato}}{{}}}
|
||||
\bibcite{schoutens2003levy}{{51}{2003}{{Schoutens}}{{}}}
|
||||
\bibcite{RpackageVarianceGamma}{{52}{2012}{{Scott et Dong}}{{}}}
|
||||
\bibcite{seneta2004fitting}{{53}{2004}{{Seneta}}{{}}}
|
||||
\bibcite{shapiro1965analysis}{{54}{1965}{{Shapiro et Wilk}}{{}}}
|
||||
\bibcite{shephard1991characteristic}{{55}{1991}{{Shephard}}{{}}}
|
||||
\bibcite{spiegel1999schaum}{{56}{1999}{{Spiegel et Liu}}{{}}}
|
||||
\bibcite{stuart1987kendall}{{57}{1987}{{Stuart et Ord}}{{}}}
|
||||
\bibcite{teschl2004topics}{{58}{2004}{{Teschl}}{{}}}
|
||||
\bibcite{walterlevy}{{59}{}{{Walter}}{{}}}
|
||||
\bibcite{wang2003evaluating}{{60}{2003}{{Wang et~al.}}{{Wang, Tsang, et Marsaglia}}}
|
||||
\bibcite{wendel1961non}{{61}{1961}{{Wendel}}{{}}}
|
||||
\bibcite{wolfowitz1957minimum}{{62}{1957}{{Wolfowitz}}{{}}}
|
||||
\bibcite{wooldridge2001econometric}{{63}{2001}{{Wooldridge}}{{}}}
|
||||
\@input{deed.aux}
|
||||
\memsetcounter{lastsheet}{155}
|
||||
\memsetcounter{lastpage}{137}
|
367
memoire/gabarit-maitrise.bbl
Normal file
367
memoire/gabarit-maitrise.bbl
Normal file
|
@ -0,0 +1,367 @@
|
|||
\begin{thebibliography}{63}
|
||||
\providecommand{\natexlab}[1]{#1}
|
||||
\providecommand{\url}[1]{\texttt{#1}}
|
||||
\expandafter\ifx\csname urlstyle\endcsname\relax
|
||||
\providecommand{\doi}[1]{doi: #1}\else
|
||||
\providecommand{\doi}{doi: \begingroup \urlstyle{rm}\Url}\fi
|
||||
|
||||
\bibitem[Abramowitz et Stegun(1965)]{abramowitz1965handbook}
|
||||
Milton Abramowitz et Irene~A Stegun.
|
||||
\newblock \emph{Handbook of mathematical functions: with formulas, graphs, and
|
||||
mathematical tables}, volume~55.
|
||||
\newblock Dover publications, 1965.
|
||||
|
||||
\bibitem[Applebaum(2004)]{applebaum2004levy}
|
||||
David Applebaum.
|
||||
\newblock L{\'e}vy processes: From probability to finance and quantum groups.
|
||||
\newblock \emph{Notices of the AMS}, 51\penalty0 (11):\penalty0 1336--1347,
|
||||
2004.
|
||||
|
||||
\bibitem[Bachelier(1900)]{bachelier1900theorie}
|
||||
Louis Bachelier.
|
||||
\newblock \emph{Th{\'e}orie de la sp{\'e}culation}.
|
||||
\newblock Gauthier-Villars, 1900.
|
||||
|
||||
\bibitem[Barndorff-Nielsen et~al.(2001)Barndorff-Nielsen, Mikosch, et
|
||||
Resnick]{barndorff2001levy}
|
||||
O.E.E. Barndorff-Nielsen, T.E. Mikosch, et S.I.E. Resnick.
|
||||
\newblock \emph{L{\'e}vy Processes: Theory and Applications}.
|
||||
\newblock Birkhäuser, 2001.
|
||||
\newblock ISBN 9780817641672.
|
||||
\newblock URL \url{http://books.google.ca/books?id=ExpTdTauXMwC}.
|
||||
|
||||
\bibitem[Berkson(1980)]{berkson1980minimum}
|
||||
Joseph Berkson.
|
||||
\newblock Minimum chi-square, not maximum likelihood!
|
||||
\newblock \emph{The Annals of Statistics}, pages 457--487, 1980.
|
||||
|
||||
\bibitem[Bingham et Kiesel(2004)]{bingham2004risk}
|
||||
Nicholas~H Bingham et R{\"u}diger Kiesel.
|
||||
\newblock \emph{Risk-neutral valuation: Pricing and hedging of financial
|
||||
derivatives}.
|
||||
\newblock Springer, 2004.
|
||||
|
||||
\bibitem[Black(1976)]{black1976pricing}
|
||||
Fischer Black.
|
||||
\newblock The pricing of commodity contracts.
|
||||
\newblock \emph{Journal of financial economics}, 3\penalty0 (1):\penalty0
|
||||
167--179, 1976.
|
||||
|
||||
\bibitem[Black et Scholes(1973)]{black1973pricing}
|
||||
Fischer Black et Myron Scholes.
|
||||
\newblock The pricing of options and corporate liabilities.
|
||||
\newblock \emph{The journal of political economy}, pages 637--654, 1973.
|
||||
|
||||
\bibitem[Buckle(1995)]{buckle1995bayesian}
|
||||
DJ~Buckle.
|
||||
\newblock Bayesian inference for stable distributions.
|
||||
\newblock \emph{Journal of the American Statistical Association}, 90\penalty0
|
||||
(430):\penalty0 605--613, 1995.
|
||||
|
||||
\bibitem[Butler(2007)]{butler2007saddlepoint}
|
||||
Ronald~W Butler.
|
||||
\newblock \emph{Saddlepoint approximations with applications}, volume~22.
|
||||
\newblock Cambridge University Press, 2007.
|
||||
|
||||
\bibitem[Carr et Madan(1999)]{carr1999option}
|
||||
Peter Carr et Dilip Madan.
|
||||
\newblock Option valuation using the fast fourier transform.
|
||||
\newblock \emph{Journal of Computational Finance}, 2\penalty0 (4):\penalty0
|
||||
61--73, 1999.
|
||||
|
||||
\bibitem[Crowder(1986)]{crowder1986consistency}
|
||||
Martin Crowder.
|
||||
\newblock On consistency and inconsistency of estimating equations.
|
||||
\newblock \emph{Econometric Theory}, pages 305--330, 1986.
|
||||
|
||||
\bibitem[Crowder(1987)]{crowder1987linear}
|
||||
Martin Crowder.
|
||||
\newblock On linear and quadratic estimating functions.
|
||||
\newblock \emph{Biometrika}, 74\penalty0 (3):\penalty0 591--597, 1987.
|
||||
|
||||
\bibitem[Daniels(1954)]{daniels1954saddlepoint}
|
||||
Henry~E Daniels.
|
||||
\newblock Saddlepoint approximations in statistics.
|
||||
\newblock \emph{The Annals of Mathematical Statistics}, pages 631--650, 1954.
|
||||
|
||||
\bibitem[Derman(1996)]{derman1996modelrisk}
|
||||
Emanuel Derman.
|
||||
\newblock Model risk.
|
||||
\newblock Technical report, Goldman Sachs, 1996.
|
||||
|
||||
\bibitem[Dodge(2004)]{dodge2004statistique}
|
||||
Yadolah Dodge.
|
||||
\newblock \emph{Statistique: dictionnaire encyclop{\'e}dique}.
|
||||
\newblock Springer Verlag France, 2004.
|
||||
|
||||
\bibitem[Epps(2007)]{epps2007pricing}
|
||||
Thomas~W Epps.
|
||||
\newblock \emph{Pricing derivative securities}.
|
||||
\newblock World Scientific Publishing Company Incorporated, 2007.
|
||||
|
||||
\bibitem[Epps et Pulley(1983)]{epps1983test}
|
||||
Thomas~W Epps et Lawrence~B Pulley.
|
||||
\newblock A test for normality based on the empirical characteristic function.
|
||||
\newblock \emph{Biometrika}, 70\penalty0 (3):\penalty0 723--726, 1983.
|
||||
|
||||
\bibitem[Everitt et Skrondal(2006)]{everitt2006cambridge}
|
||||
Brian Everitt et Anders Skrondal.
|
||||
\newblock \emph{The Cambridge dictionary of statistics}, volume~4.
|
||||
\newblock Cambridge University Press Cambridge, 2006.
|
||||
|
||||
\bibitem[Fama et French(1993)]{fama1993common}
|
||||
Eugene~F Fama et Kenneth~R French.
|
||||
\newblock Common risk factors in the returns on stocks and bonds.
|
||||
\newblock \emph{Journal of financial economics}, 33\penalty0 (1):\penalty0
|
||||
3--56, 1993.
|
||||
|
||||
\bibitem[Feuerverger et McDunnough(1981)]{feuerverger1981efficiency}
|
||||
Andrey Feuerverger et Philip McDunnough.
|
||||
\newblock On the efficiency of empirical characteristic function procedures.
|
||||
\newblock \emph{Journal of the Royal Statistical Society. Series B
|
||||
(Methodological)}, pages 20--27, 1981.
|
||||
|
||||
\bibitem[Fox et Taqqu(1986)]{fox1986large}
|
||||
Robert Fox et Murad~S Taqqu.
|
||||
\newblock Large-sample properties of parameter estimates for strongly dependent
|
||||
stationary gaussian time series.
|
||||
\newblock \emph{The Annals of Statistics}, 14\penalty0 (2):\penalty0 517--532,
|
||||
1986.
|
||||
|
||||
\bibitem[Gil-Pelaez(1951)]{gil1951note}
|
||||
J~Gil-Pelaez.
|
||||
\newblock Note on the inversion theorem.
|
||||
\newblock \emph{Biometrika}, 38\penalty0 (3-4):\penalty0 481--482, 1951.
|
||||
|
||||
\bibitem[Gourieroux et Monfort(1989)]{gourieroux1989statistique}
|
||||
Christian Gourieroux et Alain Monfort.
|
||||
\newblock \emph{Statistique et mod{\`e}les {\'e}conom{\'e}triques: Notions
|
||||
g{\'e}n{\'e}rales, estimation, pr{\'e}vision, algorithmes}, volume~1.
|
||||
\newblock Economica, 1989.
|
||||
|
||||
\bibitem[Hall(2005)]{hall2005generalized}
|
||||
Alastair~R Hall.
|
||||
\newblock \emph{Generalized method of moments}.
|
||||
\newblock Oxford University Press Oxford, 2005.
|
||||
|
||||
\bibitem[Hamilton(1994)]{hamilton1994time}
|
||||
James~Douglas Hamilton.
|
||||
\newblock \emph{Time series analysis}, volume~2.
|
||||
\newblock Cambridge Univ Press, 1994.
|
||||
|
||||
\bibitem[Hansen(1982)]{hansen1982large}
|
||||
Lars~Peter Hansen.
|
||||
\newblock Large sample properties of generalized method of moments estimators.
|
||||
\newblock \emph{Econometrica: Journal of the Econometric Society}, pages
|
||||
1029--1054, 1982.
|
||||
|
||||
\bibitem[Henze(1990)]{henze1990approximation}
|
||||
N~Henze.
|
||||
\newblock An approximation to the limit distribution of the epps-pulley test
|
||||
statistic for normality.
|
||||
\newblock \emph{Metrika}, 37\penalty0 (1):\penalty0 7--18, 1990.
|
||||
|
||||
\bibitem[Heston(1993)]{heston1993closed}
|
||||
Steven~L Heston.
|
||||
\newblock A closed-form solution for options with stochastic volatility with
|
||||
applications to bond and currency options.
|
||||
\newblock \emph{Review of financial studies}, 6\penalty0 (2):\penalty0
|
||||
327--343, 1993.
|
||||
|
||||
\bibitem[Hinkley et Revankar(1977)]{hinkley1977estimation}
|
||||
David~V Hinkley et Nagesh~S Revankar.
|
||||
\newblock Estimation of the pareto law from underreported data: A further
|
||||
analysis.
|
||||
\newblock \emph{Journal of Econometrics}, 5\penalty0 (1):\penalty0 1--11, 1977.
|
||||
|
||||
\bibitem[Hogg et Craig(1978)]{hogg1978introduction}
|
||||
R.V. Hogg et A.T. Craig.
|
||||
\newblock \emph{Introduction to mathematical statistics}.
|
||||
\newblock Macmillan, 1978.
|
||||
\newblock ISBN 9780029789902.
|
||||
\newblock URL \url{http://books.google.ca/books?id=OZYQAQAAIAAJ}.
|
||||
|
||||
\bibitem[Itkin(2005)]{itkin2005pricing}
|
||||
Andrey Itkin.
|
||||
\newblock Pricing options with vg model using fft.
|
||||
\newblock \emph{arXiv preprint physics/0503137}, 2005.
|
||||
|
||||
\bibitem[Kotz et~al.(2001)Kotz, Kozubowski, et Podg{\'o}rski]{kotz2001laplace}
|
||||
S.~Kotz, T.J. Kozubowski, et K.~Podg{\'o}rski.
|
||||
\newblock \emph{The Laplace Distribution and Generalizations: A Revisit With
|
||||
Applications to Communications, Exonomics, Engineering, and Finance}.
|
||||
\newblock Progress in Mathematics Series. Birkh{\"a}user, 2001.
|
||||
\newblock ISBN 9780817641665.
|
||||
\newblock URL \url{http://books.google.ca/books?id=cb8B07hwULUC}.
|
||||
|
||||
\bibitem[Koutrouvelis(1980)]{KOUTROUVELIS01011980}
|
||||
I.~A. Koutrouvelis.
|
||||
\newblock A goodness-of-fit test of simple hypotheses based on the empirical
|
||||
characteristic function.
|
||||
\newblock \emph{Biometrika}, 67\penalty0 (1):\penalty0 238--240, 1980.
|
||||
\newblock \doi{10.1093/biomet/67.1.238}.
|
||||
\newblock URL \url{http://biomet.oxfordjournals.org/content/67/1/238.abstract}.
|
||||
|
||||
\bibitem[Kozubowski et Podg{\'o}rski(1999)]{kozubowski1999class}
|
||||
Tomasz~J Kozubowski et Krzysztof Podg{\'o}rski.
|
||||
\newblock A class of asymmetric distributions.
|
||||
\newblock \emph{Actuarial Research Clearing House}, 1:\penalty0 113--134, 1999.
|
||||
|
||||
\bibitem[Kozubowski et Podg{\'o}rski(2001)]{kozubowski2001asymmetric}
|
||||
Tomasz~J Kozubowski et Krzysztof Podg{\'o}rski.
|
||||
\newblock Asymmetric laplace laws and modeling financial data.
|
||||
\newblock \emph{Mathematical and computer modelling}, 34\penalty0 (9):\penalty0
|
||||
1003--1021, 2001.
|
||||
|
||||
\bibitem[Kyprianou(2007)]{kyprianou2007introductory}
|
||||
Andreas~E Kyprianou.
|
||||
\newblock \emph{Introductory lectures on fluctuations of L{\'e}vy processes
|
||||
with applications}.
|
||||
\newblock Springer, 2007.
|
||||
|
||||
\bibitem[Lugannani et Rice(1980)]{lugannani1980saddle}
|
||||
Robert Lugannani et Stephen Rice.
|
||||
\newblock Saddle point approximation for the distribution of the sum of
|
||||
independent random variables.
|
||||
\newblock \emph{Advances in applied probability}, pages 475--490, 1980.
|
||||
|
||||
\bibitem[Lukacs(1960)]{lukacs1960characteristic}
|
||||
Eugene Lukacs.
|
||||
\newblock \emph{Characteristic functions}, volume~4.
|
||||
\newblock Griffin London, 1960.
|
||||
|
||||
\bibitem[Luong et Thompson(1987)]{luong1987minimum}
|
||||
A~Luong et ME~Thompson.
|
||||
\newblock Minimum-distance methods based on quadratic distances for transforms.
|
||||
\newblock \emph{Canadian Journal of Statistics}, 15\penalty0 (3):\penalty0
|
||||
239--251, 1987.
|
||||
|
||||
\bibitem[Madan et Seneta(1990)]{madan1990variance}
|
||||
Dilip~B Madan et Eugene Seneta.
|
||||
\newblock The variance gamma (vg) model for share market returns.
|
||||
\newblock \emph{Journal of business}, pages 511--524, 1990.
|
||||
|
||||
\bibitem[Madan et~al.(1998)Madan, Carr, et Chang]{madan1998variance}
|
||||
Dilip~B Madan, Peter~P Carr, et Eric~C Chang.
|
||||
\newblock The variance gamma process and option pricing.
|
||||
\newblock \emph{European Finance Review}, 2\penalty0 (1):\penalty0 79--105,
|
||||
1998.
|
||||
|
||||
\bibitem[Mandelbrot(1963)]{mandelbrot1963variation}
|
||||
B.~Mandelbrot.
|
||||
\newblock The variation of certain speculative prices.
|
||||
\newblock \emph{Journal of business}, pages 394--419, 1963.
|
||||
|
||||
\bibitem[Merton(1976)]{merton1976option}
|
||||
Robert~C Merton.
|
||||
\newblock Option pricing when underlying stock returns are discontinuous.
|
||||
\newblock \emph{Journal of financial economics}, 3\penalty0 (1):\penalty0
|
||||
125--144, 1976.
|
||||
|
||||
\bibitem[Mitchell(1916)]{mitchell1916critique}
|
||||
Wesley~C Mitchell.
|
||||
\newblock A critique of index numbers of the prices of stocks.
|
||||
\newblock \emph{The Journal of Political Economy}, pages 625--693, 1916.
|
||||
|
||||
\bibitem[Newey et McFadden(1994)]{newey1994large}
|
||||
Whitney~K Newey et Daniel McFadden.
|
||||
\newblock Large sample estimation and hypothesis testing.
|
||||
\newblock \emph{Handbook of econometrics}, 4:\penalty0 2111--2245, 1994.
|
||||
|
||||
\bibitem[Newey et West(1987)]{newey1987hypothesis}
|
||||
Whitney~K Newey et Kenneth~D West.
|
||||
\newblock Hypothesis testing with efficient method of moments estimation.
|
||||
\newblock \emph{International Economic Review}, 28\penalty0 (3):\penalty0
|
||||
777--787, 1987.
|
||||
|
||||
\bibitem[Praetz(1972)]{praetz1972distribution}
|
||||
Peter~D Praetz.
|
||||
\newblock The distribution of share price changes.
|
||||
\newblock \emph{Journal of business}, pages 49--55, 1972.
|
||||
|
||||
\bibitem[Press(1967)]{press1967compound}
|
||||
S~James Press.
|
||||
\newblock A compound events model for security prices.
|
||||
\newblock \emph{Journal of Business}, pages 317--335, 1967.
|
||||
|
||||
\bibitem[Sato(1999)]{sato1999levy}
|
||||
K.~Sato.
|
||||
\newblock \emph{L{\'e}vy Processes and Infinitely Divisible Distributions}.
|
||||
\newblock Cambridge Studies in Advanced Mathematics. Cambridge University
|
||||
Press, 1999.
|
||||
\newblock ISBN 9780521553025.
|
||||
\newblock URL \url{http://books.google.ca/books?id=CwT5BNG0-owC}.
|
||||
|
||||
\bibitem[Schoutens(2003)]{schoutens2003levy}
|
||||
Wim Schoutens.
|
||||
\newblock \emph{L{\'e}vy processes in Finance}.
|
||||
\newblock Wiley, 2003.
|
||||
|
||||
\bibitem[Scott et Dong(2012)]{RpackageVarianceGamma}
|
||||
David Scott et Christine~Yang Dong.
|
||||
\newblock \emph{VarianceGamma: The Variance Gamma Distribution}, 2012.
|
||||
\newblock URL \url{http://CRAN.R-project.org/package=VarianceGamma}.
|
||||
\newblock R package version 0.3-1.
|
||||
|
||||
\bibitem[Seneta(2004)]{seneta2004fitting}
|
||||
Eugene Seneta.
|
||||
\newblock Fitting the variance-gamma model to financial data.
|
||||
\newblock \emph{Journal of Applied Probability}, pages 177--187, 2004.
|
||||
|
||||
\bibitem[Shapiro et Wilk(1965)]{shapiro1965analysis}
|
||||
Samuel~Sanford Shapiro et Martin~B Wilk.
|
||||
\newblock An analysis of variance test for normality (complete samples).
|
||||
\newblock \emph{Biometrika}, 52\penalty0 (3/4):\penalty0 591--611, 1965.
|
||||
|
||||
\bibitem[Shephard(1991)]{shephard1991characteristic}
|
||||
Neil~G Shephard.
|
||||
\newblock From characteristic function to distribution function: a simple
|
||||
framework for the theory.
|
||||
\newblock \emph{Econometric Theory}, 7\penalty0 (04):\penalty0 519--529, 1991.
|
||||
|
||||
\bibitem[Spiegel et Liu(1999)]{spiegel1999schaum}
|
||||
Murray~R Spiegel et John Liu.
|
||||
\newblock \emph{Schaum's mathematical handbook of formulas and tables}, volume
|
||||
1000.
|
||||
\newblock McGraw-Hill, 1999.
|
||||
|
||||
\bibitem[Stuart et Ord(1987)]{stuart1987kendall}
|
||||
Alan Stuart et J~Keith Ord.
|
||||
\newblock \emph{Kendall’s advanced theory of statistics, Vol. 1}.
|
||||
\newblock Oxford University Press, New York, 1987.
|
||||
|
||||
\bibitem[Teschl(2004)]{teschl2004topics}
|
||||
Gerald Teschl.
|
||||
\newblock Topics in real and functional analysis.
|
||||
\newblock \emph{unpublished, available online at
|
||||
\url{http://www.mat.univie.ac.at/\~gerald}}, 2004.
|
||||
|
||||
\bibitem[Walter()]{walterlevy}
|
||||
Christian Walter.
|
||||
\newblock Levy-stability-under-addition and fractal structure of markets:
|
||||
imlications for the actuaries and emphasized axamination of matif national
|
||||
contract.
|
||||
|
||||
\bibitem[Wang et~al.(2003)Wang, Tsang, et Marsaglia]{wang2003evaluating}
|
||||
Jingbo Wang, Wai~Wan Tsang, et George Marsaglia.
|
||||
\newblock Evaluating kolmogorov's distribution.
|
||||
\newblock \emph{Journal of Statistical Software}, 8\penalty0 (18):\penalty0
|
||||
1--4, 2003.
|
||||
|
||||
\bibitem[Wendel(1961)]{wendel1961non}
|
||||
JG~Wendel.
|
||||
\newblock The non-absolute convergence of gil-pelaez'inversion integral.
|
||||
\newblock \emph{The Annals of Mathematical Statistics}, 32\penalty0
|
||||
(1):\penalty0 338--339, 1961.
|
||||
|
||||
\bibitem[Wolfowitz(1957)]{wolfowitz1957minimum}
|
||||
Jacob Wolfowitz.
|
||||
\newblock The minimum distance method.
|
||||
\newblock \emph{The Annals of Mathematical Statistics}, pages 75--88, 1957.
|
||||
|
||||
\bibitem[Wooldridge(2001)]{wooldridge2001econometric}
|
||||
Jeffrey~M Wooldridge.
|
||||
\newblock \emph{Econometric analysis of cross section and panel data}.
|
||||
\newblock MIT press, 2001.
|
||||
|
||||
\end{thebibliography}
|
68
memoire/gabarit-maitrise.blg
Normal file
68
memoire/gabarit-maitrise.blg
Normal file
|
@ -0,0 +1,68 @@
|
|||
This is BibTeX, Version 0.99d (TeX Live 2012/Debian)
|
||||
Capacity: max_strings=35307, hash_size=35307, hash_prime=30011
|
||||
The top-level auxiliary file: gabarit-maitrise.aux
|
||||
The style file: plainnatmod.bst
|
||||
A level-1 auxiliary file: resume.aux
|
||||
A level-1 auxiliary file: abstract.aux
|
||||
A level-1 auxiliary file: remerciements.aux
|
||||
A level-1 auxiliary file: introduction.aux
|
||||
A level-1 auxiliary file: chapitre1.aux
|
||||
A level-1 auxiliary file: chapitre2.aux
|
||||
A level-1 auxiliary file: chapitre3.aux
|
||||
A level-1 auxiliary file: chapitre4.aux
|
||||
A level-1 auxiliary file: chapitre5.aux
|
||||
A level-1 auxiliary file: chapitre6.aux
|
||||
A level-1 auxiliary file: chapitre7.aux
|
||||
A level-1 auxiliary file: chapitre8.aux
|
||||
A level-1 auxiliary file: chapitre9.aux
|
||||
A level-1 auxiliary file: conclusion.aux
|
||||
A level-1 auxiliary file: annexe1.aux
|
||||
A level-1 auxiliary file: annexe2.aux
|
||||
A level-1 auxiliary file: annexe3.aux
|
||||
A level-1 auxiliary file: deed.aux
|
||||
Database file #1: memoire.bib
|
||||
Warning--empty booktitle in walterlevy
|
||||
Warning--empty year in walterlevy
|
||||
Warning--empty year in walterlevy
|
||||
You've used 63 entries,
|
||||
2773 wiz_defined-function locations,
|
||||
974 strings with 13683 characters,
|
||||
and the built_in function-call counts, 25492 in all, are:
|
||||
= -- 2374
|
||||
> -- 963
|
||||
< -- 80
|
||||
+ -- 345
|
||||
- -- 282
|
||||
* -- 1720
|
||||
:= -- 3843
|
||||
add.period$ -- 201
|
||||
call.type$ -- 63
|
||||
change.case$ -- 263
|
||||
chr.to.int$ -- 63
|
||||
cite$ -- 129
|
||||
duplicate$ -- 1378
|
||||
empty$ -- 2363
|
||||
format.name$ -- 391
|
||||
if$ -- 5467
|
||||
int.to.chr$ -- 1
|
||||
int.to.str$ -- 1
|
||||
missing$ -- 81
|
||||
newline$ -- 333
|
||||
num.names$ -- 252
|
||||
pop$ -- 596
|
||||
preamble$ -- 1
|
||||
purify$ -- 220
|
||||
quote$ -- 0
|
||||
skip$ -- 1041
|
||||
stack$ -- 0
|
||||
substring$ -- 1124
|
||||
swap$ -- 192
|
||||
text.length$ -- 21
|
||||
text.prefix$ -- 0
|
||||
top$ -- 0
|
||||
type$ -- 593
|
||||
warning$ -- 3
|
||||
while$ -- 278
|
||||
width$ -- 0
|
||||
write$ -- 830
|
||||
(There were 3 warnings)
|
30
memoire/gabarit-maitrise.lof
Normal file
30
memoire/gabarit-maitrise.lof
Normal file
|
@ -0,0 +1,30 @@
|
|||
\select@language {french}
|
||||
\select@language {french}
|
||||
\addvspace {10pt}
|
||||
\contentsline {figure}{\numberline {1.1}{\ignorespaces Mod\IeC {\`e}le de Bachelier: probabilit\IeC {\'e} compos\IeC {\'e}e\relax }}{8}{figure.caption.12}
|
||||
\contentsline {figure}{\numberline {1.2}{\ignorespaces Distribution des rendements annuels de 40 titres boursiers, de 1890 \IeC {\`a} 1915, Table XVIII de \cite {mitchell1916critique}\relax }}{10}{figure.caption.13}
|
||||
\addvspace {10pt}
|
||||
\contentsline {figure}{\numberline {2.1}{\ignorespaces Premier incr\IeC {\'e}ment d'un processus subordonn\IeC {\'e}\relax }}{23}{figure.caption.16}
|
||||
\contentsline {figure}{\numberline {2.2}{\ignorespaces Simulation d'un processus de Wiener subordonn\IeC {\'e} par un processus gamma\relax }}{24}{figure.caption.17}
|
||||
\contentsline {figure}{\numberline {2.3}{\ignorespaces Fonction de densit\IeC {\'e} de la distribution Laplace asym\IeC {\'e}trique g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e avec diff\IeC {\'e}rents param\IeC {\`e}tres: $GAL(y;\theta ,\sigma ,\kappa ,\tau )$\relax }}{31}{figure.caption.19}
|
||||
\contentsline {figure}{\numberline {2.4}{\ignorespaces Histogramme et estimateur de densit\IeC {\'e} par noyau de 2500 r\IeC {\'e}alisations de la variable al\IeC {\'e}atoire $Y\sim GAL(\theta =0,\sigma =1,\kappa =2,\tau =1)$\relax }}{34}{figure.caption.20}
|
||||
\addvspace {10pt}
|
||||
\contentsline {figure}{\numberline {3.1}{\ignorespaces Probabilit\IeC {\'e} \IeC {\`a} l'extr\IeC {\'e}mit\IeC {\'e} du support\relax }}{40}{figure.caption.23}
|
||||
\contentsline {figure}{\numberline {3.2}{\ignorespaces Distribution normale tronqu\IeC {\'e}e \IeC {\`a} $w_0$\relax }}{41}{figure.caption.24}
|
||||
\addvspace {10pt}
|
||||
\addvspace {10pt}
|
||||
\addvspace {10pt}
|
||||
\addvspace {10pt}
|
||||
\addvspace {10pt}
|
||||
\addvspace {10pt}
|
||||
\contentsline {figure}{\numberline {9.1}{\ignorespaces Repr\IeC {\'e}sentation en s\IeC {\'e}rie chronologique de l'\IeC {\'e}chantillon $R_1$\relax }}{98}{figure.caption.28}
|
||||
\contentsline {figure}{\numberline {9.2}{\ignorespaces Distribution de la variable al\IeC {\'e}atoire $R_1$\relax }}{99}{figure.caption.31}
|
||||
\contentsline {figure}{\numberline {9.3}{\ignorespaces Graphique Quantile-Quantile\relax }}{100}{figure.caption.33}
|
||||
\contentsline {figure}{\numberline {9.4}{\ignorespaces \IeC {\'E}quation du point de selle pour $r=0.01$\relax }}{104}{figure.caption.37}
|
||||
\contentsline {figure}{\numberline {9.5}{\ignorespaces Densit\IeC {\'e} de $R_1^{*}$ selon la m\IeC {\'e}thode des moments g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e\relax }}{106}{figure.caption.42}
|
||||
\contentsline {figure}{\numberline {9.6}{\ignorespaces Densit\IeC {\'e} de $R_1^{*}$ selon la m\IeC {\'e}thode de l'\IeC {\'e}quation d'estimation optimale\relax }}{107}{figure.caption.43}
|
||||
\contentsline {figure}{\numberline {9.7}{\ignorespaces Prix de l'option selon les param\IeC {\`e}tres estim\IeC {\'e}s avec la m\IeC {\'e}thode des moments g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e\relax }}{110}{figure.caption.49}
|
||||
\contentsline {figure}{\numberline {9.8}{\ignorespaces Prix de l'option selon les param\IeC {\`e}tres estim\IeC {\'e}s avec la m\IeC {\'e}thode de l'\IeC {\'e}quation d'estimation optimale\relax }}{111}{figure.caption.50}
|
||||
\addvspace {10pt}
|
||||
\addvspace {10pt}
|
||||
\addvspace {10pt}
|
2272
memoire/gabarit-maitrise.log
Normal file
2272
memoire/gabarit-maitrise.log
Normal file
File diff suppressed because it is too large
Load diff
38
memoire/gabarit-maitrise.lot
Normal file
38
memoire/gabarit-maitrise.lot
Normal file
|
@ -0,0 +1,38 @@
|
|||
\select@language {french}
|
||||
\select@language {french}
|
||||
\addvspace {10pt}
|
||||
\contentsline {table}{\numberline {1.1}{\ignorespaces Domaine et r\IeC {\^o}le des param\IeC {\`e}tres de la distribution L stable de Mandelbrot\relax }}{12}{table.caption.14}
|
||||
\contentsline {table}{\numberline {1.2}{\ignorespaces Respect des conditions \IeC {\'e}mises par Madan et Seneta pour les diff\IeC {\'e}rents mod\IeC {\`e}les pr\IeC {\'e}sent\IeC {\'e}s\relax }}{17}{table.caption.15}
|
||||
\addvspace {10pt}
|
||||
\contentsline {table}{\numberline {2.1}{\ignorespaces Domaine et r\IeC {\^o}le des param\IeC {\`e}tres de la distribution de Laplace asym\IeC {\'e}trique g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e\relax }}{30}{table.caption.18}
|
||||
\contentsline {table}{\numberline {2.2}{\ignorespaces Cas sp\IeC {\'e}ciaux de la distribution de Laplace asym\IeC {\'e}trique g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e\relax }}{35}{table.caption.21}
|
||||
\contentsline {table}{\numberline {2.3}{\ignorespaces Changements de param\IeC {\'e}trisation\relax }}{37}{table.caption.22}
|
||||
\addvspace {10pt}
|
||||
\addvspace {10pt}
|
||||
\contentsline {table}{\numberline {4.1}{\ignorespaces Tests d'hypoth\IeC {\`e}se param\IeC {\'e}triques pour la m\IeC {\'e}thode des moments g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e\relax }}{63}{table.caption.25}
|
||||
\addvspace {10pt}
|
||||
\contentsline {table}{\numberline {5.1}{\ignorespaces M\IeC {\'e}thodes d'estimation repr\IeC {\'e}sentables par la forme quadratique \textup {\hbox {\mathsurround \z@ \normalfont (\ignorespaces \ref {eq:generalquad}\unskip \@@italiccorr )}} \relax }}{67}{table.caption.26}
|
||||
\addvspace {10pt}
|
||||
\contentsline {table}{\numberline {6.1}{\ignorespaces Contraintes lin\IeC {\'e}aires pour les cas particuliers de la distribution de Laplace asym\IeC {\'e}trique g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e $GAL(\theta ,\sigma ,\mu ,\tau )$\relax }}{77}{table.caption.27}
|
||||
\addvspace {10pt}
|
||||
\addvspace {10pt}
|
||||
\addvspace {10pt}
|
||||
\contentsline {table}{\numberline {9.1}{\ignorespaces Statistiques d'ordre de l'\IeC {\'e}chantillon $R_1$\relax }}{97}{table.caption.29}
|
||||
\contentsline {table}{\numberline {9.2}{\ignorespaces Valeurs relatives aux premiers moments de l'\IeC {\'e}chantillon $R_1$\relax }}{98}{table.caption.30}
|
||||
\contentsline {table}{\numberline {9.3}{\ignorespaces Test de normalit\IeC {\'e} d'Epps-Pulley pour $R_1$\relax }}{98}{table.caption.32}
|
||||
\contentsline {table}{\numberline {9.4}{\ignorespaces Param\IeC {\`e}tres $\theta _1$ de la premi\IeC {\`e}re optimisation\relax }}{100}{table.caption.34}
|
||||
\contentsline {table}{\numberline {9.5}{\ignorespaces Param\IeC {\`e}tres $\theta _1$ de la premi\IeC {\`e}re optimisation\relax }}{102}{table.caption.35}
|
||||
\contentsline {table}{\numberline {9.6}{\ignorespaces Param\IeC {\`e}tres des donn\IeC {\'e}es $R_1$\relax }}{103}{table.caption.36}
|
||||
\contentsline {table}{\numberline {9.7}{\ignorespaces Approximation de la densit\IeC {\'e} de $R_1$\relax }}{104}{table.caption.38}
|
||||
\contentsline {table}{\numberline {9.8}{\ignorespaces Approximation de la fonction de r\IeC {\'e}partition de $R_1$\relax }}{105}{table.caption.39}
|
||||
\contentsline {table}{\numberline {9.9}{\ignorespaces Courbes de densit\IeC {\'e}\relax }}{105}{table.caption.40}
|
||||
\contentsline {table}{\numberline {9.10}{\ignorespaces Valeur de l'int\IeC {\'e}grale de l'approximation de la densit\IeC {\'e} par la m\IeC {\'e}thode du point de selle \relax }}{105}{table.caption.41}
|
||||
\contentsline {table}{\numberline {9.11}{\ignorespaces Test du $\chi ^2$\relax }}{108}{table.caption.44}
|
||||
\contentsline {table}{\numberline {9.12}{\ignorespaces Test de Kolmogorov-Smirnov\relax }}{108}{table.caption.45}
|
||||
\contentsline {table}{\numberline {9.13}{\ignorespaces Test de distance minimale bas\IeC {\'e} sur la fonction g\IeC {\'e}n\IeC {\'e}ratrice des moments\relax }}{109}{table.caption.46}
|
||||
\contentsline {table}{\numberline {9.14}{\ignorespaces Caract\IeC {\'e}ristiques de l'option\relax }}{109}{table.caption.47}
|
||||
\contentsline {table}{\numberline {9.15}{\ignorespaces Param\IeC {\`e}tres neutres au risque\relax }}{109}{table.caption.48}
|
||||
\addvspace {10pt}
|
||||
\addvspace {10pt}
|
||||
\addvspace {10pt}
|
||||
\contentsline {table}{\numberline {C.1}{\ignorespaces Prix du titre Abbey National (penny sterling) du 31 juillet au 8 octobre 1991\relax }}{129}{table.caption.60}
|
135
memoire/gabarit-maitrise.out
Normal file
135
memoire/gabarit-maitrise.out
Normal file
|
@ -0,0 +1,135 @@
|
|||
\BOOKMARK [0][-]{section*.2}{R\351sum\351}{}% 1
|
||||
\BOOKMARK [0][-]{section*.4}{Abstract}{}% 2
|
||||
\BOOKMARK [0][-]{section*.5}{Table des mati\350res}{}% 3
|
||||
\BOOKMARK [0][-]{section*.6}{Liste des tableaux}{}% 4
|
||||
\BOOKMARK [0][-]{section*.7}{Liste des figures}{}% 5
|
||||
\BOOKMARK [0][-]{section*.9}{Remerciements}{}% 6
|
||||
\BOOKMARK [0][-]{section*.11}{Introduction}{}% 7
|
||||
\BOOKMARK [0][-]{chapter.1}{Les mod\350les de rendements financiers}{}% 8
|
||||
\BOOKMARK [1][-]{section.1.1}{L'utilisation de mod\350les en finance}{chapter.1}% 9
|
||||
\BOOKMARK [2][-]{subsection.1.1.1}{Diff\351rents types de mod\350les}{section.1.1}% 10
|
||||
\BOOKMARK [2][-]{subsection.1.1.2}{Le risque de mod\351lisation}{section.1.1}% 11
|
||||
\BOOKMARK [1][-]{section.1.2}{Les rendements financiers}{chapter.1}% 12
|
||||
\BOOKMARK [2][-]{subsection.1.2.1}{D\351finitions et notations}{section.1.2}% 13
|
||||
\BOOKMARK [2][-]{subsection.1.2.2}{Rendements cumul\351s}{section.1.2}% 14
|
||||
\BOOKMARK [2][-]{subsection.1.2.3}{Donn\351es disponibles}{section.1.2}% 15
|
||||
\BOOKMARK [1][-]{section.1.3}{Les premiers mod\350les}{chapter.1}% 16
|
||||
\BOOKMARK [2][-]{subsection.1.3.1}{Le mod\350le de Bachelier}{section.1.3}% 17
|
||||
\BOOKMARK [2][-]{subsection.1.3.2}{Proposition de Mandelbrot}{section.1.3}% 18
|
||||
\BOOKMARK [2][-]{subsection.1.3.3}{Le mod\350le de Press}{section.1.3}% 19
|
||||
\BOOKMARK [2][-]{subsection.1.3.4}{Le mod\350le de Praetz}{section.1.3}% 20
|
||||
\BOOKMARK [1][-]{section.1.4}{Conditions essentielles de Madan et Seneta}{chapter.1}% 21
|
||||
\BOOKMARK [0][-]{chapter.2}{La distribution de Laplace asym\351trique g\351n\351ralis\351e}{}% 22
|
||||
\BOOKMARK [1][-]{section.2.1}{Le processus de Laplace}{chapter.2}% 23
|
||||
\BOOKMARK [2][-]{subsection.2.1.1}{Le processus gamma}{section.2.1}% 24
|
||||
\BOOKMARK [2][-]{subsection.2.1.2}{Le processus de Wiener}{section.2.1}% 25
|
||||
\BOOKMARK [2][-]{subsection.2.1.3}{Le processus de Laplace est un processus subordonn\351}{section.2.1}% 26
|
||||
\BOOKMARK [1][-]{section.2.2}{Distribution de Laplace asym\351trique g\351n\351ralis\351e}{chapter.2}% 27
|
||||
\BOOKMARK [2][-]{subsection.2.2.1}{Fonction caract\351ristique}{section.2.2}% 28
|
||||
\BOOKMARK [2][-]{subsection.2.2.2}{Invariance d'\351chelle}{section.2.2}% 29
|
||||
\BOOKMARK [2][-]{subsection.2.2.3}{Fonctions g\351n\351ratrices}{section.2.2}% 30
|
||||
\BOOKMARK [2][-]{subsection.2.2.4}{Moments et r\364le des param\350tres}{section.2.2}% 31
|
||||
\BOOKMARK [2][-]{subsection.2.2.5}{Changement d'\351chelle et de localisation}{section.2.2}% 32
|
||||
\BOOKMARK [2][-]{subsection.2.2.6}{Repr\351sentation alternative et simulation}{section.2.2}% 33
|
||||
\BOOKMARK [2][-]{subsection.2.2.7}{Fonction de Bessel et densit\351}{section.2.2}% 34
|
||||
\BOOKMARK [1][-]{section.2.3}{Cas particuliers}{chapter.2}% 35
|
||||
\BOOKMARK [2][-]{subsection.2.3.1}{Distribution de Laplace asym\351trique}{section.2.3}% 36
|
||||
\BOOKMARK [1][-]{section.2.4}{Relation avec le mod\350le de madan1990variance}{chapter.2}% 37
|
||||
\BOOKMARK [0][-]{chapter.3}{Approximation de la densit\351 et de la fonction de r\351partition}{}% 38
|
||||
\BOOKMARK [1][-]{section.3.1}{L'approximation de Laplace}{chapter.3}% 39
|
||||
\BOOKMARK [1][-]{section.3.2}{L'approximation de Temme}{chapter.3}% 40
|
||||
\BOOKMARK [1][-]{section.3.3}{La m\351thode du point de selle}{chapter.3}% 41
|
||||
\BOOKMARK [2][-]{subsection.3.3.1}{Approximation de la densit\351}{section.3.3}% 42
|
||||
\BOOKMARK [2][-]{subsection.3.3.2}{Unicit\351 du point de selle}{section.3.3}% 43
|
||||
\BOOKMARK [2][-]{subsection.3.3.3}{Approximation de la fonction de r\351partition}{section.3.3}% 44
|
||||
\BOOKMARK [2][-]{subsection.3.3.4}{Quelques propri\351t\351s des approximations}{section.3.3}% 45
|
||||
\BOOKMARK [1][-]{section.3.4}{Application de la m\351thode du point de selle}{chapter.3}% 46
|
||||
\BOOKMARK [2][-]{subsection.3.4.1}{Approximation de la densit\351}{section.3.4}% 47
|
||||
\BOOKMARK [2][-]{subsection.3.4.2}{Approximation de la fonction de r\351partition}{section.3.4}% 48
|
||||
\BOOKMARK [0][-]{chapter.4}{M\351thode des moments g\351n\351ralis\351e}{}% 49
|
||||
\BOOKMARK [1][-]{section.4.1}{Introduction}{chapter.4}% 50
|
||||
\BOOKMARK [2][-]{subsection.4.1.1}{M\351thode classique des moments}{section.4.1}% 51
|
||||
\BOOKMARK [1][-]{section.4.2}{M\351thode des moments g\351n\351ralis\351e}{chapter.4}% 52
|
||||
\BOOKMARK [2][-]{subsection.4.2.1}{D\351finition}{section.4.2}% 53
|
||||
\BOOKMARK [2][-]{subsection.4.2.2}{Convergence}{section.4.2}% 54
|
||||
\BOOKMARK [2][-]{subsection.4.2.3}{Matrice de pond\351ration optimale}{section.4.2}% 55
|
||||
\BOOKMARK [2][-]{subsection.4.2.4}{M\351thode des moments g\351n\351ralis\351e it\351rative}{section.4.2}% 56
|
||||
\BOOKMARK [2][-]{subsection.4.2.5}{Distribution asymptotique des estimateurs}{section.4.2}% 57
|
||||
\BOOKMARK [1][-]{section.4.3}{Estimation sous contraintes}{chapter.4}% 58
|
||||
\BOOKMARK [2][-]{subsection.4.3.1}{Distribution asymptotique des estimateurs contraints}{section.4.3}% 59
|
||||
\BOOKMARK [1][-]{section.4.4}{Tests d'hypoth\350ses param\351triques}{chapter.4}% 60
|
||||
\BOOKMARK [2][-]{subsection.4.4.1}{Test de Wald}{section.4.4}% 61
|
||||
\BOOKMARK [2][-]{subsection.4.4.2}{Test du multiplicateur de Lagrange}{section.4.4}% 62
|
||||
\BOOKMARK [2][-]{subsection.4.4.3}{Test bas\351 sur la statistique de m\351trique de distance}{section.4.4}% 63
|
||||
\BOOKMARK [2][-]{subsection.4.4.4}{En r\351sum\351}{section.4.4}% 64
|
||||
\BOOKMARK [0][-]{chapter.5}{M\351thode de l'\351quation d'estimation optimale}{}% 65
|
||||
\BOOKMARK [1][-]{section.5.1}{\311quation d'estimation optimale}{chapter.5}% 66
|
||||
\BOOKMARK [1][-]{section.5.2}{\311quation d'estimation optimale modifi\351e}{chapter.5}% 67
|
||||
\BOOKMARK [0][-]{chapter.6}{Estimation des param\350tres de la distribution de Laplace asym\351trique g\351n\351ralis\351e}{}% 68
|
||||
\BOOKMARK [1][-]{section.6.1}{Vecteur de param\350tres initiaux}{chapter.6}% 69
|
||||
\BOOKMARK [1][-]{section.6.2}{M\351thode des moments g\351n\351ralis\351e}{chapter.6}% 70
|
||||
\BOOKMARK [2][-]{subsection.6.2.1}{Matrice de pond\351ration optimale}{section.6.2}% 71
|
||||
\BOOKMARK [2][-]{subsection.6.2.2}{Variance-covariance des param\350tres}{section.6.2}% 72
|
||||
\BOOKMARK [2][-]{subsection.6.2.3}{Contraintes lin\351aires}{section.6.2}% 73
|
||||
\BOOKMARK [1][-]{section.6.3}{M\351thode de l'\351quation d'estimation optimale}{chapter.6}% 74
|
||||
\BOOKMARK [0][-]{chapter.7}{Tests statistiques}{}% 75
|
||||
\BOOKMARK [1][-]{section.7.1}{Test de normalit\351}{chapter.7}% 76
|
||||
\BOOKMARK [2][-]{subsection.7.1.1}{Test de Shapiro-Wilk}{section.7.1}% 77
|
||||
\BOOKMARK [2][-]{subsection.7.1.2}{Test d\220Epps-Pulley}{section.7.1}% 78
|
||||
\BOOKMARK [1][-]{section.7.2}{Tests d'ad\351quation}{chapter.7}% 79
|
||||
\BOOKMARK [2][-]{subsection.7.2.1}{Test 2 de Pearson}{section.7.2}% 80
|
||||
\BOOKMARK [2][-]{subsection.7.2.2}{Test de Kolmogorov-Smirnov}{section.7.2}% 81
|
||||
\BOOKMARK [2][-]{subsection.7.2.3}{Test de distance minimale bas\351 sur la fonction g\351n\351ratrice des moments}{section.7.2}% 82
|
||||
\BOOKMARK [0][-]{chapter.8}{\311valuation d'options}{}% 83
|
||||
\BOOKMARK [1][-]{section.8.1}{D\351finitions}{chapter.8}% 84
|
||||
\BOOKMARK [2][-]{subsection.8.1.1}{\311quation martingale}{section.8.1}% 85
|
||||
\BOOKMARK [2][-]{subsection.8.1.2}{Param\350tres neutres au risque}{section.8.1}% 86
|
||||
\BOOKMARK [1][-]{section.8.2}{Aper\347u du mod\350le de Black-Scholes}{chapter.8}% 87
|
||||
\BOOKMARK [1][-]{section.8.3}{M\351thodes d'\351valuation pour options europ\351ennes}{chapter.8}% 88
|
||||
\BOOKMARK [2][-]{subsection.8.3.1}{M\351thode de Heston}{section.8.3}% 89
|
||||
\BOOKMARK [2][-]{subsection.8.3.2}{M\351thode de Carr et Madan}{section.8.3}% 90
|
||||
\BOOKMARK [2][-]{subsection.8.3.3}{Prix d'exercice hors du cours}{section.8.3}% 91
|
||||
\BOOKMARK [2][-]{subsection.8.3.4}{Critique de la m\351thode de Carr-Madan}{section.8.3}% 92
|
||||
\BOOKMARK [2][-]{subsection.8.3.5}{M\351thode d\220Epps}{section.8.3}% 93
|
||||
\BOOKMARK [1][-]{section.8.4}{Particularit\351s}{chapter.8}% 94
|
||||
\BOOKMARK [2][-]{subsection.8.4.1}{Option sur actions avec dividendes}{section.8.4}% 95
|
||||
\BOOKMARK [2][-]{subsection.8.4.2}{Options sur contrats \340 terme et taux de change}{section.8.4}% 96
|
||||
\BOOKMARK [0][-]{chapter.9}{Exemple d'application}{}% 97
|
||||
\BOOKMARK [1][-]{section.9.1}{Description des donn\351es}{chapter.9}% 98
|
||||
\BOOKMARK [1][-]{section.9.2}{Estimation}{chapter.9}% 99
|
||||
\BOOKMARK [1][-]{section.9.3}{Approximation}{chapter.9}% 100
|
||||
\BOOKMARK [1][-]{section.9.4}{Graphiques}{chapter.9}% 101
|
||||
\BOOKMARK [1][-]{section.9.5}{Tests statistiques}{chapter.9}% 102
|
||||
\BOOKMARK [1][-]{section.9.6}{\311valuation d'options}{chapter.9}% 103
|
||||
\BOOKMARK [0][-]{section*.52}{Conclusion}{}% 104
|
||||
\BOOKMARK [0][-]{appendix.A}{\311l\351ments de th\351orie des probabilit\351s}{}% 105
|
||||
\BOOKMARK [1][-]{section.A.1}{D\351finitions de base}{appendix.A}% 106
|
||||
\BOOKMARK [1][-]{section.A.2}{Transform\351es d'une variable al\351atoire}{appendix.A}% 107
|
||||
\BOOKMARK [2][-]{subsection.A.2.1}{La fonction caract\351ristique}{section.A.2}% 108
|
||||
\BOOKMARK [3][-]{section*.53}{Transform\351e de Fourier}{subsection.A.2.1}% 109
|
||||
\BOOKMARK [3][-]{section*.54}{D\351finition}{subsection.A.2.1}% 110
|
||||
\BOOKMARK [3][-]{section*.55}{Les moments}{subsection.A.2.1}% 111
|
||||
\BOOKMARK [2][-]{subsection.A.2.2}{Inversion de la fonction caract\351ristique}{section.A.2}% 112
|
||||
\BOOKMARK [3][-]{section*.56}{La densit\351}{subsection.A.2.2}% 113
|
||||
\BOOKMARK [3][-]{section*.57}{La fonction de r\351partition}{subsection.A.2.2}% 114
|
||||
\BOOKMARK [2][-]{subsection.A.2.3}{La fonction g\351n\351ratrice des moments}{section.A.2}% 115
|
||||
\BOOKMARK [2][-]{subsection.A.2.4}{La fonction g\351n\351ratrice des cumulants}{section.A.2}% 116
|
||||
\BOOKMARK [2][-]{subsection.A.2.5}{La transform\351e d'Esscher}{section.A.2}% 117
|
||||
\BOOKMARK [1][-]{section.A.3}{La transform\351e de Fourier rapide}{appendix.A}% 118
|
||||
\BOOKMARK [1][-]{section.A.4}{Processus de L\351vy}{appendix.A}% 119
|
||||
\BOOKMARK [2][-]{subsection.A.4.1}{D\351finition et propri\351t\351s}{section.A.4}% 120
|
||||
\BOOKMARK [3][-]{section*.58}{Repr\351sentation de L\351vy-Khintchine}{subsection.A.4.1}% 121
|
||||
\BOOKMARK [3][-]{section*.59}{Repr\351sentation de L\351vy-It\364}{subsection.A.4.1}% 122
|
||||
\BOOKMARK [2][-]{subsection.A.4.2}{Processus subordonn\351}{section.A.4}% 123
|
||||
\BOOKMARK [1][-]{section.A.5}{Th\351or\350mes d'int\351gration}{appendix.A}% 124
|
||||
\BOOKMARK [2][-]{subsection.A.5.1}{Th\351or\350me de convergence domin\351e de Lebesgue}{section.A.5}% 125
|
||||
\BOOKMARK [2][-]{subsection.A.5.2}{Th\351or\350me de Fubini}{section.A.5}% 126
|
||||
\BOOKMARK [0][-]{appendix.B}{\311l\351ments de statistique math\351matique}{}% 127
|
||||
\BOOKMARK [1][-]{section.B.1}{Loi faible des grands nombres}{appendix.B}% 128
|
||||
\BOOKMARK [1][-]{section.B.2}{Th\351or\350me central limite}{appendix.B}% 129
|
||||
\BOOKMARK [2][-]{subsection.B.2.1}{Cas univari\351}{section.B.2}% 130
|
||||
\BOOKMARK [2][-]{subsection.B.2.2}{Cas multivari\351}{section.B.2}% 131
|
||||
\BOOKMARK [1][-]{section.B.3}{M\351thode delta multivari\351e}{appendix.B}% 132
|
||||
\BOOKMARK [0][-]{appendix.C}{Donn\351es}{}% 133
|
||||
\BOOKMARK [0][-]{section*.62}{Bibliographie}{}% 134
|
||||
\BOOKMARK [0][-]{section*.64}{Contrat de partage}{}% 135
|
BIN
memoire/gabarit-maitrise.pdf
Normal file
BIN
memoire/gabarit-maitrise.pdf
Normal file
Binary file not shown.
BIN
memoire/gabarit-maitrise.synctex.gz
Normal file
BIN
memoire/gabarit-maitrise.synctex.gz
Normal file
Binary file not shown.
111
memoire/gabarit-maitrise.tex
Normal file
111
memoire/gabarit-maitrise.tex
Normal file
|
@ -0,0 +1,111 @@
|
|||
%% GABARIT POUR MÉMOIRE STANDARD
|
||||
%%
|
||||
%% Consulter la documentation de la classe ulthese pour une
|
||||
%% description détaillée de la classe, de ce gabarit et des options
|
||||
%% disponibles.
|
||||
%%
|
||||
%% [Ne pas hésiter à supprimer les commentaires après les avoir lus.]
|
||||
%%
|
||||
%% Déclaration de la classe avec les langues les plus courantes. Le
|
||||
%% français sera la langue par défaut du document.
|
||||
\documentclass[11pt,english,francais]{ulthese} \usepackage{scrtime}
|
||||
\usepackage{natbib}
|
||||
\usepackage{tikz} \usepackage{multirow}
|
||||
%% Encodage utilisé pour les caractères accentués dans les fichiers
|
||||
%% source du document. Les gabarits sont encodés en UTF-8.
|
||||
\usepackage[utf8]{inputenc}
|
||||
%% Charger ici les autres paquetages nécessaires pour le document.
|
||||
%% Quelques exemples; décommenter au besoin.
|
||||
\usepackage{amsmath} % recommandé pour les mathématiques
|
||||
\numberwithin{equation}{section} % pour numéroter les équations selon les sections
|
||||
\usepackage{amsfonts} \usepackage{amsthm} \usepackage{thmtools}
|
||||
% \usepackage{mathpazo} % texte en Palatino
|
||||
% \usepackage{mathptmx} % texte en Times
|
||||
%% Gestion des hyperliens dans le document. S'assurer que hyperref est
|
||||
%% le dernier paquetage chargé.
|
||||
\usepackage{hyperref} \hypersetup{colorlinks,allcolors=ULlinkcolor}
|
||||
\usepackage{cleveref}
|
||||
\usepackage[hypcap]{caption} % permet de faire le lien au dessus des figures au lieu d en dessous
|
||||
\usepackage[off]{auto-pst-pdf}
|
||||
%% Pour utiliser Computer Modern comme police sans empattements
|
||||
%% (serif) plutôt que Helvetica, décommenter la ligne ci-dessous.
|
||||
% \renewcommand{\sfdefault}{cmss}
|
||||
|
||||
%% Options de mise en forme du mode français de babel. Consulter la
|
||||
%% documentation du paquetage babel pour les options disponibles.
|
||||
\frenchbsetup{%
|
||||
CompactItemize=false, % ne pas compacter les listes
|
||||
ThinSpaceInFrenchNumbers=true % espace fine dans les nombres
|
||||
} \DeclareMathOperator{\sgn}{sgn}
|
||||
%% Style de la bibliographie.
|
||||
\bibliographystyle{plainnatmod}
|
||||
%% Déclarations de la page titre. Remplacer les éléments entre < >.
|
||||
%% Supprimer les caractères < >. Couper un long titre ou un long
|
||||
%% sous-titre manuellement avec \\. Terminer une éventuelle deuxième
|
||||
%% ligne de titre ou de sous-titre avec \vspace*{-\baselineskip}.
|
||||
\titre{Modélisation des rendements financiers \\ à l'aide de la
|
||||
distribution de Laplace \\ asymétrique généralisée
|
||||
\vspace*{-\baselineskip}}
|
||||
% \titre{Ceci est un exemple de long titre \\
|
||||
% avec saut de ligne manuel \vspace*{-\baselineskip}}
|
||||
% \soustitre{Sous-titre le cas échéant}
|
||||
% \soustitre{Ceci est un exemple de long-titre \\
|
||||
% avec saut de ligne manuel \vspace*{-\baselineskip}}
|
||||
\auteur{François Pelletier} \programme{Maîtrise en actuariat}
|
||||
\annee{2013}
|
||||
\MSc % ou l'un de \LLM, \MA, \MMus, \MServSoc, \MScGeogr, \MATDR
|
||||
\setcounter{tocdepth}{4}
|
||||
\begin{document}
|
||||
\newtheorem{theo}{Théorème}[subsection]
|
||||
\newtheorem{hypothese}{Hypothèse}[chapter]
|
||||
|
||||
\frontmatter % pages liminaires
|
||||
|
||||
\pagetitre % production de la page titre
|
||||
|
||||
\include{resume} % résumé français
|
||||
\include{abstract} % résumé anglais
|
||||
\cleardoublepage
|
||||
|
||||
\tableofcontents % production de la TdM
|
||||
\cleardoublepage
|
||||
|
||||
\listoftables % production de la liste des tableaux
|
||||
\cleardoublepage
|
||||
|
||||
\listoffigures % production de la liste des figures
|
||||
\cleardoublepage
|
||||
|
||||
%\dedicace{Dédicace si désiré}
|
||||
%\cleardoublepage
|
||||
|
||||
\epigraphe{Dieu ne se soucie pas de nos difficultés mathématiques. Il intègre empiriquement.}{Albert Einstein}
|
||||
\cleardoublepage
|
||||
|
||||
\include{remerciements} % remerciements
|
||||
|
||||
\mainmatter % corps du document
|
||||
|
||||
\include{introduction} % introduction
|
||||
\include{chapitre1} % chapitre 1
|
||||
\include{chapitre2} % chapitre 2, etc.
|
||||
\include{chapitre3}
|
||||
\include{chapitre4}
|
||||
\include{chapitre5}
|
||||
\include{chapitre6}
|
||||
\include{chapitre7}
|
||||
\include{chapitre8}
|
||||
\include{chapitre9}
|
||||
\include{conclusion} % conclusion
|
||||
|
||||
\appendix % annexes le cas échéant
|
||||
|
||||
\include{annexe1} % Annexe 1
|
||||
\include{annexe2} % Annexe 2
|
||||
\include{annexe3} % Annexe 3
|
||||
|
||||
\bibliography{memoire} % production de la bibliographie
|
||||
|
||||
\include{deed}
|
||||
|
||||
\end{document}
|
137
memoire/gabarit-maitrise.toc
Normal file
137
memoire/gabarit-maitrise.toc
Normal file
|
@ -0,0 +1,137 @@
|
|||
\select@language {french}
|
||||
\select@language {french}
|
||||
\contentsline {chapter}{R\IeC {\'e}sum\IeC {\'e}}{iii}{section*.2}
|
||||
\contentsline {chapter}{Abstract}{v}{section*.4}
|
||||
\contentsline {chapter}{Table des mati{\`e}res}{vii}{section*.5}
|
||||
\contentsline {chapter}{Liste des tableaux}{xi}{section*.6}
|
||||
\contentsline {chapter}{Liste des figures}{xiii}{section*.7}
|
||||
\contentsline {chapter}{Remerciements}{xvii}{section*.9}
|
||||
\contentsline {chapter}{Introduction}{1}{section*.11}
|
||||
\contentsline {chapter}{\chapternumberline {1}Les mod\IeC {\`e}les de rendements financiers}{3}{chapter.1}
|
||||
\contentsline {section}{\numberline {1.1}L'utilisation de mod\IeC {\`e}les en finance}{3}{section.1.1}
|
||||
\contentsline {subsection}{\numberline {1.1.1}Diff\IeC {\'e}rents types de mod\IeC {\`e}les}{3}{subsection.1.1.1}
|
||||
\contentsline {subsection}{\numberline {1.1.2}Le risque de mod\IeC {\'e}lisation}{4}{subsection.1.1.2}
|
||||
\contentsline {section}{\numberline {1.2}Les rendements financiers}{5}{section.1.2}
|
||||
\contentsline {subsection}{\numberline {1.2.1}D\IeC {\'e}finitions et notations}{5}{subsection.1.2.1}
|
||||
\contentsline {subsection}{\numberline {1.2.2}Rendements cumul\IeC {\'e}s}{7}{subsection.1.2.2}
|
||||
\contentsline {subsection}{\numberline {1.2.3}Donn\IeC {\'e}es disponibles}{8}{subsection.1.2.3}
|
||||
\contentsline {section}{\numberline {1.3}Les premiers mod\IeC {\`e}les}{8}{section.1.3}
|
||||
\contentsline {subsection}{\numberline {1.3.1}Le mod\IeC {\`e}le de Bachelier}{8}{subsection.1.3.1}
|
||||
\contentsline {subsection}{\numberline {1.3.2}Proposition de Mandelbrot}{11}{subsection.1.3.2}
|
||||
\contentsline {subsection}{\numberline {1.3.3}Le mod\IeC {\`e}le de Press}{12}{subsection.1.3.3}
|
||||
\contentsline {subsection}{\numberline {1.3.4}Le mod\IeC {\`e}le de Praetz}{15}{subsection.1.3.4}
|
||||
\contentsline {section}{\numberline {1.4}Conditions essentielles de Madan et Seneta}{16}{section.1.4}
|
||||
\contentsline {chapter}{\chapternumberline {2}La distribution de Laplace asym\IeC {\'e}trique g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e}{19}{chapter.2}
|
||||
\contentsline {section}{\numberline {2.1}Le processus de Laplace}{19}{section.2.1}
|
||||
\contentsline {subsection}{\numberline {2.1.1}Le processus gamma}{20}{subsection.2.1.1}
|
||||
\contentsline {subsection}{\numberline {2.1.2}Le processus de Wiener}{21}{subsection.2.1.2}
|
||||
\contentsline {subsection}{\numberline {2.1.3}Le processus de Laplace est un processus subordonn\IeC {\'e}}{22}{subsection.2.1.3}
|
||||
\contentsline {section}{\numberline {2.2}Distribution de Laplace asym\IeC {\'e}trique g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e}{25}{section.2.2}
|
||||
\contentsline {subsection}{\numberline {2.2.1}Fonction caract\IeC {\'e}ristique}{25}{subsection.2.2.1}
|
||||
\contentsline {subsection}{\numberline {2.2.2}Invariance d'\IeC {\'e}chelle}{26}{subsection.2.2.2}
|
||||
\contentsline {subsection}{\numberline {2.2.3}Fonctions g\IeC {\'e}n\IeC {\'e}ratrices}{28}{subsection.2.2.3}
|
||||
\contentsline {subsection}{\numberline {2.2.4}Moments et r\IeC {\^o}le des param\IeC {\`e}tres}{28}{subsection.2.2.4}
|
||||
\contentsline {subsection}{\numberline {2.2.5}Changement d'\IeC {\'e}chelle et de localisation}{30}{subsection.2.2.5}
|
||||
\contentsline {subsection}{\numberline {2.2.6}Repr\IeC {\'e}sentation alternative et simulation}{32}{subsection.2.2.6}
|
||||
\contentsline {subsection}{\numberline {2.2.7}Fonction de Bessel et densit\IeC {\'e}}{33}{subsection.2.2.7}
|
||||
\contentsline {section}{\numberline {2.3}Cas particuliers}{35}{section.2.3}
|
||||
\contentsline {subsection}{\numberline {2.3.1}Distribution de Laplace asym\IeC {\'e}trique}{35}{subsection.2.3.1}
|
||||
\contentsline {section}{\numberline {2.4}Relation avec le mod\IeC {\`e}le de \cite {madan1990variance}}{37}{section.2.4}
|
||||
\contentsline {chapter}{\chapternumberline {3}Approximation de la densit\IeC {\'e} et de la fonction de r\IeC {\'e}partition}{39}{chapter.3}
|
||||
\contentsline {section}{\numberline {3.1}L'approximation de Laplace}{39}{section.3.1}
|
||||
\contentsline {section}{\numberline {3.2}L'approximation de Temme}{41}{section.3.2}
|
||||
\contentsline {section}{\numberline {3.3}La m\IeC {\'e}thode du point de selle}{42}{section.3.3}
|
||||
\contentsline {subsection}{\numberline {3.3.1}Approximation de la densit\IeC {\'e}}{42}{subsection.3.3.1}
|
||||
\contentsline {subsection}{\numberline {3.3.2}Unicit\IeC {\'e} du point de selle}{44}{subsection.3.3.2}
|
||||
\contentsline {subsection}{\numberline {3.3.3}Approximation de la fonction de r\IeC {\'e}partition}{44}{subsection.3.3.3}
|
||||
\contentsline {subsection}{\numberline {3.3.4}Quelques propri\IeC {\'e}t\IeC {\'e}s des approximations}{45}{subsection.3.3.4}
|
||||
\contentsline {section}{\numberline {3.4}Application de la m\IeC {\'e}thode du point de selle}{46}{section.3.4}
|
||||
\contentsline {subsection}{\numberline {3.4.1}Approximation de la densit\IeC {\'e}}{46}{subsection.3.4.1}
|
||||
\contentsline {subsection}{\numberline {3.4.2}Approximation de la fonction de r\IeC {\'e}partition}{47}{subsection.3.4.2}
|
||||
\contentsline {chapter}{\chapternumberline {4}M\IeC {\'e}thode des moments g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e}{49}{chapter.4}
|
||||
\contentsline {section}{\numberline {4.1}Introduction}{49}{section.4.1}
|
||||
\contentsline {subsection}{\numberline {4.1.1}M\IeC {\'e}thode classique des moments}{50}{subsection.4.1.1}
|
||||
\contentsline {section}{\numberline {4.2}M\IeC {\'e}thode des moments g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e}{50}{section.4.2}
|
||||
\contentsline {subsection}{\numberline {4.2.1}D\IeC {\'e}finition}{51}{subsection.4.2.1}
|
||||
\contentsline {subsection}{\numberline {4.2.2}Convergence}{52}{subsection.4.2.2}
|
||||
\contentsline {subsection}{\numberline {4.2.3}Matrice de pond\IeC {\'e}ration optimale}{53}{subsection.4.2.3}
|
||||
\contentsline {subsection}{\numberline {4.2.4}M\IeC {\'e}thode des moments g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e it\IeC {\'e}rative}{55}{subsection.4.2.4}
|
||||
\contentsline {subsection}{\numberline {4.2.5}Distribution asymptotique des estimateurs}{55}{subsection.4.2.5}
|
||||
\contentsline {section}{\numberline {4.3}Estimation sous contraintes}{58}{section.4.3}
|
||||
\contentsline {subsection}{\numberline {4.3.1}Distribution asymptotique des estimateurs contraints}{59}{subsection.4.3.1}
|
||||
\contentsline {section}{\numberline {4.4}Tests d'hypoth\IeC {\`e}ses param\IeC {\'e}triques}{61}{section.4.4}
|
||||
\contentsline {subsection}{\numberline {4.4.1}Test de Wald}{61}{subsection.4.4.1}
|
||||
\contentsline {subsection}{\numberline {4.4.2}Test du multiplicateur de Lagrange}{62}{subsection.4.4.2}
|
||||
\contentsline {subsection}{\numberline {4.4.3}Test bas\IeC {\'e} sur la statistique de m\IeC {\'e}trique de distance}{63}{subsection.4.4.3}
|
||||
\contentsline {subsection}{\numberline {4.4.4}En r\IeC {\'e}sum\IeC {\'e}}{63}{subsection.4.4.4}
|
||||
\contentsline {chapter}{\chapternumberline {5}M\IeC {\'e}thode de l'\IeC {\'e}quation d'estimation optimale}{65}{chapter.5}
|
||||
\contentsline {section}{\numberline {5.1}\IeC {\'E}quation d'estimation optimale}{67}{section.5.1}
|
||||
\contentsline {section}{\numberline {5.2}\IeC {\'E}quation d'estimation optimale modifi\IeC {\'e}e}{70}{section.5.2}
|
||||
\contentsline {chapter}{\chapternumberline {6}Estimation des param\IeC {\`e}tres de la distribution de Laplace asym\IeC {\'e}trique g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e}{73}{chapter.6}
|
||||
\contentsline {section}{\numberline {6.1}Vecteur de param\IeC {\`e}tres initiaux}{73}{section.6.1}
|
||||
\contentsline {section}{\numberline {6.2}M\IeC {\'e}thode des moments g\IeC {\'e}n\IeC {\'e}ralis\IeC {\'e}e}{74}{section.6.2}
|
||||
\contentsline {subsection}{\numberline {6.2.1}Matrice de pond\IeC {\'e}ration optimale}{75}{subsection.6.2.1}
|
||||
\contentsline {subsection}{\numberline {6.2.2}Variance-covariance des param\IeC {\`e}tres}{76}{subsection.6.2.2}
|
||||
\contentsline {subsection}{\numberline {6.2.3}Contraintes lin\IeC {\'e}aires}{77}{subsection.6.2.3}
|
||||
\contentsline {section}{\numberline {6.3}M\IeC {\'e}thode de l'\IeC {\'e}quation d'estimation optimale}{78}{section.6.3}
|
||||
\contentsline {chapter}{\chapternumberline {7}Tests statistiques}{81}{chapter.7}
|
||||
\contentsline {section}{\numberline {7.1}Test de normalit\IeC {\'e}}{81}{section.7.1}
|
||||
\contentsline {subsection}{\numberline {7.1.1}Test de Shapiro-Wilk}{81}{subsection.7.1.1}
|
||||
\contentsline {subsection}{\numberline {7.1.2}Test d\IeC {\textquoteright }Epps-Pulley}{82}{subsection.7.1.2}
|
||||
\contentsline {section}{\numberline {7.2}Tests d'ad\IeC {\'e}quation}{82}{section.7.2}
|
||||
\contentsline {subsection}{\numberline {7.2.1}Test $\chi ^2$ de Pearson}{83}{subsection.7.2.1}
|
||||
\contentsline {subsection}{\numberline {7.2.2}Test de Kolmogorov-Smirnov}{84}{subsection.7.2.2}
|
||||
\contentsline {subsection}{\numberline {7.2.3}Test de distance minimale bas\IeC {\'e} sur la fonction g\IeC {\'e}n\IeC {\'e}ratrice des moments}{85}{subsection.7.2.3}
|
||||
\contentsline {chapter}{\chapternumberline {8}\IeC {\'E}valuation d'options}{87}{chapter.8}
|
||||
\contentsline {section}{\numberline {8.1}D\IeC {\'e}finitions}{87}{section.8.1}
|
||||
\contentsline {subsection}{\numberline {8.1.1}\IeC {\'E}quation martingale}{88}{subsection.8.1.1}
|
||||
\contentsline {subsection}{\numberline {8.1.2}Param\IeC {\`e}tres neutres au risque}{89}{subsection.8.1.2}
|
||||
\contentsline {section}{\numberline {8.2}Aper\IeC {\c c}u du mod\IeC {\`e}le de Black-Scholes}{90}{section.8.2}
|
||||
\contentsline {section}{\numberline {8.3}M\IeC {\'e}thodes d'\IeC {\'e}valuation pour options europ\IeC {\'e}ennes}{90}{section.8.3}
|
||||
\contentsline {subsection}{\numberline {8.3.1}M\IeC {\'e}thode de Heston}{91}{subsection.8.3.1}
|
||||
\contentsline {subsection}{\numberline {8.3.2}M\IeC {\'e}thode de Carr et Madan}{91}{subsection.8.3.2}
|
||||
\contentsline {subsection}{\numberline {8.3.3}Prix d'exercice hors du cours}{93}{subsection.8.3.3}
|
||||
\contentsline {subsection}{\numberline {8.3.4}Critique de la m\IeC {\'e}thode de Carr-Madan}{93}{subsection.8.3.4}
|
||||
\contentsline {subsection}{\numberline {8.3.5}M\IeC {\'e}thode d\IeC {\textquoteright }Epps}{93}{subsection.8.3.5}
|
||||
\contentsline {section}{\numberline {8.4}Particularit\IeC {\'e}s}{95}{section.8.4}
|
||||
\contentsline {subsection}{\numberline {8.4.1}Option sur actions avec dividendes}{95}{subsection.8.4.1}
|
||||
\contentsline {subsection}{\numberline {8.4.2}Options sur contrats \IeC {\`a} terme et taux de change}{95}{subsection.8.4.2}
|
||||
\contentsline {chapter}{\chapternumberline {9}Exemple d'application}{97}{chapter.9}
|
||||
\contentsline {section}{\numberline {9.1}Description des donn\IeC {\'e}es}{97}{section.9.1}
|
||||
\contentsline {section}{\numberline {9.2}Estimation}{99}{section.9.2}
|
||||
\contentsline {section}{\numberline {9.3}Approximation}{104}{section.9.3}
|
||||
\contentsline {section}{\numberline {9.4}Graphiques}{105}{section.9.4}
|
||||
\contentsline {section}{\numberline {9.5}Tests statistiques}{108}{section.9.5}
|
||||
\contentsline {section}{\numberline {9.6}\IeC {\'E}valuation d'options}{109}{section.9.6}
|
||||
\contentsline {chapter}{Conclusion}{113}{section*.52}
|
||||
\contentsline {appendix}{\chapternumberline {A}\IeC {\'E}l\IeC {\'e}ments de th\IeC {\'e}orie des probabilit\IeC {\'e}s}{115}{appendix.A}
|
||||
\contentsline {section}{\numberline {A.1}D\IeC {\'e}finitions de base}{115}{section.A.1}
|
||||
\contentsline {section}{\numberline {A.2}Transform\IeC {\'e}es d'une variable al\IeC {\'e}atoire}{116}{section.A.2}
|
||||
\contentsline {subsection}{\numberline {A.2.1}La fonction caract\IeC {\'e}ristique}{116}{subsection.A.2.1}
|
||||
\contentsline {subsubsection}{Transform\IeC {\'e}e de Fourier}{116}{section*.53}
|
||||
\contentsline {subsubsection}{D\IeC {\'e}finition}{116}{section*.54}
|
||||
\contentsline {subsubsection}{Les moments}{117}{section*.55}
|
||||
\contentsline {subsection}{\numberline {A.2.2}Inversion de la fonction caract\IeC {\'e}ristique}{117}{subsection.A.2.2}
|
||||
\contentsline {subsubsection}{La densit\IeC {\'e}}{117}{section*.56}
|
||||
\contentsline {subsubsection}{La fonction de r\IeC {\'e}partition}{117}{section*.57}
|
||||
\contentsline {subsection}{\numberline {A.2.3}La fonction g\IeC {\'e}n\IeC {\'e}ratrice des moments}{118}{subsection.A.2.3}
|
||||
\contentsline {subsection}{\numberline {A.2.4}La fonction g\IeC {\'e}n\IeC {\'e}ratrice des cumulants}{119}{subsection.A.2.4}
|
||||
\contentsline {subsection}{\numberline {A.2.5}La transform\IeC {\'e}e d'Esscher}{120}{subsection.A.2.5}
|
||||
\contentsline {section}{\numberline {A.3}La transform\IeC {\'e}e de Fourier rapide}{120}{section.A.3}
|
||||
\contentsline {section}{\numberline {A.4}Processus de L\IeC {\'e}vy}{121}{section.A.4}
|
||||
\contentsline {subsection}{\numberline {A.4.1}D\IeC {\'e}finition et propri\IeC {\'e}t\IeC {\'e}s}{121}{subsection.A.4.1}
|
||||
\contentsline {subsubsection}{Repr\IeC {\'e}sentation de L\IeC {\'e}vy-Khintchine}{122}{section*.58}
|
||||
\contentsline {subsubsection}{Repr\IeC {\'e}sentation de L\IeC {\'e}vy-It\IeC {\^o}}{122}{section*.59}
|
||||
\contentsline {subsection}{\numberline {A.4.2}Processus subordonn\IeC {\'e}}{123}{subsection.A.4.2}
|
||||
\contentsline {section}{\numberline {A.5}Th\IeC {\'e}or\IeC {\`e}mes d'int\IeC {\'e}gration}{123}{section.A.5}
|
||||
\contentsline {subsection}{\numberline {A.5.1}Th\IeC {\'e}or\IeC {\`e}me de convergence domin\IeC {\'e}e de Lebesgue}{124}{subsection.A.5.1}
|
||||
\contentsline {subsection}{\numberline {A.5.2}Th\IeC {\'e}or\IeC {\`e}me de Fubini}{124}{subsection.A.5.2}
|
||||
\contentsline {appendix}{\chapternumberline {B}\IeC {\'E}l\IeC {\'e}ments de statistique math\IeC {\'e}matique}{125}{appendix.B}
|
||||
\contentsline {section}{\numberline {B.1}Loi faible des grands nombres}{125}{section.B.1}
|
||||
\contentsline {section}{\numberline {B.2}Th\IeC {\'e}or\IeC {\`e}me central limite}{125}{section.B.2}
|
||||
\contentsline {subsection}{\numberline {B.2.1}Cas univari\IeC {\'e}}{126}{subsection.B.2.1}
|
||||
\contentsline {subsection}{\numberline {B.2.2}Cas multivari\IeC {\'e}}{126}{subsection.B.2.2}
|
||||
\contentsline {section}{\numberline {B.3}M\IeC {\'e}thode delta multivari\IeC {\'e}e}{127}{section.B.3}
|
||||
\contentsline {appendix}{\chapternumberline {C}Donn\IeC {\'e}es}{129}{appendix.C}
|
||||
\contentsline {chapter}{Bibliographie}{131}{section*.62}
|
||||
\contentsline {chapter}{Contrat de partage}{137}{section*.64}
|
80
memoire/introduction.aux
Normal file
80
memoire/introduction.aux
Normal file
|
@ -0,0 +1,80 @@
|
|||
\relax
|
||||
\providecommand\hyper@newdestlabel[2]{}
|
||||
\@writefile{toc}{\contentsline {chapter}{Introduction}{1}{section*.11}}
|
||||
\@setckpt{introduction}{
|
||||
\setcounter{page}{3}
|
||||
\setcounter{equation}{0}
|
||||
\setcounter{enumi}{0}
|
||||
\setcounter{enumii}{0}
|
||||
\setcounter{enumiii}{0}
|
||||
\setcounter{enumiv}{0}
|
||||
\setcounter{footnote}{0}
|
||||
\setcounter{mpfootnote}{0}
|
||||
\setcounter{@memmarkcntra}{0}
|
||||
\setcounter{storedpagenumber}{1}
|
||||
\setcounter{book}{0}
|
||||
\setcounter{part}{0}
|
||||
\setcounter{chapter}{0}
|
||||
\setcounter{section}{0}
|
||||
\setcounter{subsection}{0}
|
||||
\setcounter{subsubsection}{0}
|
||||
\setcounter{paragraph}{0}
|
||||
\setcounter{subparagraph}{0}
|
||||
\setcounter{@ppsavesec}{0}
|
||||
\setcounter{@ppsaveapp}{0}
|
||||
\setcounter{vslineno}{0}
|
||||
\setcounter{poemline}{0}
|
||||
\setcounter{modulo@vs}{0}
|
||||
\setcounter{memfvsline}{0}
|
||||
\setcounter{verse}{0}
|
||||
\setcounter{chrsinstr}{0}
|
||||
\setcounter{poem}{0}
|
||||
\setcounter{newflo@tctr}{4}
|
||||
\setcounter{@contsubnum}{0}
|
||||
\setcounter{maxsecnumdepth}{2}
|
||||
\setcounter{sidefootnote}{0}
|
||||
\setcounter{pagenote}{0}
|
||||
\setcounter{pagenoteshadow}{0}
|
||||
\setcounter{memfbvline}{0}
|
||||
\setcounter{bvlinectr}{0}
|
||||
\setcounter{cp@cntr}{0}
|
||||
\setcounter{ism@mctr}{0}
|
||||
\setcounter{xsm@mctr}{0}
|
||||
\setcounter{csm@mctr}{0}
|
||||
\setcounter{ksm@mctr}{0}
|
||||
\setcounter{xksm@mctr}{0}
|
||||
\setcounter{cksm@mctr}{0}
|
||||
\setcounter{msm@mctr}{0}
|
||||
\setcounter{xmsm@mctr}{0}
|
||||
\setcounter{cmsm@mctr}{0}
|
||||
\setcounter{bsm@mctr}{0}
|
||||
\setcounter{workm@mctr}{0}
|
||||
\setcounter{sheetsequence}{21}
|
||||
\setcounter{lastsheet}{155}
|
||||
\setcounter{lastpage}{137}
|
||||
\setcounter{figure}{0}
|
||||
\setcounter{lofdepth}{1}
|
||||
\setcounter{table}{0}
|
||||
\setcounter{lotdepth}{1}
|
||||
\setcounter{NAT@ctr}{0}
|
||||
\setcounter{nprt@mantissa@digitsbefore}{0}
|
||||
\setcounter{nprt@mantissa@digitsafter}{0}
|
||||
\setcounter{nprt@exponent@digitsbefore}{0}
|
||||
\setcounter{nprt@exponent@digitsafter}{0}
|
||||
\setcounter{nprt@digitsfirstblock}{0}
|
||||
\setcounter{nprt@blockcnt}{0}
|
||||
\setcounter{nprt@cntprint}{0}
|
||||
\setcounter{parentequation}{0}
|
||||
\setcounter{thmt@dummyctr}{0}
|
||||
\setcounter{Item}{0}
|
||||
\setcounter{Hfootnote}{0}
|
||||
\setcounter{memhycontfloat}{0}
|
||||
\setcounter{Hpagenote}{0}
|
||||
\setcounter{bookmark@seq@number}{7}
|
||||
\setcounter{ContinuedFloat}{0}
|
||||
\setcounter{app@runs}{1}
|
||||
\setcounter{pspicture}{0}
|
||||
\setcounter{section@level}{0}
|
||||
\setcounter{theo}{0}
|
||||
\setcounter{hypothese}{0}
|
||||
}
|
3338
memoire/introduction.log
Normal file
3338
memoire/introduction.log
Normal file
File diff suppressed because it is too large
Load diff
75
memoire/introduction.tex
Normal file
75
memoire/introduction.tex
Normal file
|
@ -0,0 +1,75 @@
|
|||
\chapter*{Introduction}
|
||||
\phantomsection\addcontentsline{toc}{chapter}{Introduction} % inclure dans TdM
|
||||
|
||||
L'utilisation de la distribution de Laplace asymétrique généralisée
|
||||
dans le cadre de la modélisation des rendements financiers est de plus
|
||||
en plus courante dans les milieux académiques et pratiques. Entre
|
||||
autres, elle présente une alternative intéressante au modèle de
|
||||
Black-Scholes pour l'évaluation des options de type européennes. De
|
||||
plus, elle peut être utilisée pour modéliser les rendements
|
||||
obligataires à long terme et les variations du taux de
|
||||
change. Cependant, la littérature actuelle présente peu d'outils qui
|
||||
facilitent l'utilisation en pratique de cette distribution. La
|
||||
principale motivation derrière le travail de recherche et de synthèse
|
||||
présenté dans ce texte a été de développer certains outils qui
|
||||
permettent l'estimation des paramètres de la distribution et
|
||||
l'approximation de celle-ci. De plus, plusieurs tests statistiques
|
||||
sont présentés afin d'évaluer la validité du modèle estimé et de
|
||||
certaines contraintes linéaires qu'on pourrait lui appliquer.
|
||||
|
||||
Au chapitre 1, on présente les différents types de modèles financiers
|
||||
ainsi que le risque associé à la modélisation. On introduit aussi
|
||||
différents concepts théoriques entourant les rendements
|
||||
financiers. Puis, on dresse un historique des modèles financiers ayant
|
||||
mené à l'utilisation de la distribution de Laplace asymétrique
|
||||
généralisée.
|
||||
|
||||
Au chapitre 2, on introduit les processus gamma et de Wiener qui sont
|
||||
les deux composantes essentielles du processus de Laplace. Puis, on
|
||||
présente les principales caractéristiques de la distribution de
|
||||
Laplace asymétrique généralisée. Enfin, on présente quelques cas
|
||||
particuliers de celle-ci et on fait le lien avec le modèle
|
||||
variance-gamma de Madan et Seneta.
|
||||
|
||||
Au chapitre 3, on présente la méthode du point de selle qui permet
|
||||
d'effectuer l'approximation de la densité et de la fonction de
|
||||
répartition lorsqu'elles n'ont pas de forme analytique. On applique
|
||||
ensuite cette méthode à la distribution de Laplace asymétrique
|
||||
généralisée.
|
||||
|
||||
Au chapitre 4, on présente la méthode des moments généralisée ainsi
|
||||
que son utilisation dans le cadre de l'estimation sous contraintes. On
|
||||
présente ensuite certains tests d'hypothèse paramétriques.
|
||||
|
||||
Au chapitre 5, on présente la méthode des équations d'estimation
|
||||
optimales ainsi qu'une version légèrement modifiée qui diminue la
|
||||
quantité de calcul nécessaire.
|
||||
|
||||
Au chapitre 6, on applique les méthodes d'estimation des deux
|
||||
chapitres précédents à la distribution de Laplace asymétrique
|
||||
généralisée. On présente en premier lieu une méthode qui permet
|
||||
d'obtenir un point de départ pour l'algorithme d'optimisation. Puis,
|
||||
on détaille les résultats obtenus.
|
||||
|
||||
Au chapitre 7, on présente les tests de normalité de Shapiro-Wilk et
|
||||
d'Epps-Pulley, puis ceux d'adéquation du $\chi^2$ de Pearson, celui de
|
||||
Kolmogorov-Smirnov ainsi qu'un autre basé sur la fonction
|
||||
génératrice des moments.
|
||||
|
||||
Au chapitre 8, on présente différentes méthodes pour l'évaluation
|
||||
d'options. On présente d'abord quelques notions liées aux produits
|
||||
dérivés, puis on détaille trois méthodes pouvant être utilisées avec
|
||||
la distribution de Laplace asymétrique généralisée. Enfin, on présente
|
||||
quelques particularités liées à certains titres financiers.
|
||||
|
||||
Au chapitre 9, on présente un exemple d'application des outils
|
||||
développés aux chapitres 3 à 8 avec un ensemble de données.
|
||||
|
||||
Enfin, on présente en annexe certaines notions de théorie des
|
||||
probabilités et de statistique.
|
||||
|
||||
|
||||
%%% Local Variables:
|
||||
%%% mode: latex
|
||||
%%% TeX-master: "gabarit-maitrise"
|
||||
%%% End:
|
697
memoire/memoire.bib
Normal file
697
memoire/memoire.bib
Normal file
|
@ -0,0 +1,697 @@
|
|||
@article{KOUTROUVELIS01011980,
|
||||
author = {Koutrouvelis, I. A.},
|
||||
title = {A goodness-of-fit test of simple hypotheses based on
|
||||
the empirical characteristic function},
|
||||
volume = 67,
|
||||
number = 1,
|
||||
pages = {238-240},
|
||||
year = 1980,
|
||||
doi = {10.1093/biomet/67.1.238},
|
||||
abstract = {SUMMARY The empirical characteristic function φn(t)
|
||||
and its asymptotic distribution are utilized to find
|
||||
a chi-squared goodness-of-fit test for simple null
|
||||
hypotheses. In addition the optimum number and
|
||||
location of points t at which φn(t) has to be
|
||||
evaluated is investigated for specified alternative
|
||||
hypotheses.},
|
||||
URL =
|
||||
{http://biomet.oxfordjournals.org/content/67/1/238.abstract},
|
||||
eprint =
|
||||
{http://biomet.oxfordjournals.org/content/67/1/238.full.pdf+html},
|
||||
journal = {Biometrika}
|
||||
}
|
||||
|
||||
@Manual{RpackageVarianceGamma,
|
||||
title = {VarianceGamma: The Variance Gamma Distribution},
|
||||
author = {David Scott and Christine Yang Dong},
|
||||
year = 2012,
|
||||
note = {R package version 0.3-1},
|
||||
url = {http://CRAN.R-project.org/package=VarianceGamma},
|
||||
}
|
||||
|
||||
@Manual{Rsoftware,
|
||||
title = {R: A Language and Environment for Statistical
|
||||
Computing},
|
||||
author = {{R Core Team}},
|
||||
organization = {R Foundation for Statistical Computing},
|
||||
address = {Vienna, Austria},
|
||||
year = 2012,
|
||||
note = {{ISBN} 3-900051-07-0},
|
||||
url = {http://www.R-project.org/},
|
||||
}
|
||||
|
||||
@ARTICLE{Singer:2009,
|
||||
AUTHOR = {Singer, S. and Nelder, J. },
|
||||
TITLE = {Nelder-Mead algorithm},
|
||||
YEAR = 2009,
|
||||
JOURNAL = {Scholarpedia},
|
||||
VOLUME = 4,
|
||||
NUMBER = 7,
|
||||
PAGES = 2928,
|
||||
URL = {http://dx.doi.org/10.4249/scholarpedia.2928}
|
||||
}
|
||||
|
||||
@book{abramowitz1965handbook,
|
||||
title = {Handbook of mathematical functions: with formulas,
|
||||
graphs, and mathematical tables},
|
||||
author = {Abramowitz, Milton and Stegun, Irene A},
|
||||
volume = 55,
|
||||
year = 1965,
|
||||
publisher = {Dover publications}
|
||||
}
|
||||
|
||||
@article{applebaum2004levy,
|
||||
title = {L{\'e}vy processes: From probability to finance and
|
||||
quantum groups},
|
||||
author = {Applebaum, David},
|
||||
journal = {Notices of the AMS},
|
||||
volume = 51,
|
||||
number = 11,
|
||||
pages = {1336--1347},
|
||||
year = 2004
|
||||
}
|
||||
|
||||
@book{bachelier1900theorie,
|
||||
title = {Th{\'e}orie de la sp{\'e}culation},
|
||||
author = {Bachelier, Louis},
|
||||
year = 1900,
|
||||
publisher = {Gauthier-Villars}
|
||||
}
|
||||
|
||||
@book{barndorff2001levy,
|
||||
title = {L{\'e}vy Processes: Theory and Applications},
|
||||
author = {Barndorff-Nielsen, O.E.E. and Mikosch, T.E. and
|
||||
Resnick, S.I.E.},
|
||||
isbn = 9780817641672,
|
||||
lccn = {lc00068064},
|
||||
url = {http://books.google.ca/books?id=ExpTdTauXMwC},
|
||||
year = 2001,
|
||||
publisher = {Birkhäuser}
|
||||
}
|
||||
|
||||
@article{berkson1980minimum,
|
||||
title = {Minimum chi-square, not maximum likelihood!},
|
||||
author = {Berkson, Joseph},
|
||||
journal = {The Annals of Statistics},
|
||||
pages = {457--487},
|
||||
year = 1980,
|
||||
publisher = {JSTOR}
|
||||
}
|
||||
|
||||
@book{bingham2004risk,
|
||||
title = {Risk-neutral valuation: Pricing and hedging of
|
||||
financial derivatives},
|
||||
author = {Bingham, Nicholas H and Kiesel, R{\"u}diger},
|
||||
year = 2004,
|
||||
publisher = {Springer}
|
||||
}
|
||||
|
||||
@article{black1973pricing,
|
||||
title = {The pricing of options and corporate liabilities},
|
||||
author = {Black, Fischer and Scholes, Myron},
|
||||
journal = {The journal of political economy},
|
||||
pages = {637--654},
|
||||
year = 1973,
|
||||
publisher = {JSTOR}
|
||||
}
|
||||
|
||||
@article{black1976pricing,
|
||||
title = {The pricing of commodity contracts},
|
||||
author = {Black, Fischer},
|
||||
journal = {Journal of financial economics},
|
||||
volume = 3,
|
||||
number = 1,
|
||||
pages = {167--179},
|
||||
year = 1976,
|
||||
publisher = {Elsevier}
|
||||
}
|
||||
|
||||
@article{buckle1995bayesian,
|
||||
title = {Bayesian inference for stable distributions},
|
||||
author = {Buckle, DJ},
|
||||
journal = {Journal of the American Statistical Association},
|
||||
volume = 90,
|
||||
number = 430,
|
||||
pages = {605--613},
|
||||
year = 1995,
|
||||
publisher = {Taylor \& Francis Group}
|
||||
}
|
||||
|
||||
@book{butler2007saddlepoint,
|
||||
title = {Saddlepoint approximations with applications},
|
||||
author = {Butler, Ronald W},
|
||||
volume = 22,
|
||||
year = 2007,
|
||||
publisher = {Cambridge University Press}
|
||||
}
|
||||
|
||||
@article{carr1999option,
|
||||
title = {Option valuation using the fast Fourier transform},
|
||||
author = {Carr, Peter and Madan, Dilip},
|
||||
journal = {Journal of Computational Finance},
|
||||
volume = 2,
|
||||
number = 4,
|
||||
pages = {61--73},
|
||||
year = 1999
|
||||
}
|
||||
|
||||
@article{crowder1986consistency,
|
||||
title = {On consistency and inconsistency of estimating
|
||||
equations},
|
||||
author = {Crowder, Martin},
|
||||
journal = {Econometric Theory},
|
||||
pages = {305--330},
|
||||
year = 1986,
|
||||
publisher = {JSTOR}
|
||||
}
|
||||
|
||||
@article{crowder1987linear,
|
||||
title = {On linear and quadratic estimating functions},
|
||||
author = {Crowder, Martin},
|
||||
journal = {Biometrika},
|
||||
volume = 74,
|
||||
number = 3,
|
||||
pages = {591--597},
|
||||
year = 1987,
|
||||
publisher = {Biometrika Trust}
|
||||
}
|
||||
|
||||
@article{daniels1954saddlepoint,
|
||||
title = {Saddlepoint approximations in statistics},
|
||||
author = {Daniels, Henry E},
|
||||
journal = {The Annals of Mathematical Statistics},
|
||||
pages = {631--650},
|
||||
year = 1954,
|
||||
publisher = {JSTOR}
|
||||
}
|
||||
|
||||
@article{daniels1987tail,
|
||||
title = {Tail probability approximations},
|
||||
author = {Daniels, Henry E},
|
||||
journal = {International Statistical Review/Revue
|
||||
Internationale de Statistique},
|
||||
pages = {37--48},
|
||||
year = 1987,
|
||||
publisher = {JSTOR}
|
||||
}
|
||||
|
||||
@TechReport{derman1996modelrisk,
|
||||
author = {Derman, Emanuel},
|
||||
title = {Model Risk},
|
||||
institution = {Goldman Sachs},
|
||||
year = 1996
|
||||
}
|
||||
|
||||
@book{dodge2004statistique,
|
||||
title = {Statistique: dictionnaire encyclop{\'e}dique},
|
||||
author = {Dodge, Yadolah},
|
||||
year = 2004,
|
||||
publisher = {Springer Verlag France}
|
||||
}
|
||||
|
||||
@article{epps1983test,
|
||||
title = {A test for normality based on the empirical
|
||||
characteristic function},
|
||||
author = {Epps, Thomas W and Pulley, Lawrence B},
|
||||
journal = {Biometrika},
|
||||
volume = 70,
|
||||
number = 3,
|
||||
pages = {723--726},
|
||||
year = 1983,
|
||||
publisher = {Biometrika Trust}
|
||||
}
|
||||
|
||||
@book{epps2007pricing,
|
||||
title = {Pricing derivative securities},
|
||||
author = {Epps, Thomas W},
|
||||
year = 2007,
|
||||
publisher = {World Scientific Publishing Company Incorporated}
|
||||
}
|
||||
|
||||
@book{everitt2006cambridge,
|
||||
title = {The Cambridge dictionary of statistics},
|
||||
author = {Everitt, Brian and Skrondal, Anders},
|
||||
volume = 4,
|
||||
year = 2006,
|
||||
publisher = {Cambridge University Press Cambridge}
|
||||
}
|
||||
|
||||
@article{feuerverger1981efficiency,
|
||||
title = {On the efficiency of empirical characteristic
|
||||
function procedures},
|
||||
author = {Feuerverger, Andrey and McDunnough, Philip},
|
||||
journal = {Journal of the Royal Statistical Society. Series B
|
||||
(Methodological)},
|
||||
pages = {20--27},
|
||||
year = 1981,
|
||||
publisher = {JSTOR}
|
||||
}
|
||||
|
||||
@article{fox1986large,
|
||||
title = {Large-sample properties of parameter estimates for
|
||||
strongly dependent stationary Gaussian time series},
|
||||
author = {Fox, Robert and Taqqu, Murad S},
|
||||
journal = {The Annals of Statistics},
|
||||
volume = 14,
|
||||
number = 2,
|
||||
pages = {517--532},
|
||||
year = 1986,
|
||||
publisher = {Institute of Mathematical Statistics}
|
||||
}
|
||||
|
||||
@article{gil1951note,
|
||||
title = {Note on the inversion theorem},
|
||||
author = {Gil-Pelaez, J},
|
||||
journal = {Biometrika},
|
||||
volume = 38,
|
||||
number = {3-4},
|
||||
pages = {481--482},
|
||||
year = 1951,
|
||||
publisher = {Biometrika Trust}
|
||||
}
|
||||
|
||||
@book{gourieroux1989statistique,
|
||||
title = {Statistique et mod{\`e}les {\'e}conom{\'e}triques:
|
||||
Notions g{\'e}n{\'e}rales, estimation,
|
||||
pr{\'e}vision, algorithmes},
|
||||
author = {Gourieroux, Christian and Monfort, Alain},
|
||||
volume = 1,
|
||||
year = 1989,
|
||||
publisher = {Economica}
|
||||
}
|
||||
|
||||
@book{hall2005generalized,
|
||||
title = {Generalized method of moments},
|
||||
author = {Hall, Alastair R},
|
||||
year = 2005,
|
||||
publisher = {Oxford University Press Oxford}
|
||||
}
|
||||
|
||||
@book{hamilton1994time,
|
||||
title = {Time series analysis},
|
||||
author = {Hamilton, James Douglas},
|
||||
volume = 2,
|
||||
year = 1994,
|
||||
publisher = {Cambridge Univ Press}
|
||||
}
|
||||
|
||||
@article{hansen1982large,
|
||||
title = {Large sample properties of generalized method of
|
||||
moments estimators},
|
||||
author = {Hansen, Lars Peter},
|
||||
journal = {Econometrica: Journal of the Econometric Society},
|
||||
pages = {1029--1054},
|
||||
year = 1982,
|
||||
publisher = {JSTOR}
|
||||
}
|
||||
|
||||
@article{henze1990approximation,
|
||||
title = {An approximation to the limit distribution of the
|
||||
Epps-Pulley test statistic for normality},
|
||||
author = {Henze, N},
|
||||
journal = {Metrika},
|
||||
volume = 37,
|
||||
number = 1,
|
||||
pages = {7--18},
|
||||
year = 1990,
|
||||
publisher = {Springer}
|
||||
}
|
||||
|
||||
@article{heston1993closed,
|
||||
title = {A closed-form solution for options with stochastic
|
||||
volatility with applications to bond and currency
|
||||
options},
|
||||
author = {Heston, Steven L},
|
||||
journal = {Review of financial studies},
|
||||
volume = 6,
|
||||
number = 2,
|
||||
pages = {327--343},
|
||||
year = 1993,
|
||||
publisher = {Soc Financial Studies}
|
||||
}
|
||||
|
||||
@article{hinkley1977estimation,
|
||||
title = {Estimation of the Pareto law from underreported
|
||||
data: A further analysis},
|
||||
author = {Hinkley, David V and Revankar, Nagesh S},
|
||||
journal = {Journal of Econometrics},
|
||||
volume = 5,
|
||||
number = 1,
|
||||
pages = {1--11},
|
||||
year = 1977,
|
||||
publisher = {Elsevier}
|
||||
}
|
||||
|
||||
@book{hogg1978introduction,
|
||||
title = {Introduction to mathematical statistics},
|
||||
author = {Hogg, R.V. and Craig, A.T.},
|
||||
isbn = 9780029789902,
|
||||
lccn = 77002884,
|
||||
url = {http://books.google.ca/books?id=OZYQAQAAIAAJ},
|
||||
year = 1978,
|
||||
publisher = {Macmillan}
|
||||
}
|
||||
|
||||
@book{hull1999options,
|
||||
title = {Options, futures, and other derivatives},
|
||||
author = {Hull, John C},
|
||||
year = 1999,
|
||||
publisher = {Pearson Education India}
|
||||
}
|
||||
|
||||
@article{itkin2005pricing,
|
||||
title = {Pricing options with VG model using FFT},
|
||||
author = {Itkin, Andrey},
|
||||
journal = {arXiv preprint physics/0503137},
|
||||
year = 2005
|
||||
}
|
||||
|
||||
@book{kotz2001laplace,
|
||||
title = {The Laplace Distribution and Generalizations: A
|
||||
Revisit With Applications to Communications,
|
||||
Exonomics, Engineering, and Finance},
|
||||
author = {Kotz, S. and Kozubowski, T.J. and Podg{\'o}rski, K.},
|
||||
isbn = 9780817641665,
|
||||
lccn = 00068900,
|
||||
series = {Progress in Mathematics Series},
|
||||
url = {http://books.google.ca/books?id=cb8B07hwULUC},
|
||||
year = 2001,
|
||||
publisher = {Birkh{\"a}user}
|
||||
}
|
||||
|
||||
@article{kozubowski1999class,
|
||||
title = {A class of asymmetric distributions},
|
||||
author = {Kozubowski, Tomasz J and Podg{\'o}rski, Krzysztof},
|
||||
journal = {Actuarial Research Clearing House},
|
||||
volume = 1,
|
||||
pages = {113--134},
|
||||
year = 1999,
|
||||
publisher = {Citeseer}
|
||||
}
|
||||
|
||||
@article{kozubowski2001asymmetric,
|
||||
title = {Asymmetric Laplace laws and modeling financial data},
|
||||
author = {Kozubowski, Tomasz J and Podg{\'o}rski, Krzysztof},
|
||||
journal = {Mathematical and computer modelling},
|
||||
volume = 34,
|
||||
number = 9,
|
||||
pages = {1003--1021},
|
||||
year = 2001,
|
||||
publisher = {Elsevier}
|
||||
}
|
||||
|
||||
@book{kyprianou2007introductory,
|
||||
title = {Introductory lectures on fluctuations of L{\'e}vy
|
||||
processes with applications},
|
||||
author = {Kyprianou, Andreas E},
|
||||
year = 2007,
|
||||
publisher = {Springer}
|
||||
}
|
||||
|
||||
@article{lugannani1980saddle,
|
||||
title = {Saddle point approximation for the distribution of
|
||||
the sum of independent random variables},
|
||||
author = {Lugannani, Robert and Rice, Stephen},
|
||||
journal = {Advances in applied probability},
|
||||
pages = {475--490},
|
||||
year = 1980,
|
||||
publisher = {JSTOR}
|
||||
}
|
||||
|
||||
@book{lukacs1960characteristic,
|
||||
title = {Characteristic functions},
|
||||
author = {Lukacs, Eugene},
|
||||
volume = 4,
|
||||
year = 1960,
|
||||
publisher = {Griffin London}
|
||||
}
|
||||
|
||||
@article{luong1987minimum,
|
||||
title = {Minimum-distance methods based on quadratic
|
||||
distances for transforms},
|
||||
author = {Luong, A and Thompson, ME},
|
||||
journal = {Canadian Journal of Statistics},
|
||||
volume = 15,
|
||||
number = 3,
|
||||
pages = {239--251},
|
||||
year = 1987,
|
||||
publisher = {Wiley Online Library}
|
||||
}
|
||||
|
||||
@article{madan1990variance,
|
||||
title = {The variance gamma (VG) model for share market
|
||||
returns},
|
||||
author = {Madan, Dilip B and Seneta, Eugene},
|
||||
journal = {Journal of business},
|
||||
pages = {511--524},
|
||||
year = 1990,
|
||||
publisher = {JSTOR}
|
||||
}
|
||||
|
||||
@article{madan1998variance,
|
||||
title = {The variance gamma process and option pricing},
|
||||
author = {Madan, Dilip B and Carr, Peter P and Chang, Eric C},
|
||||
journal = {European Finance Review},
|
||||
volume = 2,
|
||||
number = 1,
|
||||
pages = {79--105},
|
||||
year = 1998,
|
||||
publisher = {Kluwer Academic Publishers}
|
||||
}
|
||||
|
||||
@article{mandelbrot1963variation,
|
||||
title = {The variation of certain speculative prices},
|
||||
author = {Mandelbrot, B.},
|
||||
journal = {Journal of business},
|
||||
pages = {394--419},
|
||||
year = 1963,
|
||||
publisher = {University of Chicago Press}
|
||||
}
|
||||
|
||||
@article{merton1976option,
|
||||
title = {Option pricing when underlying stock returns are
|
||||
discontinuous},
|
||||
author = {Merton, Robert C},
|
||||
journal = {Journal of financial economics},
|
||||
volume = 3,
|
||||
number = 1,
|
||||
pages = {125--144},
|
||||
year = 1976,
|
||||
publisher = {Elsevier}
|
||||
}
|
||||
|
||||
@article{mitchell1916critique,
|
||||
title = {A critique of index numbers of the prices of stocks},
|
||||
author = {Mitchell, Wesley C},
|
||||
journal = {The Journal of Political Economy},
|
||||
pages = {625--693},
|
||||
year = 1916,
|
||||
publisher = {JSTOR}
|
||||
}
|
||||
|
||||
@book{musiela2005martingale,
|
||||
title = {Martingale methods in financial modelling},
|
||||
author = {Musiela, Marek and Rutkowski, Marek},
|
||||
volume = 36,
|
||||
year = 2005,
|
||||
publisher = {Springer}
|
||||
}
|
||||
|
||||
@article{newey1987hypothesis,
|
||||
title = {Hypothesis testing with efficient method of moments
|
||||
estimation},
|
||||
author = {Newey, Whitney K and West, Kenneth D},
|
||||
journal = {International Economic Review},
|
||||
volume = 28,
|
||||
number = 3,
|
||||
pages = {777--787},
|
||||
year = 1987,
|
||||
publisher = {JSTOR}
|
||||
}
|
||||
|
||||
@article{newey1994large,
|
||||
title = {Large sample estimation and hypothesis testing},
|
||||
author = {Newey, Whitney K and McFadden, Daniel},
|
||||
journal = {Handbook of econometrics},
|
||||
volume = 4,
|
||||
pages = {2111--2245},
|
||||
year = 1994,
|
||||
publisher = {Elsevier}
|
||||
}
|
||||
|
||||
@article{praetz1972distribution,
|
||||
title = {The distribution of share price changes},
|
||||
author = {Praetz, Peter D},
|
||||
journal = {Journal of business},
|
||||
pages = {49--55},
|
||||
year = 1972,
|
||||
publisher = {JSTOR}
|
||||
}
|
||||
|
||||
@article{press1967compound,
|
||||
title = {A compound events model for security prices},
|
||||
author = {Press, S James},
|
||||
journal = {Journal of Business},
|
||||
pages = {317--335},
|
||||
year = 1967,
|
||||
publisher = {JSTOR}
|
||||
}
|
||||
|
||||
@article{randal2004non,
|
||||
title = {Non-parametric estimation of historical volatility},
|
||||
author = {Randal, John A and Thomson, Peter J and Lally,
|
||||
Martin T},
|
||||
journal = {Quantitative Finance},
|
||||
volume = 4,
|
||||
number = 4,
|
||||
pages = {427--440},
|
||||
year = 2004,
|
||||
publisher = {Taylor \& Francis}
|
||||
}
|
||||
|
||||
@book{sato1999levy,
|
||||
title = {L{\'e}vy Processes and Infinitely Divisible
|
||||
Distributions},
|
||||
author = {Sato, K.},
|
||||
isbn = 9780521553025,
|
||||
lccn = 99015232,
|
||||
series = {Cambridge Studies in Advanced Mathematics},
|
||||
url = {http://books.google.ca/books?id=CwT5BNG0-owC},
|
||||
year = 1999,
|
||||
publisher = {Cambridge University Press}
|
||||
}
|
||||
|
||||
@book{schoutens2003levy,
|
||||
title = {L{\'e}vy processes in Finance},
|
||||
author = {Schoutens, Wim},
|
||||
year = 2003,
|
||||
publisher = {Wiley}
|
||||
}
|
||||
|
||||
@article{seneta2004fitting,
|
||||
title = {Fitting the variance-gamma model to financial data},
|
||||
author = {Seneta, Eugene},
|
||||
journal = {Journal of Applied Probability},
|
||||
pages = {177--187},
|
||||
year = 2004,
|
||||
publisher = {JSTOR}
|
||||
}
|
||||
|
||||
@article{shapiro1965analysis,
|
||||
title = {An analysis of variance test for normality (complete
|
||||
samples)},
|
||||
author = {Shapiro, Samuel Sanford and Wilk, Martin B},
|
||||
journal = {Biometrika},
|
||||
volume = 52,
|
||||
number = {3/4},
|
||||
pages = {591--611},
|
||||
year = 1965,
|
||||
publisher = {JSTOR}
|
||||
}
|
||||
|
||||
@article{shephard1991characteristic,
|
||||
title = {From characteristic function to distribution
|
||||
function: a simple framework for the theory},
|
||||
author = {Shephard, Neil G},
|
||||
journal = {Econometric Theory},
|
||||
volume = 7,
|
||||
number = 04,
|
||||
pages = {519--529},
|
||||
year = 1991,
|
||||
publisher = {Cambridge Univ Press}
|
||||
}
|
||||
|
||||
@book{spiegel1999schaum,
|
||||
title = {Schaum's mathematical handbook of formulas and
|
||||
tables},
|
||||
author = {Spiegel, Murray R and Liu, John},
|
||||
volume = 1000,
|
||||
year = 1999,
|
||||
publisher = {McGraw-Hill}
|
||||
}
|
||||
|
||||
@book{stuart1987kendall,
|
||||
title = {Kendall’s advanced theory of statistics, Vol. 1},
|
||||
author = {Stuart, Alan and Ord, J Keith},
|
||||
year = 1987,
|
||||
publisher = {Oxford University Press, New York}
|
||||
}
|
||||
|
||||
@Manual{thevolskew,
|
||||
title = {The Volatility Skew},
|
||||
author = {Alan Verga},
|
||||
year = 2013,
|
||||
url = {http://www.thevolatilityskew.com}
|
||||
}
|
||||
|
||||
@phdthesis{torczon1989multi,
|
||||
title = {Multi-directional search: a direct search algorithm
|
||||
for parallel machines},
|
||||
author = {Torczon, Virginia Joanne},
|
||||
year = 1989,
|
||||
school = {Citeseer}
|
||||
}
|
||||
|
||||
@article{wang2003evaluating,
|
||||
title = {Evaluating Kolmogorov's distribution},
|
||||
author = {Wang, Jingbo and Tsang, Wai Wan and Marsaglia,
|
||||
George},
|
||||
journal = {Journal of Statistical Software},
|
||||
volume = 8,
|
||||
number = 18,
|
||||
pages = {1--4},
|
||||
year = 2003,
|
||||
publisher = {American Statistical Association}
|
||||
}
|
||||
|
||||
@article{wendel1961non,
|
||||
title = {The non-absolute convergence of Gil-Pelaez'inversion
|
||||
integral},
|
||||
author = {Wendel, JG},
|
||||
journal = {The Annals of Mathematical Statistics},
|
||||
volume = 32,
|
||||
number = 1,
|
||||
pages = {338--339},
|
||||
year = 1961,
|
||||
publisher = {Institute of Mathematical Statistics}
|
||||
}
|
||||
|
||||
@article{teschl2004topics,
|
||||
title={Topics in Real and Functional analysis},
|
||||
author={Teschl, Gerald},
|
||||
journal={unpublished, available online at \url{http://www.mat.univie.ac.at/\~gerald}},
|
||||
year={2004}
|
||||
}
|
||||
|
||||
@article{wolfowitz1957minimum,
|
||||
title = {The minimum distance method},
|
||||
author = {Wolfowitz, Jacob},
|
||||
journal = {The Annals of Mathematical Statistics},
|
||||
pages = {75--88},
|
||||
year = 1957,
|
||||
publisher = {JSTOR}
|
||||
}
|
||||
|
||||
@book{wooldridge2001econometric,
|
||||
title = {Econometric analysis of cross section and panel
|
||||
data},
|
||||
author = {Wooldridge, Jeffrey M},
|
||||
year = 2001,
|
||||
publisher = {MIT press}
|
||||
}
|
||||
|
||||
@article{fama1993common,
|
||||
title={Common risk factors in the returns on stocks and bonds},
|
||||
author={Fama, Eugene F and French, Kenneth R},
|
||||
journal={Journal of financial economics},
|
||||
volume={33},
|
||||
number={1},
|
||||
pages={3--56},
|
||||
year={1993},
|
||||
publisher={Elsevier}
|
||||
}
|
||||
|
||||
@inproceedings{walterlevy,
|
||||
title={Levy-stability-under-addition and fractal structure of markets: imlications for the actuaries and emphasized axamination of MATIF national contract},
|
||||
author={Walter, Christian}
|
||||
}
|
1436
memoire/plainnatmod.bst
Normal file
1436
memoire/plainnatmod.bst
Normal file
File diff suppressed because it is too large
Load diff
80
memoire/remerciements.aux
Normal file
80
memoire/remerciements.aux
Normal file
|
@ -0,0 +1,80 @@
|
|||
\relax
|
||||
\providecommand\hyper@newdestlabel[2]{}
|
||||
\@writefile{toc}{\contentsline {chapter}{Remerciements}{xvii}{section*.9}}
|
||||
\@setckpt{remerciements}{
|
||||
\setcounter{page}{18}
|
||||
\setcounter{equation}{0}
|
||||
\setcounter{enumi}{0}
|
||||
\setcounter{enumii}{0}
|
||||
\setcounter{enumiii}{0}
|
||||
\setcounter{enumiv}{0}
|
||||
\setcounter{footnote}{0}
|
||||
\setcounter{mpfootnote}{0}
|
||||
\setcounter{@memmarkcntra}{0}
|
||||
\setcounter{storedpagenumber}{1}
|
||||
\setcounter{book}{0}
|
||||
\setcounter{part}{0}
|
||||
\setcounter{chapter}{0}
|
||||
\setcounter{section}{0}
|
||||
\setcounter{subsection}{0}
|
||||
\setcounter{subsubsection}{0}
|
||||
\setcounter{paragraph}{0}
|
||||
\setcounter{subparagraph}{0}
|
||||
\setcounter{@ppsavesec}{0}
|
||||
\setcounter{@ppsaveapp}{0}
|
||||
\setcounter{vslineno}{0}
|
||||
\setcounter{poemline}{0}
|
||||
\setcounter{modulo@vs}{0}
|
||||
\setcounter{memfvsline}{0}
|
||||
\setcounter{verse}{0}
|
||||
\setcounter{chrsinstr}{0}
|
||||
\setcounter{poem}{0}
|
||||
\setcounter{newflo@tctr}{4}
|
||||
\setcounter{@contsubnum}{0}
|
||||
\setcounter{maxsecnumdepth}{2}
|
||||
\setcounter{sidefootnote}{0}
|
||||
\setcounter{pagenote}{0}
|
||||
\setcounter{pagenoteshadow}{0}
|
||||
\setcounter{memfbvline}{0}
|
||||
\setcounter{bvlinectr}{0}
|
||||
\setcounter{cp@cntr}{0}
|
||||
\setcounter{ism@mctr}{0}
|
||||
\setcounter{xsm@mctr}{0}
|
||||
\setcounter{csm@mctr}{0}
|
||||
\setcounter{ksm@mctr}{0}
|
||||
\setcounter{xksm@mctr}{0}
|
||||
\setcounter{cksm@mctr}{0}
|
||||
\setcounter{msm@mctr}{0}
|
||||
\setcounter{xmsm@mctr}{0}
|
||||
\setcounter{cmsm@mctr}{0}
|
||||
\setcounter{bsm@mctr}{0}
|
||||
\setcounter{workm@mctr}{0}
|
||||
\setcounter{sheetsequence}{18}
|
||||
\setcounter{lastsheet}{155}
|
||||
\setcounter{lastpage}{137}
|
||||
\setcounter{figure}{0}
|
||||
\setcounter{lofdepth}{1}
|
||||
\setcounter{table}{0}
|
||||
\setcounter{lotdepth}{1}
|
||||
\setcounter{NAT@ctr}{0}
|
||||
\setcounter{nprt@mantissa@digitsbefore}{0}
|
||||
\setcounter{nprt@mantissa@digitsafter}{0}
|
||||
\setcounter{nprt@exponent@digitsbefore}{0}
|
||||
\setcounter{nprt@exponent@digitsafter}{0}
|
||||
\setcounter{nprt@digitsfirstblock}{0}
|
||||
\setcounter{nprt@blockcnt}{0}
|
||||
\setcounter{nprt@cntprint}{0}
|
||||
\setcounter{parentequation}{0}
|
||||
\setcounter{thmt@dummyctr}{0}
|
||||
\setcounter{Item}{0}
|
||||
\setcounter{Hfootnote}{0}
|
||||
\setcounter{memhycontfloat}{0}
|
||||
\setcounter{Hpagenote}{0}
|
||||
\setcounter{bookmark@seq@number}{6}
|
||||
\setcounter{ContinuedFloat}{0}
|
||||
\setcounter{app@runs}{1}
|
||||
\setcounter{pspicture}{0}
|
||||
\setcounter{section@level}{0}
|
||||
\setcounter{theo}{0}
|
||||
\setcounter{hypothese}{0}
|
||||
}
|
1050
memoire/remerciements.log
Normal file
1050
memoire/remerciements.log
Normal file
File diff suppressed because it is too large
Load diff
17
memoire/remerciements.tex
Normal file
17
memoire/remerciements.tex
Normal file
|
@ -0,0 +1,17 @@
|
|||
\chapter*{Remerciements} % ne pas numéroter
|
||||
\phantomsection\addcontentsline{toc}{chapter}{Remerciements} % inclure dans TdM
|
||||
|
||||
Je dois avouer que je ne savais pas trop à quoi m'attendre au moment où j'ai commencé la rédaction de ce mémoire. En essayant de ne pas oublier personne, j'aimerais tout d'abord remercier celui qui m'a accompagné durant ces deux dernières années et qui m'a énormément appris, le professeur Andrew Luong.
|
||||
|
||||
J'aimerais aussi remercier mes évaluateurs, les professeurs Claire Bilodeau et Julien Trufin. J'aimerais aussi remercier le professeur Vincent Goulet, qui m'a fortement encouragé de m'inscrire à la maîtrise, et pour les nombreuses références qu'il a pu me fournir, pour la rédaction entre autres, qui m'ont grandement facilité la tâche. Je remercie tout autant le professeur Ghislain Léveillé pour son soutien et pour m'avoir offert la possibilité de présenter mes résultats.
|
||||
|
||||
J'aimerais aussi remercier l'ensemble des étudiants gradués, des professeurs et du personnel de l'École d'Actuariat de l'Université Laval, ainsi que mes collègues de travail de la CARRA, pour leur soutien et leurs encouragements.
|
||||
|
||||
Je suis reconnaissant envers l'École d'Actuariat et la Chaire d'Actuariat de l'Université Laval pour le soutien financier en m'offrant des postes d'auxiliaires d'enseignement et de recherche.
|
||||
|
||||
Enfin, j'aimerais remercier mes parents, ma soeur et l'ensemble de ma famille et de mes amis pour avoir accepté que je passe plus de temps à «écrire des formules bizarres sur l'ordinateur» qu'à être avec eux.
|
||||
|
||||
%%% Local Variables:
|
||||
%%% mode: latex
|
||||
%%% TeX-master: "gabarit-maitrise"
|
||||
%%% End:
|
80
memoire/resume.aux
Normal file
80
memoire/resume.aux
Normal file
|
@ -0,0 +1,80 @@
|
|||
\relax
|
||||
\providecommand\hyper@newdestlabel[2]{}
|
||||
\@writefile{toc}{\contentsline {chapter}{R\IeC {\'e}sum\IeC {\'e}}{iii}{section*.2}}
|
||||
\@setckpt{resume}{
|
||||
\setcounter{page}{4}
|
||||
\setcounter{equation}{0}
|
||||
\setcounter{enumi}{0}
|
||||
\setcounter{enumii}{0}
|
||||
\setcounter{enumiii}{0}
|
||||
\setcounter{enumiv}{0}
|
||||
\setcounter{footnote}{0}
|
||||
\setcounter{mpfootnote}{0}
|
||||
\setcounter{@memmarkcntra}{0}
|
||||
\setcounter{storedpagenumber}{1}
|
||||
\setcounter{book}{0}
|
||||
\setcounter{part}{0}
|
||||
\setcounter{chapter}{0}
|
||||
\setcounter{section}{0}
|
||||
\setcounter{subsection}{0}
|
||||
\setcounter{subsubsection}{0}
|
||||
\setcounter{paragraph}{0}
|
||||
\setcounter{subparagraph}{0}
|
||||
\setcounter{@ppsavesec}{0}
|
||||
\setcounter{@ppsaveapp}{0}
|
||||
\setcounter{vslineno}{0}
|
||||
\setcounter{poemline}{0}
|
||||
\setcounter{modulo@vs}{0}
|
||||
\setcounter{memfvsline}{0}
|
||||
\setcounter{verse}{0}
|
||||
\setcounter{chrsinstr}{0}
|
||||
\setcounter{poem}{0}
|
||||
\setcounter{newflo@tctr}{4}
|
||||
\setcounter{@contsubnum}{0}
|
||||
\setcounter{maxsecnumdepth}{2}
|
||||
\setcounter{sidefootnote}{0}
|
||||
\setcounter{pagenote}{0}
|
||||
\setcounter{pagenoteshadow}{0}
|
||||
\setcounter{memfbvline}{0}
|
||||
\setcounter{bvlinectr}{0}
|
||||
\setcounter{cp@cntr}{0}
|
||||
\setcounter{ism@mctr}{0}
|
||||
\setcounter{xsm@mctr}{0}
|
||||
\setcounter{csm@mctr}{0}
|
||||
\setcounter{ksm@mctr}{0}
|
||||
\setcounter{xksm@mctr}{0}
|
||||
\setcounter{cksm@mctr}{0}
|
||||
\setcounter{msm@mctr}{0}
|
||||
\setcounter{xmsm@mctr}{0}
|
||||
\setcounter{cmsm@mctr}{0}
|
||||
\setcounter{bsm@mctr}{0}
|
||||
\setcounter{workm@mctr}{0}
|
||||
\setcounter{sheetsequence}{4}
|
||||
\setcounter{lastsheet}{155}
|
||||
\setcounter{lastpage}{137}
|
||||
\setcounter{figure}{0}
|
||||
\setcounter{lofdepth}{1}
|
||||
\setcounter{table}{0}
|
||||
\setcounter{lotdepth}{1}
|
||||
\setcounter{NAT@ctr}{0}
|
||||
\setcounter{nprt@mantissa@digitsbefore}{0}
|
||||
\setcounter{nprt@mantissa@digitsafter}{0}
|
||||
\setcounter{nprt@exponent@digitsbefore}{0}
|
||||
\setcounter{nprt@exponent@digitsafter}{0}
|
||||
\setcounter{nprt@digitsfirstblock}{0}
|
||||
\setcounter{nprt@blockcnt}{0}
|
||||
\setcounter{nprt@cntprint}{0}
|
||||
\setcounter{parentequation}{0}
|
||||
\setcounter{thmt@dummyctr}{0}
|
||||
\setcounter{Item}{0}
|
||||
\setcounter{Hfootnote}{0}
|
||||
\setcounter{memhycontfloat}{0}
|
||||
\setcounter{Hpagenote}{0}
|
||||
\setcounter{bookmark@seq@number}{1}
|
||||
\setcounter{ContinuedFloat}{0}
|
||||
\setcounter{app@runs}{1}
|
||||
\setcounter{pspicture}{0}
|
||||
\setcounter{section@level}{0}
|
||||
\setcounter{theo}{0}
|
||||
\setcounter{hypothese}{0}
|
||||
}
|
19
memoire/resume.tex
Normal file
19
memoire/resume.tex
Normal file
|
@ -0,0 +1,19 @@
|
|||
\chapter*{Résumé} % ne pas numéroter
|
||||
\phantomsection\addcontentsline{toc}{chapter}{Résumé} % inclure dans TdM
|
||||
|
||||
\begin{otherlanguage*}{francais}
|
||||
Les modèles classiques en finance sont basés sur des
|
||||
hypothèses qui ne sont pas toujours vérifiables
|
||||
empiriquement. L'objectif de ce mémoire est de présenter
|
||||
l'utilisation de la distribution de Laplace asymétrique généralisée
|
||||
comme une alternative intéressante à ces derniers. Pour ce faire, on
|
||||
utilise ses différentes propriétés afin de développer des méthodes
|
||||
d'estimation paramétrique, d'approximation et de test, en plus d'élaborer quelques principes d'évaluation de produits dérivés. On
|
||||
présente enfin un exemple d'application numérique afin d'illustrer ces
|
||||
différents concepts.
|
||||
\end{otherlanguage*}
|
||||
|
||||
%%% Local Variables:
|
||||
%%% mode: latex
|
||||
%%% TeX-master: "gabarit-maitrise"
|
||||
%%% End:
|
BIN
memoire/sa.pdf
Normal file
BIN
memoire/sa.pdf
Normal file
Binary file not shown.
BIN
memoire/ul_p.eps
Normal file
BIN
memoire/ul_p.eps
Normal file
Binary file not shown.
BIN
memoire/ul_p.pdf
Normal file
BIN
memoire/ul_p.pdf
Normal file
Binary file not shown.
284
memoire/ulthese.cls
Normal file
284
memoire/ulthese.cls
Normal file
|
@ -0,0 +1,284 @@
|
|||
%%
|
||||
%% This is file `ulthese.cls',
|
||||
%% generated with the docstrip utility.
|
||||
%%
|
||||
%% The original source files were:
|
||||
%%
|
||||
%% ulthese.dtx (with options: `class')
|
||||
%%
|
||||
%% This is a generated file.
|
||||
%%
|
||||
%% Copyright (C) 2012 Universite Laval
|
||||
%%
|
||||
%% This file may be distributed and/or modified under the conditions
|
||||
%% of the LaTeX Project Public License, either version 1.3c of this
|
||||
%% license or (at your option) any later version. The latest version
|
||||
%% of this license is in:
|
||||
%%
|
||||
%% http://www.latex-project.org/lppl.txt
|
||||
%%
|
||||
%% and version 1.3c or later is part of all distributions of LaTeX
|
||||
%% version 2006/05/20 or later.
|
||||
%%
|
||||
%% This work has the LPPL maintenance status `maintained'.
|
||||
%%
|
||||
%% The Current Maintainer of this work is Universite Laval
|
||||
%% <ulthese-dev@bibl.ulaval.ca>.
|
||||
%%
|
||||
%% This work consists of the files ulthese.dtx and ulthese.ins and the
|
||||
%% derived files listed in the README file.
|
||||
%%
|
||||
\NeedsTeXFormat{LaTeX2e}[2009/09/24]
|
||||
\ProvidesClass{ulthese}%
|
||||
[2012/09/30 v1.0 Classe pour les theses et memoires de l'Universite Laval]
|
||||
\RequirePackage{ifthen}
|
||||
\newboolean{UL@natbib}
|
||||
\setboolean{UL@natbib}{true}
|
||||
\DeclareOption{nonatbib}{\setboolean{UL@natbib}{false}}
|
||||
\newcommand*{\UL@ptsize}{}
|
||||
\DeclareOption{10pt}{%
|
||||
\PassOptionsToClass{10pt}{memoir}
|
||||
\renewcommand*{\UL@ptsize}{10}}
|
||||
\DeclareOption{11pt}{%
|
||||
\PassOptionsToClass{11pt}{memoir}
|
||||
\renewcommand*{\UL@ptsize}{11}}
|
||||
\DeclareOption{12pt}{%
|
||||
\PassOptionsToClass{12pt}{memoir}
|
||||
\renewcommand*{\UL@ptsize}{12}}
|
||||
\DeclareOption*{\PassOptionsToClass{\CurrentOption}{memoir}}
|
||||
\ExecuteOptions{11pt,letterpaper}
|
||||
\ProcessOptions
|
||||
\LoadClass[twoside,openright]{memoir}
|
||||
\RequirePackage[T1]{fontenc}
|
||||
\ifthenelse{\boolean{UL@natbib}}{\RequirePackage{natbib}}{}
|
||||
\RequirePackage{babel}
|
||||
\RequirePackage[autolanguage]{numprint}
|
||||
\RequirePackage{graphicx}
|
||||
\RequirePackage{xcolor}
|
||||
\RequirePackage{textcomp}
|
||||
\RequirePackage[scaled=0.92]{helvet}
|
||||
\definecolor{ULlinkcolor}{rgb}{0,0,0.3}
|
||||
\setlrmarginsandblock{35mm}{25mm}{*}
|
||||
\setulmarginsandblock{25mm}{*}{1}
|
||||
\setheadfoot{\baselineskip}{20mm}
|
||||
\checkandfixthelayout[lines]
|
||||
\OnehalfSpacing
|
||||
\setlength{\parskip}{0.5\baselineskip}
|
||||
\setlength{\parindent}{0em}
|
||||
\renewcommand{\tocheadstart}{\SingleSpacing\chapterheadstart}
|
||||
\renewcommand{\lotheadstart}{\SingleSpacing\chapterheadstart}
|
||||
\renewcommand{\lofheadstart}{\SingleSpacing\chapterheadstart}
|
||||
\makepagestyle{ul}
|
||||
\makeevenfoot{ul}{\thepage}{}{}
|
||||
\makeoddfoot{ul}{}{}{\thepage}
|
||||
\aliaspagestyle{plain}{ul}
|
||||
\pagestyle{ul}
|
||||
\ifthenelse{\UL@ptsize=10}{%
|
||||
\newcommand*{\UL@fonttitle}{\normalfont\Huge\bfseries\sffamily}
|
||||
\newcommand*{\UL@fontsubtitle}{\normalfont\huge\bfseries\sffamily}
|
||||
\newcommand*{\UL@fontauthor}{\normalfont\LARGE\bfseries\sffamily}
|
||||
\newcommand*{\UL@fontprogram}{\UL@fontauthor}
|
||||
\newcommand*{\UL@fontbase}{\normalfont\LARGE\sffamily}}{}
|
||||
\ifthenelse{\UL@ptsize=11}{%
|
||||
\newcommand*{\UL@fonttitle}{\normalfont\huge\bfseries\sffamily}
|
||||
\newcommand*{\UL@fontsubtitle}{\normalfont\LARGE\bfseries\sffamily}
|
||||
\newcommand*{\UL@fontauthor}{\normalfont\Large\bfseries\sffamily}
|
||||
\newcommand*{\UL@fontprogram}{\UL@fontauthor}
|
||||
\newcommand*{\UL@fontbase}{\normalfont\Large\sffamily}}{}
|
||||
\ifthenelse{\UL@ptsize=12}{%
|
||||
\newcommand*{\UL@fonttitle}{\normalfont\LARGE\bfseries\sffamily}
|
||||
\newcommand*{\UL@fontsubtitle}{\normalfont\Large\bfseries\sffamily}
|
||||
\newcommand*{\UL@fontauthor}{\normalfont\large\bfseries\sffamily}
|
||||
\newcommand*{\UL@fontprogram}{\UL@fontauthor}
|
||||
\newcommand*{\UL@fontbase}{\normalfont\large\sffamily}}{}
|
||||
\newboolean{UL@hassubtitle}
|
||||
\newboolean{UL@isprogmasc}
|
||||
\newcommand{\UL@maintitle}{}
|
||||
\newcommand{\UL@subtitle}{}
|
||||
\newcommand*{\UL@author}{}
|
||||
\newcommand*{\UL@program}{}
|
||||
\newcommand*{\UL@year}{}
|
||||
\newcommand*{\UL@typeofdoc}{}
|
||||
\newcommand*{\UL@degree}{}
|
||||
\newcommand*{\UL@nameother}{}
|
||||
\newcommand*{\UL@degreeother}{}
|
||||
\newcommand*{\UL@facUL}{}
|
||||
\newcommand*{\UL@facother}{}
|
||||
\newcommand*{\UL@extensionat}{}
|
||||
\newcommand*{\UL@extensionloc}{}
|
||||
\newcommand{\titre}[1]{\renewcommand{\UL@maintitle}{#1}}
|
||||
\newcommand{\soustitre}[1]{%
|
||||
\setboolean{UL@hassubtitle}{true}
|
||||
\renewcommand{\UL@subtitle}{#1}}
|
||||
\newcommand*{\auteur}[1]{\renewcommand*{\UL@author}{#1}}
|
||||
\newcommand*{\annee}[1]{\renewcommand*{\UL@year}{#1}}
|
||||
\newcommand*{\programme}[1]{\renewcommand*{\UL@program}{#1}}
|
||||
\newcommand*{\LLD}{%
|
||||
\newcommand*{\UL@typenum}{0}
|
||||
\setboolean{UL@isprogmasc}{true}
|
||||
\renewcommand*{\UL@typeofdoc}{Th\`ese}
|
||||
\renewcommand*{\UL@degree}{Docteur en droit (L.L.D.)}}
|
||||
\newcommand*{\DPsy}{%
|
||||
\newcommand*{\UL@typenum}{0}
|
||||
\setboolean{UL@isprogmasc}{true}
|
||||
\renewcommand*{\UL@typeofdoc}{Th\`ese}
|
||||
\renewcommand*{\UL@degree}{Docteur en psychologie (D.Psy.)}}
|
||||
\newcommand*{\DThP}{%
|
||||
\newcommand*{\UL@typenum}{0}
|
||||
\setboolean{UL@isprogmasc}{true}
|
||||
\renewcommand*{\UL@typeofdoc}{Th\`ese}
|
||||
\renewcommand*{\UL@degree}{Docteur en th\'eologie pratique (D.Th.P.)}}
|
||||
\newcommand*{\PhD}{%
|
||||
\newcommand*{\UL@typenum}{0}
|
||||
\setboolean{UL@isprogmasc}{true}
|
||||
\renewcommand*{\UL@typeofdoc}{Th\`ese}
|
||||
\renewcommand*{\UL@degree}{Philosophi{\ae} doctor (Ph.D.)}}
|
||||
\newcommand*{\LLM}{%
|
||||
\newcommand*{\UL@typenum}{0}
|
||||
\setboolean{UL@isprogmasc}{false}
|
||||
\renewcommand*{\UL@typeofdoc}{M\'emoire}
|
||||
\renewcommand*{\UL@degree}{Ma\^itre en droit (L.L.M.)}}
|
||||
\newcommand*{\MA}{%
|
||||
\newcommand*{\UL@typenum}{0}
|
||||
\setboolean{UL@isprogmasc}{false}
|
||||
\renewcommand*{\UL@typeofdoc}{M\'emoire}
|
||||
\renewcommand*{\UL@degree}{Ma\^itre \`es arts (M.A.)}}
|
||||
\newcommand*{\MMus}{%
|
||||
\newcommand*{\UL@typenum}{0}
|
||||
\setboolean{UL@isprogmasc}{false}
|
||||
\renewcommand*{\UL@typeofdoc}{M\'emoire}
|
||||
\renewcommand*{\UL@degree}{Ma\^itre en musique (M.Mus.)}}
|
||||
\newcommand*{\MSc}{%
|
||||
\newcommand*{\UL@typenum}{0}
|
||||
\setboolean{UL@isprogmasc}{false}
|
||||
\renewcommand*{\UL@typeofdoc}{M\'emoire}
|
||||
\renewcommand*{\UL@degree}{Ma\^itre \`es sciences (M.Sc.)}}
|
||||
\newcommand*{\MServSoc}{%
|
||||
\newcommand*{\UL@typenum}{0}
|
||||
\setboolean{UL@isprogmasc}{false}
|
||||
\renewcommand*{\UL@typeofdoc}{M\'emoire}
|
||||
\renewcommand*{\UL@degree}{Ma\^itre en service social (M.Serv.Soc.)}}
|
||||
\newcommand*{\MScGeogr}{%
|
||||
\newcommand*{\UL@typenum}{0}
|
||||
\setboolean{UL@isprogmasc}{false}
|
||||
\renewcommand*{\UL@typeofdoc}{M\'emoire}
|
||||
\renewcommand*{\UL@degree}{Ma\^itre en sciences géographiques (M.Sc.G\'eogr.)}}
|
||||
\newcommand*{\MATDR}{%
|
||||
\newcommand*{\UL@typenum}{0}
|
||||
\setboolean{UL@isprogmasc}{false}
|
||||
\renewcommand*{\UL@typeofdoc}{M\'emoire}
|
||||
\renewcommand*{\UL@degree}{Ma\^itre en am\'enagement du territoire et d\'eveloppement r\'egional (M.ATDR)}}
|
||||
\newcommand*{\multifacultaire}{\renewcommand*{\UL@typenum}{1}}
|
||||
\newcommand*{\cotutelle}{%
|
||||
\renewcommand*{\UL@typenum}{2}
|
||||
\edef\UL@typeofdoc{\UL@typeofdoc\ en cotutelle}}
|
||||
\newcommand*{\univcotutelle}[1]{\renewcommand*{\UL@nameother}{#1}}
|
||||
\newcommand*{\gradecotutelle}[1]{\renewcommand*{\UL@degreeother}{#1}}
|
||||
\newcommand*{\extensionUdeS}{%
|
||||
\renewcommand*{\UL@typenum}{3}
|
||||
\renewcommand*{\UL@extensionat}{Universit\'e de Sherbrooke}
|
||||
\renewcommand*{\UL@extensionloc}{Sherbrooke, Qu\'ebec}}
|
||||
\newcommand*{\extensionUQO}{%
|
||||
\renewcommand*{\UL@typenum}{3}
|
||||
\renewcommand*{\UL@extensionat}{Universit\'e du Qu\'ebec en Outaouais}
|
||||
\renewcommand*{\UL@extensionloc}{Gatineau, Qu\'ebec}}
|
||||
\newcommand*{\extensionUQAC}{%
|
||||
\renewcommand*{\UL@typenum}{3}
|
||||
\renewcommand*{\UL@extensionat}{Universit\'e du Qu\'ebec \`a Chicoutimi}
|
||||
\renewcommand*{\UL@extensionloc}{Chicoutimi, Qu\'ebec}}
|
||||
\newcommand{\faculteUL}[1]{\renewcommand*{\UL@facUL}{#1}}
|
||||
\newcommand*{\faculteUdeS}[1]{\renewcommand*{\UL@facother}{#1}}
|
||||
\newcommand*{\faculteUQO}[1]{\renewcommand*{\UL@facother}{#1}}
|
||||
\newcommand*{\faculteUQAC}[1]{\renewcommand*{\UL@facother}{#1}}
|
||||
\newcommand{\UL@title}{%
|
||||
{\UL@fonttitle\UL@maintitle\par}
|
||||
{\UL@fontsubtitle
|
||||
\ifthenelse{\boolean{UL@hassubtitle}}{\UL@subtitle}{%
|
||||
\vspace*{\baselineskip}}\par}}
|
||||
\newcommand{\UL@docid}{%
|
||||
{\UL@fontprogram\UL@typeofdoc\par
|
||||
\ifnum\UL@typenum=2 \UL@program\par \fi}}
|
||||
\newcommand{\UL@details}{%
|
||||
\ifcase\UL@typenum\relax% 0 standard
|
||||
\vspace{96pt}
|
||||
{\UL@fontprogram\UL@program}\par
|
||||
\UL@degree\par
|
||||
\vspace{112pt}
|
||||
Qu\'ebec, Canada\par
|
||||
\or% 1 multifacultaire
|
||||
\vspace{96pt}
|
||||
{\UL@fontprogram\UL@program}\par
|
||||
\UL@degree\par
|
||||
\vspace{36pt}
|
||||
\UL@facUL\par
|
||||
\vspace{48pt}
|
||||
Qu\'ebec, Canada\par
|
||||
\or% 2 cotutelle
|
||||
\vspace{72pt}
|
||||
Universit\'e Laval\par Qu\'ebec, Canada\par
|
||||
\UL@degree\par
|
||||
\vspace{\baselineskip} et\par \vspace{\baselineskip}
|
||||
\UL@nameother\par
|
||||
\UL@degreeother\par
|
||||
\or% 3 extension
|
||||
\vspace{48pt}
|
||||
{\UL@fontprogram\UL@program\ de l'Universit\'e Laval\par
|
||||
\ifthenelse{\boolean{UL@isprogmasc}}{offert}{offerte}
|
||||
en extension \`a l'\UL@extensionat}\par
|
||||
\vspace{36pt}
|
||||
\UL@degree\par
|
||||
\vspace{36pt}
|
||||
\UL@facother\par \UL@extensionat\par \UL@extensionloc\par
|
||||
\vspace{\baselineskip}
|
||||
\UL@facUL\par Universit\'e Laval\par Qu\'ebec, Canada\par
|
||||
\fi}
|
||||
\newcommand{\pagetitre}{{%
|
||||
\clearpage
|
||||
\thispagestyle{empty}
|
||||
\SingleSpacing\setlength{\parskip}{0pt}
|
||||
\centering
|
||||
\UL@fontbase
|
||||
\ifthenelse{\UL@typenum > 1}{\vspace*{0pt}\par}{%
|
||||
\includegraphics[height=40px,keepaspectratio=true]{ul_p}\par}
|
||||
\vspace{72pt}
|
||||
\UL@title
|
||||
\vspace{48pt}
|
||||
\UL@docid
|
||||
\vspace{72pt}
|
||||
{\UL@fontauthor\UL@author}\par
|
||||
\UL@details
|
||||
\vfill
|
||||
{\textcopyright} \UL@author, \UL@year\par
|
||||
\cleardoublepage
|
||||
}}
|
||||
\addto\captionsfrench{\renewcommand{\listfigurename}{Liste des figures}}
|
||||
\newcommand{\dedicace}[1]{{%
|
||||
\clearpage
|
||||
\pagestyle{empty}
|
||||
\setlength{\beforeepigraphskip}{10\baselineskip}
|
||||
\setlength{\epigraphrule}{0pt}
|
||||
\epigraphtextposition{flushright}
|
||||
\mbox{}\epigraph{\itshape #1}{}
|
||||
}}
|
||||
\newcommand{\epigraphe}[2]{{%
|
||||
\clearpage
|
||||
\pagestyle{empty}
|
||||
\setlength{\beforeepigraphskip}{10\baselineskip}
|
||||
\mbox{}\epigraph{#1}{#2}
|
||||
}}
|
||||
\renewenvironment{quote}{%
|
||||
\list{}{\rightmargin 10mm \leftmargin 10mm}%
|
||||
\item[]}{\endlist}
|
||||
\renewenvironment{quotation}{%
|
||||
\list{}{%
|
||||
\SingleSpacing
|
||||
\listparindent 0em
|
||||
\itemindent \listparindent
|
||||
\leftmargin 10mm
|
||||
\rightmargin \leftmargin
|
||||
\parsep 6\p@ \@plus\p@}%
|
||||
\item[]}{\endlist}
|
||||
\setsecnumdepth{subsection}
|
||||
\endinput
|
||||
%%
|
||||
%% End of file `ulthese.cls'.
|
1608
memoire/ulthese.dtx
Normal file
1608
memoire/ulthese.dtx
Normal file
File diff suppressed because it is too large
Load diff
102
memoire/ulthese.ins
Normal file
102
memoire/ulthese.ins
Normal file
|
@ -0,0 +1,102 @@
|
|||
%%
|
||||
%% Copyright (C) 2012 Universite Laval
|
||||
%%
|
||||
%% This file may be distributed and/or modified under the conditions
|
||||
%% of the LaTeX Project Public License, either version 1.3c of this
|
||||
%% license or (at your option) any later version. The latest version
|
||||
%% of this license is in:
|
||||
%%
|
||||
%% http://www.latex-project.org/lppl.txt
|
||||
%%
|
||||
%% and version 1.3c or later is part of all distributions of LaTeX
|
||||
%% version 2006/05/20 or later.
|
||||
%%
|
||||
|
||||
\input docstrip.tex
|
||||
\keepsilent
|
||||
\askforoverwritefalse
|
||||
|
||||
\preamble
|
||||
|
||||
This is a generated file.
|
||||
|
||||
Copyright (C) 2012 Universite Laval
|
||||
|
||||
This file may be distributed and/or modified under the conditions
|
||||
of the LaTeX Project Public License, either version 1.3c of this
|
||||
license or (at your option) any later version. The latest version
|
||||
of this license is in:
|
||||
|
||||
http://www.latex-project.org/lppl.txt
|
||||
|
||||
and version 1.3c or later is part of all distributions of LaTeX
|
||||
version 2006/05/20 or later.
|
||||
|
||||
This work has the LPPL maintenance status `maintained'.
|
||||
|
||||
The Current Maintainer of this work is Universite Laval
|
||||
<ulthese-dev@bibl.ulaval.ca>.
|
||||
|
||||
This work consists of the files ulthese.dtx and ulthese.ins and the
|
||||
derived files listed in the README file.
|
||||
|
||||
\endpreamble
|
||||
|
||||
\generate{
|
||||
\file{ulthese.cls}{\from{ulthese.dtx}{class}}
|
||||
\file{gabarit-doctorat.tex}{\nopreamble\nopostamble
|
||||
\from{ulthese.dtx}{gabarit,phd,standard}}
|
||||
\file{gabarit-doctorat-mesure.tex}{\nopreamble\nopostamble
|
||||
\from{ulthese.dtx}{gabarit,phd,mesure}}
|
||||
\file{gabarit-doctorat-multifacultaire.tex}{\nopreamble\nopostamble
|
||||
\from{ulthese.dtx}{gabarit,phd,multifac}}
|
||||
\file{gabarit-doctorat-cotutelle.tex}{\nopreamble\nopostamble
|
||||
\from{ulthese.dtx}{gabarit,phd,cotutelle}}
|
||||
\file{gabarit-doctorat-extension-UdeS.tex}{\nopreamble\nopostamble
|
||||
\from{ulthese.dtx}{gabarit,phd,UdeS}}
|
||||
\file{gabarit-doctorat-extension-UQO.tex}{\nopreamble\nopostamble
|
||||
\from{ulthese.dtx}{gabarit,phd,UQO}}
|
||||
\file{gabarit-maitrise.tex}{\nopreamble\nopostamble
|
||||
\from{ulthese.dtx}{gabarit,m,standard}}
|
||||
\file{gabarit-maitrise-mesure.tex}{\nopreamble\nopostamble
|
||||
\from{ulthese.dtx}{gabarit,m,mesure}}
|
||||
\file{gabarit-maitrise-extension-UQAC.tex}{\nopreamble\nopostamble
|
||||
\from{ulthese.dtx}{gabarit,m,UQAC}}
|
||||
\file{resume.tex}{\nopreamble\nopostamble
|
||||
\from{ulthese.dtx}{resume}}
|
||||
\file{abstract.tex}{\nopreamble\nopostamble
|
||||
\from{ulthese.dtx}{abstract}}
|
||||
\file{remerciements.tex}{\nopreamble\nopostamble
|
||||
\from{ulthese.dtx}{remerciements}}
|
||||
\file{avantpropos.tex}{\nopreamble\nopostamble
|
||||
\from{ulthese.dtx}{avantpropos}}
|
||||
\file{introduction.tex}{\nopreamble\nopostamble
|
||||
\from{ulthese.dtx}{introduction}}
|
||||
\file{chapitre1.tex}{\nopreamble\nopostamble
|
||||
\from{ulthese.dtx}{chapitre}}
|
||||
\file{chapitre2.tex}{\nopreamble\nopostamble
|
||||
\from{ulthese.dtx}{chapitre}}
|
||||
\file{conclusion.tex}{\nopreamble\nopostamble
|
||||
\from{ulthese.dtx}{conclusion}}
|
||||
\file{annexe.tex}{\nopreamble\nopostamble
|
||||
\from{ulthese.dtx}{annexe}}
|
||||
}
|
||||
|
||||
\obeyspaces
|
||||
\Msg{*************************************************************}
|
||||
\Msg{* *}
|
||||
\Msg{* La classe ulthese est maintenant prete a l'emploi. *}
|
||||
\Msg{* *}
|
||||
\Msg{* Utiliser un des gabarits comme base pour votre fichier *}
|
||||
\Msg{* maitre. Vous pouvez effacer les gabarits inutiles. *}
|
||||
\Msg{* Taper le contenu du document dans des fichiers .tex *}
|
||||
\Msg{* distincts; quelques gabarits sont fournis avec la classe. *}
|
||||
\Msg{* *}
|
||||
\Msg{* Pour produire la documentation de la classe, passer le *}
|
||||
\Msg{* fichier ulthese.dtx dans LaTeX. *}
|
||||
\Msg{* *}
|
||||
\Msg{* Bonne redaction! *}
|
||||
\Msg{* *}
|
||||
\Msg{*************************************************************}
|
||||
|
||||
\endbatchfile
|
BIN
memoire/ulthese.pdf
Normal file
BIN
memoire/ulthese.pdf
Normal file
Binary file not shown.
1094
poster scientifique/baposter.cls
Normal file
1094
poster scientifique/baposter.cls
Normal file
File diff suppressed because it is too large
Load diff
39
poster scientifique/biblio.bib
Normal file
39
poster scientifique/biblio.bib
Normal file
|
@ -0,0 +1,39 @@
|
|||
@article{madan1990variance,
|
||||
title={The variance gamma (VG) model for share market returns},
|
||||
author={Madan, Dilip B and Seneta, Eugene},
|
||||
journal={Journal of business},
|
||||
pages={511--524},
|
||||
year={1990},
|
||||
publisher={JSTOR}
|
||||
}
|
||||
|
||||
@book{kotz2001laplace,
|
||||
title={The Laplace Distribution and Generalizations: A Revisit with Applications to Communications, Economics, Engineering, and Finance},
|
||||
author={Kotz, S. and Kozubowski, T.J. and Podg{\'o}rski, K.},
|
||||
isbn={9780817641665},
|
||||
lccn={00068900},
|
||||
url={http://books.google.ca/books?id=CQvvAAAAMAAJ},
|
||||
year={2001},
|
||||
publisher={Birkh{\"a}user}
|
||||
}
|
||||
|
||||
@book{hall2005generalized,
|
||||
title={Generalized Method of Moments},
|
||||
author={Hall, A.R.},
|
||||
isbn={9780198775201},
|
||||
lccn={2005297434},
|
||||
series={Advanced Texts in Econometrics},
|
||||
url={http://books.google.ca/books?id=jN-T-fU139wC},
|
||||
year={2005},
|
||||
publisher={OUP Oxford}
|
||||
}
|
||||
|
||||
@book{epps2007pricing,
|
||||
title={Pricing Derivative Securities},
|
||||
author={Epps, T.W.},
|
||||
isbn={9789812700339},
|
||||
lccn={2007006660},
|
||||
url={http://books.google.ca/books?id=Wk9Ih3uWM10C},
|
||||
year={2007},
|
||||
publisher={World Scientific Publishing Company Pte. Limited}
|
||||
}
|
BIN
poster scientifique/images/ul.png
Normal file
BIN
poster scientifique/images/ul.png
Normal file
Binary file not shown.
After Width: | Height: | Size: 31 KiB |
22
poster scientifique/poster_landscape.aux
Normal file
22
poster scientifique/poster_landscape.aux
Normal file
|
@ -0,0 +1,22 @@
|
|||
\relax
|
||||
\catcode`:\active
|
||||
\catcode`;\active
|
||||
\catcode`!\active
|
||||
\catcode`?\active
|
||||
\citation{kotz2001laplace}
|
||||
\citation{hall2005generalized}
|
||||
\bibstyle{plain}
|
||||
\bibdata{biblio}
|
||||
\bibcite{epps2007pricing}{1}
|
||||
\bibcite{hall2005generalized}{2}
|
||||
\bibcite{kotz2001laplace}{3}
|
||||
\bibcite{madan1990variance}{4}
|
||||
\citation{epps2007pricing}
|
||||
\citation{madan1990variance}
|
||||
\select@language{french}
|
||||
\@writefile{toc}{\select@language{french}}
|
||||
\@writefile{lof}{\select@language{french}}
|
||||
\@writefile{lot}{\select@language{french}}
|
||||
\pgfsyspdfmark {pgfid1}{1780200}{797160}
|
||||
\newlabel{eq:defvarY-GAL}{{}{2}}
|
||||
\newlabel{eq:inversionfncaract}{{}{2}}
|
24
poster scientifique/poster_landscape.bbl
Normal file
24
poster scientifique/poster_landscape.bbl
Normal file
|
@ -0,0 +1,24 @@
|
|||
\begin{thebibliography}{1}
|
||||
|
||||
\bibitem{epps2007pricing}
|
||||
T.W. Epps.
|
||||
\newblock {\em Pricing Derivative Securities}.
|
||||
\newblock World Scientific Publishing Company Pte. Limited, 2007.
|
||||
|
||||
\bibitem{hall2005generalized}
|
||||
A.R. Hall.
|
||||
\newblock {\em Generalized Method of Moments}.
|
||||
\newblock Advanced Texts in Econometrics. OUP Oxford, 2005.
|
||||
|
||||
\bibitem{kotz2001laplace}
|
||||
S.~Kotz, T.J. Kozubowski, and K.~Podg{\'o}rski.
|
||||
\newblock {\em The Laplace Distribution and Generalizations: A Revisit with
|
||||
Applications to Communications, Economics, Engineering, and Finance}.
|
||||
\newblock Birkh{\"a}user, 2001.
|
||||
|
||||
\bibitem{madan1990variance}
|
||||
Dilip~B Madan and Eugene Seneta.
|
||||
\newblock The variance gamma (vg) model for share market returns.
|
||||
\newblock {\em Journal of business}, pages 511--524, 1990.
|
||||
|
||||
\end{thebibliography}
|
Some files were not shown because too many files have changed in this diff Show more
Loading…
Add table
Reference in a new issue