En statistique , la borne de Cramér-Rao exprime une borne inférieure sur la variance d'un estimateur sans biais . Plus précisément, la borne inférieure est l'inverse de l'information de Fisher . Elle est aussi appelée borne de Fréchet-Darmois-Cramér-Rao (ou borne FDCR) en l'honneur de Maurice Fréchet , Georges Darmois , Harald Cramér et Calyampudi Radhakrishna Rao .
Énoncé
Soit θ le paramètre à estimer (par exemple une moyenne, une variance). On considère un estimateur sans biais que l'on note
θ
^
{\displaystyle {\widehat {\theta }}}
. La borne de Cramér-Rao dit que l'inverse de l'information de Fisher , noté
I
(
θ
)
{\displaystyle I(\theta )}
, du paramètre θ, est un minorant de la variance de
θ
^
{\displaystyle {\widehat {\theta }}}
:
var
(
θ
^
)
≥
1
I
(
θ
)
{\displaystyle \operatorname {var} ({\hat {\theta }})\geq {\frac {1}{I(\theta )}}}
où l'information de Fisher est
I
(
θ
)
=
n
E
X
;
θ
[
(
∂
ℓ
(
X
;
θ
)
∂
θ
)
2
]
{\displaystyle I(\theta )=n\operatorname {E} _{X;\theta }\left[\left({\frac {\partial \ell (X;\theta )}{\partial \theta }}\right)^{2}\right]}
où
ℓ
(
x
;
θ
)
=
log
(
L
(
x
;
θ
)
)
{\displaystyle \ell (x;\theta )=\log(L(x;\theta ))}
et où
L
(
X
;
θ
)
{\textstyle L(X;\theta )}
est la fonction de vraisemblance .
Si le modèle admet certaines régularités[ 1] , on a
I
(
θ
)
=
−
n
E
X
;
θ
[
∂
2
ℓ
(
X
;
θ
)
∂
θ
2
]
{\displaystyle I(\theta )=-n\operatorname {E} _{X;\theta }\left[{\frac {\partial ^{2}\ell (X;\theta )}{\partial \theta ^{2}}}\right]}
.
Dans certains cas, aucun estimateur non biaisé n'atteint la borne inférieure.
Exemples
Distribution normale multivariée
Dans le cas d'une distribution normale multivariée à d dimensions :
x
∼
N
d
(
μ
(
θ
)
,
C
(
θ
)
)
{\textstyle {\boldsymbol {x}}\sim N_{d}\left({\boldsymbol {\mu }}\left({\boldsymbol {\theta }}\right),{\boldsymbol {C}}\left({\boldsymbol {\theta }}\right)\right)}
les éléments de la matrice d'information de Fisher [ 2]
sont
I
m
,
k
=
∂
μ
T
∂
θ
m
C
−
1
∂
μ
∂
θ
k
+
1
2
t
r
(
C
−
1
∂
C
∂
θ
m
C
−
1
∂
C
∂
θ
k
)
{\displaystyle I_{m,k}={\frac {\partial {\boldsymbol {\mu }}^{T}}{\partial \theta _{m}}}{\boldsymbol {C}}^{-1}{\frac {\partial {\boldsymbol {\mu }}}{\partial \theta _{k}}}+{\frac {1}{2}}\mathrm {tr} \left({\boldsymbol {C}}^{-1}{\frac {\partial {\boldsymbol {C}}}{\partial \theta _{m}}}{\boldsymbol {C}}^{-1}{\frac {\partial {\boldsymbol {C}}}{\partial \theta _{k}}}\right)}
où « tr » désigne la trace .
On prend
w
[
n
]
{\displaystyle w[n]}
un échantillon de
N
{\displaystyle N}
observations indépendantes de moyenne inconnue
θ
{\displaystyle \theta }
et de variance
σ
2
{\displaystyle \sigma ^{2}}
connue :
w
[
n
]
∼
N
N
(
θ
1
,
σ
2
I
)
.
{\displaystyle w[n]\sim \mathbb {N} _{N}\left(\theta {\boldsymbol {1}},\sigma ^{2}{\boldsymbol {I}}\right).}
L'information de Fisher est alors un scalaire donné par la formule
I
(
θ
)
=
(
∂
μ
(
θ
)
∂
θ
)
T
C
−
1
(
∂
μ
(
θ
)
∂
θ
)
=
∑
i
=
1
N
1
σ
2
=
N
σ
2
,
{\displaystyle I(\theta )=\left({\frac {\partial {\boldsymbol {\mu }}(\theta )}{\partial \theta }}\right)^{T}{\boldsymbol {C}}^{-1}\left({\frac {\partial {\boldsymbol {\mu }}(\theta )}{\partial \theta }}\right)=\sum _{i=1}^{N}{\frac {1}{\sigma ^{2}}}={\frac {N}{\sigma ^{2}}},}
et la borne de Cramér-Rao est donnée par la formule
v
a
r
(
θ
^
)
≥
σ
2
N
.
{\displaystyle \mathrm {var} \left({\hat {\theta }}\right)\geq {\frac {\sigma ^{2}}{N}}.}
Variable aléatoire normale de variance inconnue
On suppose que X est un vecteur aléatoire qui suit une loi normale d'espérance connue
μ
{\textstyle \mu }
et de variance inconnue
σ
2
{\textstyle \sigma ^{2}}
. Considérons T l'estimateur de
σ
2
{\textstyle \sigma ^{2}}
:
T
=
1
n
∑
i
=
1
n
(
X
i
−
μ
)
2
.
{\displaystyle T={\frac {1}{n}}\sum _{i=1}^{n}\left(X_{i}-\mu \right)^{2}.}
Alors T est non biaisé pour
σ
2
{\textstyle \sigma ^{2}}
, car
E
[
T
]
=
σ
2
{\textstyle \mathbb {E} [T]=\sigma ^{2}}
. La variance de T vaut alors :
V
a
r
(
T
)
=
v
a
r
{
(
X
−
μ
)
2
}
n
=
1
n
[
E
{
(
X
−
μ
)
4
}
−
(
E
{
(
X
−
μ
)
2
}
)
2
]
{\displaystyle \mathrm {Var} (T)={\frac {\mathrm {var} \{(X-\mu )^{2}\}}{n}}={\frac {1}{n}}\left[\mathbb {E} \left\{(X-\mu )^{4}\right\}-\left(\mathbb {E} \left\{(X-\mu )^{2}\right\}\right)^{2}\right]}
Le premier terme est le quatrième moment centré et vaut
3
σ
4
{\textstyle 3\sigma ^{4}}
, le second est le carré de la variance, soit
σ
4
{\textstyle \sigma ^{4}}
.
Donc :
V
a
r
(
T
)
=
2
σ
4
n
.
{\displaystyle \mathrm {Var} (T)={\frac {2\sigma ^{4}}{n}}.}
Quelle est l'information de Fisher de cet exemple ? Le score V est défini par :
V
=
∂
∂
σ
2
ln
L
(
σ
2
,
X
)
{\displaystyle V={\frac {\partial }{\partial \sigma ^{2}}}\ln L(\sigma ^{2},X)}
avec L étant la fonction de vraisemblance . Donc, dans ce cas,
V
=
∂
∂
σ
2
ln
[
1
2
π
σ
2
e
−
(
X
−
μ
)
2
/
2
σ
2
]
=
(
X
−
μ
)
2
2
(
σ
2
)
2
−
1
2
σ
2
{\displaystyle V={\frac {\partial }{\partial \sigma ^{2}}}\ln \left[{\frac {1}{\sqrt {2\pi \sigma ^{2}}}}e^{-(X-\mu )^{2}/{2\sigma ^{2}}}\right]={\frac {(X-\mu )^{2}}{2(\sigma ^{2})^{2}}}-{\frac {1}{2\sigma ^{2}}}}
L'information de n évènements indépendants étant seulement n fois l'information d'un seul évènement, soit
n
2
(
σ
2
)
2
{\displaystyle {\frac {n}{2(\sigma ^{2})^{2}}}}
.
L'inégalité de Cramér-Rao donne :
v
a
r
(
T
)
≥
1
I
.
{\displaystyle \mathrm {var} (T)\geq {\frac {1}{I}}.}
Dans ce cas, on a donc égalité. On dit alors que l'estimateur est efficace.
Conditions de régularité
Cette inégalité repose sur deux conditions faibles de régularité des densités de probabilité ,
f
(
x
;
θ
)
{\displaystyle f(x;\theta )}
, et l'estimateur
T
(
X
)
{\displaystyle T(X)}
:
L'information de Fisher est toujours définie ; de manière équivalente, pour tout
x
{\displaystyle x}
tel que
f
(
x
;
θ
)
>
0
{\displaystyle f(x;\theta )>0}
,
∂
∂
θ
ln
f
(
x
;
θ
)
{\displaystyle {\frac {\partial }{\partial \theta }}\ln f(x;\theta )}
soit fini.
L'intégration par rapport à x et la différentiation par rapport à θ peuvent être échangées dans le calcul de T ; soit encore,
∂
∂
θ
[
∫
T
(
x
)
f
(
x
;
θ
)
d
x
]
=
∫
T
(
x
)
[
∂
∂
θ
f
(
x
;
θ
)
]
d
x
{\displaystyle {\frac {\partial }{\partial \theta }}\left[\int T(x)f(x;\theta )\,dx\right]=\int T(x)\left[{\frac {\partial }{\partial \theta }}f(x;\theta )\right]\,dx}
si le second membre est fini.
Dans certains cas, un estimateur biaisé peut avoir une variance et une erreur quadratique moyenne en dessous de la borne de Cramér-Rao (cette borne ne s'appliquant que pour les estimateurs non biaisés).
Si la régularité permet d'atteindre la dérivée seconde, alors l'information de Fisher peut se mettre sous une autre forme, et l'inégalité de Cramér-Rao donne :
V
a
r
(
θ
^
)
≥
1
I
(
θ
)
=
1
−
E
[
∂
2
∂
θ
2
ln
f
(
X
;
θ
)
]
{\displaystyle \mathrm {Var} \left({\widehat {\theta }}\right)\geq {\frac {1}{{\mathcal {I}}(\theta )}}={\frac {1}{-\mathbb {E} \left[{\frac {\partial ^{2}}{\partial \theta ^{2}}}\ln f(X;\theta )\right]}}}
Références
Bibliographie
(en) Abram Kagan , « Another Look at the Cramér–Rao Inequality », The American Statistician , vol. 55, no 3, août 2001 , p. 211-212