Moment (probabilités)
Pour les articles homonymes, voir Moment.
Cet article ne cite pas suffisamment ses sources ().
Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites web de qualité traitant du thème abordé ici, merci de compléter l'article en donnant les références utiles à sa vérifiabilité et en les liant à la section « Notes et références ».
En pratique : Quelles sources sont attendues ? Comment ajouter mes sources ?En théorie des probabilités et en statistique, les moments d’une variable aléatoire réelle sont des indicateurs de la dispersion de cette variable. Le premier moment ordinaire, appelé moment d'ordre 1 est l'espérance (la moyenne) de cette variable. Le deuxième moment centré d'ordre 2 est la variance. Le moment d'ordre 3 est l'asymétrie. Le moment d'ordre 4 est le kurtosis.
Le moment dit « ordinaire » d’ordre {\displaystyle r\in \mathbb {N} } de la variable aléatoire réelle {\displaystyle X} est défini, s’il existe, par l'espérance de {\displaystyle X^{r}}[réf. nécessaire] :
- {\displaystyle m_{r}\triangleq \mathbb {E} (X^{r})}
De manière analogue, on définira d’autres moments, étudiés ou évoqués dans la suite de l’article.
Notion de moment en analyse
[modifier | modifier le code ]La notion de moment en mathématiques, notamment en théorie des probabilités, a pour origine la notion de moment en physique [réf. nécessaire] .
Soit une fonction f : I → R continue sur un intervalle I (non réduit à un point) de R.
Étant donné un entier naturel r, le moment d’ordre r de f est défini, sous réserve d’existence, par[réf. nécessaire] :
- {\displaystyle m_{r}(f)\triangleq \int _{x\in I}x^{r},円f(x),円\mathrm {d} x}
Critère d’existence
[modifier | modifier le code ]Ce moment d’ordre r est considéré comme existant si et seulement si xr f(x) est intégrable, c’est-à-dire si et seulement si ∫x∈I |xr f(x)| dx converge. Ainsi, même si le moment est une intégrale impropre convergente[1] , ce moment est tout de même considéré comme non existant.
De cette manière, si un moment n’existe pas à un ordre donné, alors tous les moments d’ordre supérieur n’existent pas non plus. Réciproquement, si un moment existe à un ordre donné, alors tous les moments d’ordre inférieur existent également.
Espace vectoriel
[modifier | modifier le code ]Pour un entier naturel r donné, l’ensemble des fonctions continues sur I dont le moment d’ordre r existe est un espace vectoriel réel, et l’application mr : f ↦ mr(f) est une forme linéaire sur cet espace vectoriel.
Définitions
[modifier | modifier le code ]Soit X une variable aléatoire réelle définie sur I, de fonction de répartition FX et de loi de probabilité p.
Moment ordinaire
[modifier | modifier le code ]Le moment (ou moment ordinaire, ou moment en 0) d’ordre r ∈ N de X est défini, s’il existe, par :
- {\displaystyle m_{r}\triangleq \mathbb {E} (X^{r})}
On a donc, d’après le théorème de transfert :
- {\displaystyle m_{r}=\int _{x\in I}x^{r},円\mathrm {d} F_{X}(x)}
Cette intégrale de Stieltjes peut se réécrire :
- si X est discrète : {\displaystyle m_{r}=\sum _{k\in I}k^{r},円p_{k}}
- si X est absolument continue : {\displaystyle m_{r}=\int _{x\in I}x^{r},円p(x),円\mathrm {d} x}
D’après le deuxième axiome des probabilités, on a alors m0 = 1.
On notera que, p étant positive ou nulle sur I (premier axiome des probabilités), le critère d’existence du moment d’ordre r est la convergence de ∑k∈I |k|r pk ou de ∫x∈I |x|r p(x) dx selon le cas.
Moment centré
[modifier | modifier le code ]Le moment centré d’ordre r ∈ N de X est défini, s’il existe, par :
- {\displaystyle \mu _{r}\triangleq \mathbb {E} ([X-\mathbb {E} (X)]^{r})}
On a donc, d’après le théorème de transfert :
- {\displaystyle \mu _{r}=\int _{x\in I}[x-\mathbb {E} (X)]^{r},円\mathrm {d} F_{X}(x)}
Cette intégrale de Stieltjes peut se réécrire :
- si X est discrète : {\displaystyle \mu _{r}=\sum _{k\in I}[k-\mathbb {E} (X)]^{r},円p_{k}}
- si X est absolument continue : {\displaystyle \mu _{r}=\int _{x\in I}[x-\mathbb {E} (X)]^{r},円p(x),円\mathrm {d} x}
Par construction, on a alors μ0 = 1 et μ1 = 0.
D’après le théorème de transfert, on peut également écrire μr(X) = mr(X - E(X)).
Moment centré réduit
[modifier | modifier le code ]En posant μ = m1 et σ = √μ2, le moment centré réduit d’ordre r ∈ ⟦2;+∞⟦ de X est défini, s’il existe, par :
- {\displaystyle \beta _{r}\triangleq \mathbb {E} \left[\left({\frac {X-\mu }{\sigma }}\right)^{r}\right]}
On a donc βr = μr⁄σr et, par construction, β0 = 1.
Moment spectral
[modifier | modifier le code ]Les moments spectraux permettent l'étude des vibrations aléatoires dans le domaine fréquentiel. En considérant la densité spectrale de puissance Φ d'une vibration aléatoire, le moment spectral d'ordre i, noté {\displaystyle m_{i}}, peut s'écrire:
- {\displaystyle m_{i}\left[\Phi (f)\right]=\int _{-\infty }^{+\infty }(2\pi f)^{i}\Phi (f),円\mathrm {d} f}
Moments remarquables
[modifier | modifier le code ]Certains moments, utilisés couramment pour caractériser une variable aléatoire réelle X, sont connus sous un nom particulier :
- l’espérance, moment d’ordre un : {\displaystyle \mu \triangleq m_{1}=\mathbb {E} (X)} ;
- la variance, moment centré d’ordre deux : {\displaystyle \operatorname {V} (X)\triangleq \mu _{2}=\mathbb {E} [(X-\mu )^{2}]}, ainsi que sa racine carrée l’écart type : {\displaystyle \sigma \triangleq {\sqrt {\operatorname {V} (X)}}={\sqrt {\mu _{2}}}} ;
- le coefficient d’asymétrie, moment centré réduit d’ordre trois[2] : {\displaystyle \gamma _{1}\triangleq \beta _{1}=\mathbb {E} \left[\left({\frac {X-\mu }{\sigma }}\right)^{3}\right]} ;
- le kurtosis non normalisé, moment centré réduit d’ordre quatre : {\displaystyle \beta _{2}=\mathbb {E} \left[\left({\frac {X-\mu }{\sigma }}\right)^{4}\right]}.
Fonction génératrice des moments
[modifier | modifier le code ]La fonction génératrice des moments MX d’une variable aléatoire réelle X est la série génératrice exponentielle associée à la suite (mr)r ∈ N des moments de X, définie au voisinage de 0 et sous réserve d’existence de tous les moments :
- {\displaystyle M_{X}(t)\triangleq \sum _{r=0}^{\infty }m_{r},円{\frac {t^{r}}{r!}}}
Elle peut également s’écrire, au voisinage de 0 et sous réserve d’existence de l’espérance :
- {\displaystyle M_{X}(t)=\mathbb {E} \left(\mathrm {e} ^{tX}\right)}
Les dérivées itérées en 0 de cette série génératrice exponentielle valent :
- {\displaystyle M_{X}^{(r)}(0)=m_{r}}
Propriétés
[modifier | modifier le code ]Dimension
[modifier | modifier le code ]Soit [X] la dimension de la variable aléatoire réelle X.
Les moments ordinaire et centré d’ordre r, s’ils existent, ont pour dimension [X]r.
Dans l’écriture ∫x∈I xr dFX(x) du moment d’ordre r, la variable x a pour dimension [X]. La mesure de probabilité P étant une grandeur sans dimension, la fonction de répartition FX, définie par ∀ x ∈ I, FX(x) = P(X ≤ x), est également adimensionnelle, de même donc pour son infinitésimal dFX(x). Donc mr = ∫x∈I xr dFX(x) a pour dimension [Xr].
E(X) = m1 ayant pour dimension [X], c’est également le cas de x - E(X), donc μr = ∫x∈I [x - E(X)]r dFX(x) a également pour dimension [Xr].
Le moment centré réduit d’ordre r, s’il existe, est une grandeur sans dimension.
μ2 ayant pour dimension [X2], σ = √μ2 a pour dimension [X], donc βr-2 = μr⁄σr a pour dimension [Xr⁄Xr] = [1].
Transformation affine
[modifier | modifier le code ]Sur les moments ordinaires
[modifier | modifier le code ]Le moment ordinaire d’ordre 1, s’il existe, est linéaire :
- {\displaystyle \forall (\theta ,\lambda )\in \mathbb {R} ^{2},m_{1}(\theta ,円X+\lambda )=\theta ,円m_{1}(X)+\lambda }
Soit Λ = {λ} la variable aléatoire constante valant λ avec une probabilité 1. La translation de longueur λ des valeurs d’une variable aléatoire correspond à la somme de cette variable aléatoire et de Λ : θ X + λ ≜ θ X + Λ. Sachant que E(Λ) = λ, on a donc, par linéarité de l’espérance :
- {\displaystyle m_{1}(\theta ,円X+\lambda )=\mathbb {E} (\theta ,円X+\lambda )=\mathbb {E} (\theta ,円X+\Lambda )=\theta ,円\mathbb {E} (X)+\mathbb {E} (\Lambda )=\theta ,円\mathbb {E} (X)+\lambda =\theta ,円m_{1}(X)+\lambda }
Le moment ordinaire d’ordre r > 1 de θ X + λ, s’il existe, ne s’exprime pas uniquement en fonction du moment d’ordre r de X :
- {\displaystyle \forall (\theta ,\lambda )\in \mathbb {R} ^{2},m_{r}(\theta ,円X+\lambda )=\sum _{i=0}^{r}C_{r}^{i},円\theta ^{r-i},円\lambda ^{i},円m_{r-i}(X)=\sum _{i=0}^{r}C_{r}^{i},円\theta ^{i},円\lambda ^{r-i},円m_{i}(X)}
En développant le binôme (θ X + λ)r et par linéarité de l’espérance, on a :
- {\displaystyle m_{r}(\theta ,円X+\lambda )=\mathbb {E} [(\theta ,円X+\lambda )^{r}]=\mathbb {E} \left[\sum _{i=0}^{r}C_{r}^{i},円(\theta ,円X)^{i},円\lambda ^{r-i}\right]=\sum _{i=0}^{r}C_{r}^{i},円\theta ^{i},円\lambda ^{r-i},円\mathbb {E} (X^{i})=\sum _{i=0}^{r}C_{r}^{i},円\theta ^{i},円\lambda ^{r-i},円m_{i}(X).}
On retrouve ainsi la linéarité de m1 et la constance de m0.
Sur les moments centrés
[modifier | modifier le code ]Le moment centré d’ordre r, s’il existe, est invariant par translation et homogène de degré r :
- {\displaystyle \forall (\theta ,\lambda )\in \mathbb {R} ^{2},\mu _{r}(\theta ,円X+\lambda )=\theta ^{r},円\mu _{r}(X)}
Sachant que E(θ X + λ) = θ E(X) + λ (voir transformation affine sur le moment ordinaire d’ordre 1), on a :
- {\displaystyle (\theta ,円X+\lambda )-\mathbb {E} (\theta ,円X+\lambda )=\theta ,円X+\lambda -\theta ,円\mathbb {E} (X)-\lambda =\theta ,円[X-\mathbb {E} (X)]}
Par linéarité de l’espérance, on a donc :
- {\displaystyle \mu _{r}(\theta ,円X+\lambda )=\mathbb {E} ([\theta ,円X+\lambda -\mathbb {E} (\theta ,円X+\lambda )]^{r})=\mathbb {E} (\theta ^{r},円[X-\mathbb {E} (X)]^{r})=\theta ^{r},円\mathbb {E} ([X-\mathbb {E} (X)]^{r})=\theta ^{r},円\mu _{r}(X)}
Sachant que μr(X) = mr(X - E(X)), la fonction génératrice des moments centrés de X est donc la fonction génératrice des moments ordinaires de X - E(X) :
- {\displaystyle {\mathcal {M}}_{X}(t)=M_{X-\mathbb {E} (X)}(t)=\mathbb {E} \left(e^{t[X-\mathbb {E} (X)]}\right)}
Sachant que (θ X + λ) - E(θ X + λ) = θ [X - E(X)] (voir démonstration 1), on a donc :
- {\displaystyle {\mathcal {M}}_{\theta ,円X+\lambda }(t)=\mathbb {E} \left(e^{t[(\theta ,円X+\lambda )-\mathbb {E} (\theta ,円X+\lambda )]}\right)=\mathbb {E} \left(e^{\theta t[X-\mathbb {E} (X)]}\right)={\mathcal {M}}_{X}(\theta t)}
Par dérivation itérée de cette fonction composée, on a donc :
- {\displaystyle {\mathcal {M}}_{\theta ,円X+\lambda }^{(r)}(t)=[{\mathcal {M}}_{X}(\theta t)]^{(r)}=\theta ^{r}{\mathcal {M}}_{X}^{(r)}(\theta t)}
D’où, en 0 :
- {\displaystyle \mu _{r}(\theta ,円X+\lambda )={\mathcal {M}}_{\theta ,円X+\lambda }^{(r)}(0)=\theta ^{r}{\mathcal {M}}_{X}^{(r)}(0)=\theta ^{r}\mu _{r}(X)}
Sur les moments centrés réduits
[modifier | modifier le code ]Par transformation affine de coefficient directeur non nul (afin que σ soit non nul), le moment centré réduit d’ordre r, s’il existe, est simplement multiplié par le signe du coefficient directeur élevé à la puissance r :
- {\displaystyle \forall (\theta ,\lambda )\in \mathbb {R} ^{*}\!\!\times \!\mathbb {R} ,\beta _{r-2}(\theta ,円X+\lambda )=\operatorname {sgn}(\theta )^{r},円\beta _{r-2}(X)}
La valeur absolue d’un moment centré réduit est donc invariante par transformation affine de pente non nulle.
L’écart type de θ X + λ vaut :
- {\displaystyle \sigma _{\theta ,円X+\lambda }={\sqrt {\mu _{2}(\theta ,円X+\lambda )}}={\sqrt {\theta ^{2}\mu _{2}(X)}}=|\theta |\sigma _{X}}
Le moment centré réduit d’ordre r de θ X + λ vaut donc :
- {\displaystyle \beta _{r-2}(\theta ,円X+\lambda )={\frac {\mu _{r}(\theta ,円X+\lambda )}{\sigma _{\theta ,円X+\lambda }^{\ r}}}={\frac {\theta ^{r}\mu _{r}(X)}{(|\theta |\sigma _{X})^{r}}}=\left({\frac {\theta }{|\theta |}}\right)^{r}{\frac {\mu _{r}(X)}{\sigma _{X}^{r}}}=\operatorname {sgn}(\theta )^{r},円\beta _{r-2}(X)}
En distinguant selon le signe de θ et la parité de r, on peut donc écrire :
- {\displaystyle \forall (\theta ,\lambda )\in \mathbb {R} ^{*}\!\!\times \!\mathbb {R} ,\beta _{r}(\theta ,円X+\lambda )={\begin{cases}\beta _{r}(X)&{\text{si }}\theta >0{\text{ ou }}r{\text{ est pair}}\\-\beta _{r}(X)&{\text{si }}\theta <0{\text{ et }}r{\text{ est impair}}\end{cases}}}
Additivité
[modifier | modifier le code ]Soient X et Y deux variables aléatoires réelles, on a alors :
- {\displaystyle m_{1}(X+Y)=m_{1}(X)+m_{1}(Y)}
Si X et Y sont indépendantes, on a en outre :
- {\displaystyle \mu _{2}(X+Y)=\mu _{2}(X)+\mu _{2}(Y)}
- {\displaystyle \mu _{3}(X+Y)=\mu _{3}(X)+\mu _{3}(Y)}
Cette propriété d’additivité n’existe que pour les trois moments particuliers cités[3] . Les mesures de risque vérifiant cette propriété sont appelés les cumulants.
Relations entre moments ordinaires et moments centrés
[modifier | modifier le code ]Moments centrés en fonction des moments ordinaires
[modifier | modifier le code ]Le moment centré d’ordre r, s’il existe, s’écrit :
- {\displaystyle \mu _{r}=\sum _{i=0}^{r}C_{r}^{i},円m_{r-i},円(-m_{1})^{i}=\sum _{i=0}^{r}C_{r}^{i},円m_{i},円(-m_{1})^{r-i}}
En développant le binôme dans l’expression de μr et par linéarité de l’espérance, on a :
- {\displaystyle \mu _{r}=\mathbb {E} [(X-m_{1})^{r}]=\mathbb {E} \left[\sum _{i=0}^{r}C_{r}^{i},円X^{r-i},円(-m_{1})^{i}\right]=\sum _{i=0}^{r}C_{r}^{i},円\mathbb {E} (X^{r-i}),円(-m_{1})^{i}=\sum _{i=0}^{r}C_{r}^{i},円m_{r-i},円(-m_{1})^{i}}
Puis, en rappelant que Ck
n = Cn-k
n, on obtient la seconde écriture par le changement de variable i ↦ r - i.
En rappelant que m0 = 1, les premiers moments centrés s’expriment donc, en fonction des moments ordinaires :
- {\displaystyle \mu _{2}=m_{2}-m_{1}^{2}}
- {\displaystyle \mu _{3}=m_{3}-3,円m_{2},円m_{1}+2,円m_{1}^{3}}
- {\displaystyle \mu _{4}=m_{4}-4,円m_{3},円m_{1}+6,円m_{2},円m_{1}^{2}-3,円m_{1}^{4}}
- {\displaystyle \mu _{5}=m_{5}-5,円m_{4},円m_{1}+10,円m_{3},円m_{1}^{2}-10,円m_{2},円m_{1}^{3}+4,円m_{1}^{5}}
- {\displaystyle \mu _{6}=m_{6}-6,円m_{5},円m_{1}+15,円m_{4},円m_{1}^{2}-20,円m_{3},円m_{1}^{3}+15,円m_{2},円m_{1}^{4}-5,円m_{1}^{6}}
Moments ordinaires en fonction des moments centrés
[modifier | modifier le code ]Réciproquement, en posant μ = E(X), le moment ordinaire d’ordre r, s’il existe, s’écrit :
- {\displaystyle m_{r}=\sum _{i=0}^{r}C_{r}^{i},円\mu _{r-i},円\mu ^{i}=\sum _{i=0}^{r}C_{r}^{i},円\mu _{i},円\mu ^{r-i}}
En développant le binôme dans l’expression de mr et par linéarité de l’espérance, on a :
- {\displaystyle m_{r}=\mathbb {E} (X^{r})=\mathbb {E} [(X-\mu +\mu )^{r}]=\mathbb {E} \left[\sum _{i=0}^{r}C_{r}^{i},円(X-\mu )^{r-i},円\mu ^{i}\right]=\sum _{i=0}^{r}C_{r}^{i},円\mathbb {E} [(X-\mu )^{r-i}],円\mu ^{i}=\sum _{i=0}^{r}C_{r}^{i},円\mu _{r-i},円\mu ^{i}}
Puis, en rappelant que Ck
n = Cn-k
n, on obtient la seconde écriture par le changement de variable i ↦ r - i.
En rappelant que μ0 = 1 et μ1 = 0, les premiers moments ordinaires s’expriment donc, en fonction des moments centrés et de μ :
- {\displaystyle m_{2}=\mu _{2}+\mu ^{2}}
- {\displaystyle m_{3}=\mu _{3}+3,円\mu _{2},円\mu +\mu ^{3}}
- {\displaystyle m_{4}=\mu _{4}+4,円\mu _{3},円\mu +6,円\mu _{2},円\mu ^{2}+\mu ^{4}}
- {\displaystyle m_{5}=\mu _{5}+5,円\mu _{4},円\mu +10,円\mu _{3},円\mu ^{2}+10,円\mu _{2},円\mu ^{3}+\mu ^{5}}
- {\displaystyle m_{6}=\mu _{6}+6,円\mu _{5},円\mu +15,円\mu _{4},円\mu ^{2}+20,円\mu _{3},円\mu ^{3}+15,円\mu _{2},円\mu ^{4}+\mu ^{6}}
Estimateur non biaisé des moments ordinaires
[modifier | modifier le code ]À partir d’un échantillon {X1, X2, ..., Xn} de la variable aléatoire réelle X, on peut utiliser comme estimateur sans biais du moment ordinaire d’ordre r, s’il existe, l’estimateur suivant :
- {\displaystyle {\hat {m_{r}}}={\frac {1}{n}}\sum _{i=1}^{n}X_{i}^{\ r}}
Problème des moments
[modifier | modifier le code ]Tandis que le calcul des moments consiste à déterminer les moments mr d’une loi de probabilité p donnée, le problème des moments consiste inversement à étudier l’existence et l’unicité d’une loi de probabilité p dont les moments mr sont donnés.
Extension de la notion de moment
[modifier | modifier le code ]Sur le modèle des moments E(Xr), d’autres moments peuvent être définis :
- le moment inverse en 0 d’ordre r sur I ∌ 0 : {\displaystyle \mathbb {E} (X^{-r})} ;
- le moment logarithmique d’ordre r sur I ⊂ R*
+ ;- le moment logarithmique d'ordre 1 apparait dans la définition de l'entropie de Shannon
- le moment factoriel d’ordre r : {\displaystyle \mathbb {E} \left[(X)_{r}\right]} (factorielle décroissante).
Voir aussi
[modifier | modifier le code ]Notes et références
[modifier | modifier le code ]- ↑ Ce cas arrive par exemple pour les moments d’ordre impair d’une fonction paire définie sur R : même si ∫x∈R |xr f(x)| dx diverge, la fonction x ↦ xr f(x) est impaire donc a une primitive paire, d’où ∀ t ∈ R, ∫t
-t xr f(x) dx = 0, donc ∫x∈R xr f(x) dx est une intégrale impropre convergente valant 0. - ↑ Pour des raisons historiques et en accord avec la notation des cumulants réduits, le coefficient d’asymétrie est noté γ1 plutôt que β1.
- ↑ Formellement parlant, sachant que μ1 = 0, on pourrait ajouter le cas dégénéré μ1(X + Y) = μ1(X) + μ1(Y), mais cela n’apporte aucune information utile à l’étude de X + Y.