Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
divers:cours:probabilites:variables_gaussiennes [2023/08/30 18:45] – supprimée - modification externe (Unknown date) 127.0.0.1divers:cours:probabilites:variables_gaussiennes [2023/08/30 19:18] (Version actuelle) – ↷ Page déplacée de etudes:cours:probabilites:variables_gaussiennes à divers:cours:probabilites:variables_gaussiennes de-weerd2022
Ligne 1: Ligne 1:
 +======Variables gaussiennes ======
 +=====Définition=====
 +En probabilité, une variable aléatoire réelle //X// est une //variable gaussienne// d'espérance //µ// et d'écart type $\sigma$ (donc de  variance $ \sigma^2$) si elle admet pour fonction caractéristique $\scriptstyle \ \phi_X,\ $  définie, pour $\scriptstyle \ t\in\mathbb{R},\ $ par
 +$\phi_X(t)=\mathbb{E}\left[e^{itX}\right]=\mathrm{e}^{-\tfrac{\sigma^2}{2}\ t^2\ +\ it\mu},$
  
 +où $\sigma\ge 0,$ et où $\mu$ désigne un nombre réel quelconque.}}
 +=====Cas non dégénéré et cas dégénéré=====
 +Si $\sigma$ n'est pas nul,  la variable gaussienne //X// admet une densité de probabilité //f// définie, pour tout réel //x//, par
 +
 +$f(x)=\tfrac{1}{\sigma \sqrt{2\pi}}\ \exp\left(-\frac{\left(x-\mu\right)^2}{2\sigma^2}\right).$
 +
 +  *Si $\sigma=0,\ $ on parle de variable gaussienne //dégénérée// : la variable gaussienne  //dégénérée// est alors tout simplement une constante, et ne possède pas de densité de probabilité. Sa loi de probabilité est la masse de Dirac en //µ//. Cette extension du vocable //variable gaussienne// aux variables constantes est nécessaire à la définition rigoureuse d'un vecteur gaussien.
 +
 +=====Loi normale=====
 +Si //X// est une //variable gaussienne// d'espérance //µ// et d'écart type $\sigma$, on note  habituellement 
 +
 +$X \sim \mathcal{N}(\mu,\, \sigma^2),$on a aussi utilisé la notation $\mathcal{N}(\mu,\, \sigma)$, mais cette notation, qui n'est pas cohérente avec la notation habituelle de la loi (multi-)normale sur $\ \R^n$, tend à céder la place à la notation "classique" $\mathcal{N}(\mu,\, \sigma^2).$
 +et on dit que //X// suit la loi normale de paramètres //µ// et $\sigma$.
 +
 +La loi normale est une des principales distributions de probabilité. Elle a été introduite par le mathématicien Abraham de Moivre en 1733 et utilisée par lui afin d'approcher des probabilités associées à des variables aléatoires binomiales possédant un paramètre //n// très grand. Cette loi a été mise en évidence par Pierre-Simon de Laplace et Carl Friedrich Gauss au XIXe et permet de modéliser de nombreuses études biométriques. Sa densité de probabilité dessine une courbe dite //courbe en cloche// ou courbe de Gauss. L'importance de la loi normale découle essentiellement du théorème central limite.
 +
 +=====Invariance par fonction affine=====
 +Si$Y \sim \mathcal{N}(0,\, 1),$
 +et si //X// est une variable gaussienne de paramètres //µ// et $\sigma$, alors //X// a même loi de probabilité qu'une fonction affine de //Y//, par exemple que $\mu + \sigma\Y$, mais aussi que $\mu - \sigma\Y$.  L'image d'une variable gaussienne par une fonction affine est encore une variable gaussienne. }}
 +
 +===== Voir aussi =====
 +  * [[Lois usuelles de probabilités]]
 +  * [[Convergence et théorèmes limites]]