Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
Dernière révisionLes deux révisions suivantes
divers:cours:probabilites:variables_gaussiennes [2023/08/30 18:45] – ↷ Page déplacée de cours:probabilites:variables_gaussiennes à divers:cours:probabilites:variables_gaussiennes de-weerd2022divers:cours:probabilites:variables_gaussiennes [2023/08/30 19:18] – supprimée - modification externe (Unknown date) 127.0.0.1
Ligne 1: Ligne 1:
-======Variables gaussiennes ====== 
-=====Définition===== 
-En probabilité, une variable aléatoire réelle //X// est une //variable gaussienne// d'espérance //µ// et d'écart type $\sigma$ (donc de  variance $ \sigma^2$) si elle admet pour fonction caractéristique $\scriptstyle \ \phi_X,\ $  définie, pour $\scriptstyle \ t\in\mathbb{R},\ $ par 
-$\phi_X(t)=\mathbb{E}\left[e^{itX}\right]=\mathrm{e}^{-\tfrac{\sigma^2}{2}\ t^2\ +\ it\mu},$ 
  
-où $\sigma\ge 0,$ et où $\mu$ désigne un nombre réel quelconque.}} 
-=====Cas non dégénéré et cas dégénéré===== 
-Si $\sigma$ n'est pas nul,  la variable gaussienne //X// admet une densité de probabilité //f// définie, pour tout réel //x//, par 
- 
-$f(x)=\tfrac{1}{\sigma \sqrt{2\pi}}\ \exp\left(-\frac{\left(x-\mu\right)^2}{2\sigma^2}\right).$ 
- 
-  *Si $\sigma=0,\ $ on parle de variable gaussienne //dégénérée// : la variable gaussienne  //dégénérée// est alors tout simplement une constante, et ne possède pas de densité de probabilité. Sa loi de probabilité est la masse de Dirac en //µ//. Cette extension du vocable //variable gaussienne// aux variables constantes est nécessaire à la définition rigoureuse d'un vecteur gaussien. 
- 
-=====Loi normale===== 
-Si //X// est une //variable gaussienne// d'espérance //µ// et d'écart type $\sigma$, on note  habituellement  
- 
-$X \sim \mathcal{N}(\mu,\, \sigma^2),$on a aussi utilisé la notation $\mathcal{N}(\mu,\, \sigma)$, mais cette notation, qui n'est pas cohérente avec la notation habituelle de la loi (multi-)normale sur $\ \R^n$, tend à céder la place à la notation "classique" $\mathcal{N}(\mu,\, \sigma^2).$ 
-et on dit que //X// suit la loi normale de paramètres //µ// et $\sigma$. 
- 
-La loi normale est une des principales distributions de probabilité. Elle a été introduite par le mathématicien Abraham de Moivre en 1733 et utilisée par lui afin d'approcher des probabilités associées à des variables aléatoires binomiales possédant un paramètre //n// très grand. Cette loi a été mise en évidence par Pierre-Simon de Laplace et Carl Friedrich Gauss au XIXe et permet de modéliser de nombreuses études biométriques. Sa densité de probabilité dessine une courbe dite //courbe en cloche// ou courbe de Gauss. L'importance de la loi normale découle essentiellement du théorème central limite. 
- 
-=====Invariance par fonction affine===== 
-Si$Y \sim \mathcal{N}(0,\, 1),$ 
-et si //X// est une variable gaussienne de paramètres //µ// et $\sigma$, alors //X// a même loi de probabilité qu'une fonction affine de //Y//, par exemple que $\mu + \sigma\Y$, mais aussi que $\mu - \sigma\Y$.  L'image d'une variable gaussienne par une fonction affine est encore une variable gaussienne. }} 
- 
-===== Voir aussi ===== 
-  * [[Lois usuelles de probabilités]] 
-  * [[Convergence et théorèmes limites]]