En probabilité, une variable aléatoire réelle X est une variable gaussienne d'espérance µ et d'écart type $\sigma$ (donc de variance $ \sigma^2$) si elle admet pour fonction caractéristique $\scriptstyle \ \phi_X,\ $ définie, pour $\scriptstyle \ t\in\mathbb{R},\ $ par $\phi_X(t)=\mathbb{E}\left[e^{itX}\right]=\mathrm{e}^{-\tfrac{\sigma^2}{2}\ t^2\ +\ it\mu},$
où $\sigma\ge 0,$ et où $\mu$ désigne un nombre réel quelconque.}}
Si $\sigma$ n'est pas nul, la variable gaussienne X admet une densité de probabilité f définie, pour tout réel x, par
$f(x)=\tfrac{1}{\sigma \sqrt{2\pi}}\ \exp\left(-\frac{\left(x-\mu\right)^2}{2\sigma^2}\right).$
Si X est une variable gaussienne d'espérance µ et d'écart type $\sigma$, on note habituellement
$X \sim \mathcal{N}(\mu,\, \sigma^2),$on a aussi utilisé la notation $\mathcal{N}(\mu,\, \sigma)$, mais cette notation, qui n'est pas cohérente avec la notation habituelle de la loi (multi-)normale sur $\ \R^n$, tend à céder la place à la notation “classique” $\mathcal{N}(\mu,\, \sigma^2).$ et on dit que X suit la loi normale de paramètres µ et $\sigma$.
La loi normale est une des principales distributions de probabilité. Elle a été introduite par le mathématicien Abraham de Moivre en 1733 et utilisée par lui afin d'approcher des probabilités associées à des variables aléatoires binomiales possédant un paramètre n très grand. Cette loi a été mise en évidence par Pierre-Simon de Laplace et Carl Friedrich Gauss au XIXe et permet de modéliser de nombreuses études biométriques. Sa densité de probabilité dessine une courbe dite courbe en cloche ou courbe de Gauss. L'importance de la loi normale découle essentiellement du théorème central limite.
Si$Y \sim \mathcal{N}(0,\, 1),$ et si X est une variable gaussienne de paramètres µ et $\sigma$, alors X a même loi de probabilité qu'une fonction affine de Y, par exemple que $\mu + \sigma\Y$, mais aussi que $\mu - \sigma\Y$. L'image d'une variable gaussienne par une fonction affine est encore une variable gaussienne. }}