Lois usuelles de probabilités

Lois discrètes

Loi de Bernoulli

En mathématiques, la 'distribution de Bernoulli' ou 'loi de Bernoulli', du nom du mathématicien suisse Jacques Bernoulli, est une loi de probabilité discrète de probabilité, qui prend la valeur 1 avec la probabilité p et 0 avec la probabilité <math>\scriptstyle\ q = 1 - p.</math>

<center><math> \mathbb{P}(X=x) = \left\{\begin{array}{ll} p &\quad\mbox {si }x=1,
1-p &\quad\mbox {si }x=0,
0 &\quad\mbox {sinon.}\end{array}\right.</math></center>

L'espérance mathématique d'une variable aléatoire de Bernoulli vaut p et la variance (statistiques et probabilités)|variance vaut p(1-p).

Le kurtosis tend vers l'infini pour des valeurs hautes et basses de p, mais pour <math>\scriptstyle\ p=1/2\ </math> la distribution de Bernoulli a un kurtosis plus bas que toute autre distribution, c’est-à-dire 1.

Loi binomiale

Si <math>\scriptstyle\ X_1,\dots,X_n\ </math> sont des variables aléatoires de Bernoulli avec paramètre p, alors leur somme N suit la loi binomiale :

<center><math>N = \sum_{k=1}^n X_k \sim \mathcal{B}(n,p).</math></center>

Loi géométrique

Loi binomiale négative

Loi de poisson

En théorie des probabilités et en statistiques, la 'loi de Siméon Denis Poisson' est une loi de probabilité qui décrit le comportement du nombre d'évènements se produisant dans un laps de temps fixé, si ces évènements se produisent avec une fréquence moyenne connue et indépendamment du temps écoulé depuis l'évènement précédent. La loi de Poisson est également pertinente pour décrire le nombre d'évènements dans d'autres types d'intervalles, spatiaux plutôt que temporels, comme des segments, surfaces ou volumes.

La loi de Poisson a été introduite en 1838 par Siméon-Denis Poisson (1781–1840), dans son ouvrage Recherches sur la probabilité des jugements en matière criminelle et en matière civile. Le sujet principal de cet ouvrage consiste en certaines variables aléatoires N qui dénombrent, entre autres choses, le nombre d'occurrences (parfois appelées “arrivées”) qui prennent place pendant un laps de temps de longueur donnée.

Si le nombre moyen d'occurrences dans cet intervalle est λ, alors la probabilité qu'il existe exactement k occurrences (k étant un entier naturel, k = 0, 1, 2, …) est

:<math>p(k) = P(X = k)= \mathrm{e}^{-\lambda}\frac{\lambda ^k}{k!}\,</math> où * e est la base de l'exponentielle (2,718…) * k! est la factorielle de k * λ est un nombre réel strictement positif<ref name=“convention”>Avec les conventions habituelles 0!=1 et 00=1, la définition de la loi de Poisson s'étend à λ=0 : on trouve alors p(0)=1 et, dès que k>0, p(k)=0. Ainsi une variable aléatoire nulle presque sûrement peut être vue comme suivant la loi de Poisson de paramètre 0. Cette convention est cohérente avec les propriétés essentielles de la loi de Poisson de paramètre strictement positif. Elle est commode, voire indispensable, par exemple lors de l'étude des processus ponctuels de Poisson.</ref>. On dit alors que X suit la loi de Poisson de paramètre λ.

Loi hypergéométrique

Loi uniforme

Loi d'une v.a presque sûrement égale à une valeur constante x0

Loi multinomiale

Lois continues

Loi uniforme sur intervalle

Loi triangulaire

Loi normale

Loi exponentielle

Loi gamma

Loi beta

Loi khi-deux

Loi de Student

Loi de Fischer

Quelques relations entre les lois usuelles

Binomiale et Poisson

Binomiale et Normale

Poisson et Normale

Khi-deux et Normale