======Lois usuelles de probabilités====== ===== Lois discrètes ===== ==== Loi de Bernoulli ==== En mathématiques, la '''distribution de Bernoulli''' ou '''loi de Bernoulli''', du nom du mathématicien suisse Jacques Bernoulli, est une loi de probabilité discrète de probabilité, qui prend la valeur 1 avec la probabilité ''p'' et 0 avec la probabilité \scriptstyle\ q = 1 - p.
\mathbb{P}(X=x) = \left\{\begin{array}{ll} p &\quad\mbox {si }x=1, \\ 1-p &\quad\mbox {si }x=0, \\ 0 &\quad\mbox {sinon.}\end{array}\right.
L'espérance mathématique d'une variable aléatoire de Bernoulli vaut ''p'' et la variance (statistiques et probabilités)|variance vaut ''p(1-p)''. Le [[divers:cours:probabilites:kurtosis]] tend vers l'infini pour des valeurs hautes et basses de ''p'', mais pour \scriptstyle\ p=1/2\ la distribution de Bernoulli a un kurtosis plus bas que toute autre distribution, c’est-à-dire 1. ==== Loi binomiale ==== Si \scriptstyle\ X_1,\dots,X_n\ sont des variables aléatoires de Bernoulli avec paramètre ''p'', alors leur somme ''N'' suit la loi binomiale :
N = \sum_{k=1}^n X_k \sim \mathcal{B}(n,p).
==== Loi géométrique ==== ==== Loi binomiale négative ==== ==== Loi de poisson ==== En théorie des probabilités et en statistiques, la '''loi de Siméon Denis Poisson''' est une loi de probabilité qui décrit le comportement du nombre d'évènements se produisant dans un laps de temps fixé, si ces évènements se produisent avec une fréquence moyenne connue et indépendamment du temps écoulé depuis l'évènement précédent. La loi de Poisson est également pertinente pour décrire le nombre d'évènements dans d'autres types d'intervalles, spatiaux plutôt que temporels, comme des segments, surfaces ou volumes. La loi de Poisson a été introduite en 1838 par Siméon-Denis Poisson (1781–1840), dans son ouvrage ''Recherches sur la probabilité des jugements en matière criminelle et en matière civile''. Le sujet principal de cet ouvrage consiste en certaines variables aléatoires ''N'' qui dénombrent, entre autres choses, le nombre d'occurrences (parfois appelées “arrivées”) qui prennent place pendant un laps de temps de longueur donnée. Si le nombre moyen d'occurrences dans cet intervalle est ''λ'', alors la probabilité qu'il existe exactement ''k'' occurrences (''k'' étant un entier naturel, ''k'' = 0, 1, 2, ...) est :p(k) = P(X = k)= \mathrm{e}^{-\lambda}\frac{\lambda ^k}{k!}\, où * ''e'' est la base de l'exponentielle (2,718...) * ''k!'' est la factorielle de ''k'' * ''λ'' est un nombre réel strictement positifAvec les conventions habituelles ''0!=1'' et ''00=1'', la définition de la loi de Poisson s'étend à ''λ=0'' : on trouve alors ''p(0)=1'' et, dès que ''k>0'', ''p(k)=0''. Ainsi une variable aléatoire nulle presque sûrement peut être vue comme suivant la loi de Poisson de paramètre ''0''. Cette convention est cohérente avec les propriétés essentielles de la loi de Poisson de paramètre strictement positif. Elle est commode, voire indispensable, par exemple lors de l'étude des processus ponctuels de Poisson.. On dit alors que ''X'' suit la ''loi de Poisson'' de paramètre ''λ''. ==== Loi hypergéométrique ==== ==== Loi uniforme ==== ==== Loi d'une v.a presque sûrement égale à une valeur constante x0 ==== ==== Loi multinomiale ==== ===== Lois continues ===== ==== Loi uniforme sur intervalle ==== ==== Loi triangulaire ==== ==== Loi normale ==== ==== Loi exponentielle ==== ==== Loi gamma ==== ===== Loi beta ===== ==== Loi khi-deux ==== ==== Loi de Student ==== ==== Loi de Fischer ==== ===== Quelques relations entre les lois usuelles ===== ==== Binomiale et Poisson ==== ==== Binomiale et Normale ==== ==== Poisson et Normale ==== ====Khi-deux et Normale ====