Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
divers:cours:probabilites:fonction_generatrice [2023/08/30 19:18] – supprimée - modification externe (Unknown date) 127.0.0.1divers:cours:probabilites:fonction_generatrice [2023/08/30 19:18] (Version actuelle) – ↷ Page déplacée de etudes:cours:probabilites:fonction_generatrice à divers:cours:probabilites:fonction_generatrice de-weerd2022
Ligne 1: Ligne 1:
 +
 +======Fonction génératrice======
 +
 +En mathématiques, la //fonction génératrice// de la suite (//a//<sub>//n//</sub>) est la série formelle définie par 
 +:$\sum a_nX^n$
 +On confond parfois la fonction génératrice et une fonction de la variable //x//. Cependant, il est utile de préciser qu'une fonction génératrice est avant tout une série formelle et que la fonction de la variable //x// correspondante risque de ne pas converger pour tout //x//.
 +
 +  *fonction génératrice de la suite constante 1 : $\sum X^n = \frac{1}{1 - X}$
 +  *fonction génératrice de la suite (//n//) : $\sum nX^n  = \frac{X}{(1-X)^2}$
 +  *fonction génératrice de la suite $(n^2)$ : $\sum n^2X^n  = \frac{X(1+X)}{(1-X)^3}$
 +  *fonction génératrice de la suite $\frac{1}{n!}$ : $\sum \frac{X^n}{n!} = e^X$
 +
 +On parle  aussi de //fonction génératrice exponentielle// de la suite (//a//<sub>//n//</sub>) définie par la série formelle $\sum a_n \frac{X^n}{n!}$.
 +
 +Lorsque l'on travaille plutôt avec l'inverse de //X//, la variable //z//=1///X//, on parle alors de la transformée en Z, $\sum a_n{(1/z)}^n$, qui est beaucoup utilisée en traitement du signal et en asservissements.
 +
 +On peut retrouver la suite initiale (//a//<sub>//n//</sub>) à partir de la fonction génératrice $F(X)$ (resp. la fonction génératrice exponentielle $E(X)$) selon les formules
 +:$a_k = \frac{1}{k!} \frac{d^k F}{d X^k}(0) \quad\text{ et }\quad a_k = \frac{d^k E}{d X^k}(0)$
 +
 +
 +=====Définition=====
 +
 +Soit //X// une variable aléatoire entière et positive, la fonction génératrice de //X// est la série entière: 
 +
 +$ G_X(t)=\sum _{k=0} ^\infty \mathbb{P}(X=k)t^k,$
 +
 +où $\scriptstyle\ \mathbb{P}(X=k)\ $ est la probabilité que la variable aléatoire //X// prenne la valeur //k//.
 +
 +=====Fonctions génératrices de lois usuelles=====
 +
 +  *Pour la loi de Poisson de paramètre //?//, on a $\scriptstyle\ \mathbb{P}(X=k)= \frac {\lambda^k}{k!}e^{-\lambda}\ $ et il vient 
 +$G_{\lambda}(t)=e^{\lambda(t-1)}\ ;$
 +
 +  *Pour la loi binomiale de paramètres (//n//, //p//), on a $\scriptstyle\ \mathbb{P}(X=k)= C^k _n p^k (1-p)^{n-k}\ $ et on en déduit 
 +$G_{n,p}(t) = (1-p+pt)^n.$
 +
 +=====Propriétés=====
 +
 +  *Le rayon de convergence de cette série entière est toujours supérieur ou égal à 1.
 +
 +  *On peut remarquer que 
 +$G_X(t)=\mathbb{E}[t^{ X}].$
 +
 +  *Si //X// admet une espérance $\scriptstyle\ \mathbb{E}[X]\ $ alors $\scriptstyle\ G_X\ $ et sa dérivée sont définies en //t=1// et on a: 
 +$\mathbb{E}[X]= \frac{dG_X}{dt} (t=1).$
 +
 +  *Si //X// admet une variance $\scriptstyle\ \text{Var}(X)\ $, et donc une espérance $\scriptstyle\ \mathbb{E}[X],\ $ alors $\scriptstyle\ G_X\ $ et ses dérivées première et seconde sont définies en //t=1// et on a:
 +$ Var[X]=\frac{d^2 G_X}{dt^2} (t=1) + \frac {dG_X} {dt} (t=1) - \left(\frac{dG_X}{dt} (t=1)\right)^2.$
 +
 +  *Si deux variables aléatoires réelles discrètes à valeurs dans $\scriptstyle\ \mathbb{N}\ $ admettent la même fonction génératrice, alors elles ont la même loi de probabilité<ref>Ce résultat est induit par le fait qu'il existe une relation bijective entre une loi de probabilité et sa fonction génératrice. La loi de probabilité définit la fonction génératrice //F// et, réciproquement, on retrouve la loi de probabilité à partir de //F// puisque $p_k = F^{(k)}(0)/k!$. </ref>.
 +
 +  *Soient //X// et //Y// deux variables aléatoires réelles discrètes entières et positives. Si //X// et //Y// sont indépendantes alors on a:
 +$G_{X+Y}=G_X\times G_Y.$
 +
 +//Remarque// : La réciproque est fausse.
 +
 +  * Si //X//<sub>1</sub>, //X//<sub>2</sub>, ..., //X//<sub>n</sub> est une suite de variables aléatoires indépendantes, et si
 +
 +$S_n = \sum_{i=1}^n a_i X_i,$
 +
 +où les //a//<sub>i</sub> sont des constantes, alors
 +
 +$G_{S_n}(z) = E(z^{S_n}) = E(z^{\sum_{i=1}^n a_i X_i,}) = G_{X_1}(z^{a_1})G_{X_2}(z^{a_2})\cdots G_{X_n}(z^{a_n}).$
 +
 +  *Par exemple, si les //X//<sub>i</sub> ont de plus même loi (et donc même fonction génératrice //G //), alors
 +
 +$S_n = \sum_{i=1}^n X_i,$
 +
 + a pour fonction génératrice :
 +
 +$G_{S_n} = G^n.$
 +
 +===== Composition des fonctions génératrices =====
 +La propriété suivante est particulièrement utile à l'étude des processus de Galton-Watson.
 +Soit $\scriptstyle\ (X_n)\ $ une suite de variables aléatoires de même loi et $\scriptstyle\ N\ $ une variable aléatoire, toutes à valeurs dans $\scriptstyle\ \mathbb{N}.$ 
 +
 +  * On pose
 +$S_N = \sum_{n=1}^{N}X_n= \sum_{n\ge 1}X_n\ 1\!\!1_{\{N\ge n\}}.$
 +  * On suppose que $\scriptstyle\ (N,X_1,X_2,...)\ $ est une famille de variables aléatoires indépendantes. 
 +
 +Alors :
 +
 +$G_{S_N}=G_N\circ G_X.$
 +
 +Notons que, si $\scriptstyle\ S_0\equiv 0,\ $ et si
 +$S_n = \sum_{k=1}^{n}X_k,$
 +alors
 +$S_N = \sum_{n\ge 0}\ S_n\ 1\!\!1_{\{N= n\}}.$
 +Par conséquent,
 +$ \begin{align}
 +G_{S_N}(z) &= \mathbb{E}\left[z^{S_N}\right]\\
 +&= \mathbb{E}\left[z^{\sum_{n\ge 0}\ S_n\ 1\!\!1_{\{N= n\}}}\right]\\
 +&= \mathbb{E}\left[\sum_{n\ge 0}\ z^{S_n}\ 1\!\!1_{\{N= n\}}\right]\\
 +&= \sum_{n\ge 0}\ \mathbb{E}\left[z^{S_n}\ 1\!\!1_{\{N= n\}}\right]\\
 +&= \sum_{n\ge 0}\ \mathbb{E}\left[z^{S_n}\right]\times\mathbb{E}\left[1\!\!1_{\{N= n\}}\right]\\
 +&= \sum_{n\ge 0}\ G_{S_n}(z)\times\mathbb{P}\left(N= n\right)\\
 +&= \sum_{n\ge 0}\ \mathbb{P}\left(N= n\right)\times \left(G_{X}(z)\right)^n\\
 +&= G_N\left(G_X(z)\right).
 +\end{align}$
 +
 +
 +=====Généralisation aux variables aléatoires non entières=====
 +Cette notion de fonction génératrice se généralise aux variables aléatoires continues par les fonctions caractéristiques. Une autre notion utile est la fonction génératrice des moments.