Fonction génératrice

En mathématiques, la fonction génératrice de la suite (an) est la série formelle définie par :$\sum a_nX^n$ On confond parfois la fonction génératrice et une fonction de la variable x. Cependant, il est utile de préciser qu'une fonction génératrice est avant tout une série formelle et que la fonction de la variable x correspondante risque de ne pas converger pour tout x.

  • fonction génératrice de la suite constante 1 : $\sum X^n = \frac{1}{1 - X}$
  • fonction génératrice de la suite (n) : $\sum nX^n = \frac{X}{(1-X)^2}$
  • fonction génératrice de la suite $(n^2)$ : $\sum n^2X^n = \frac{X(1+X)}{(1-X)^3}$
  • fonction génératrice de la suite $\frac{1}{n!}$ : $\sum \frac{X^n}{n!} = e^X$

On parle aussi de fonction génératrice exponentielle de la suite (an) définie par la série formelle $\sum a_n \frac{X^n}{n!}$.

Lorsque l'on travaille plutôt avec l'inverse de X, la variable z=1/X, on parle alors de la transformée en Z, $\sum a_n{(1/z)}^n$, qui est beaucoup utilisée en traitement du signal et en asservissements.

On peut retrouver la suite initiale (an) à partir de la fonction génératrice $F(X)$ (resp. la fonction génératrice exponentielle $E(X)$) selon les formules :$a_k = \frac{1}{k!} \frac{d^k F}{d X^k}(0) \quad\text{ et }\quad a_k = \frac{d^k E}{d X^k}(0)$

Définition

Soit X une variable aléatoire entière et positive, la fonction génératrice de X est la série entière:

$ G_X(t)=\sum _{k=0} ^\infty \mathbb{P}(X=k)t^k,$

où $\scriptstyle\ \mathbb{P}(X=k)\ $ est la probabilité que la variable aléatoire X prenne la valeur k.

Fonctions génératrices de lois usuelles

  • Pour la loi de Poisson de paramètre ?, on a $\scriptstyle\ \mathbb{P}(X=k)= \frac {\lambda^k}{k!}e^{-\lambda}\ $ et il vient

$G_{\lambda}(t)=e^{\lambda(t-1)}\ ;$

  • Pour la loi binomiale de paramètres (n, p), on a $\scriptstyle\ \mathbb{P}(X=k)= C^k _n p^k (1-p)^{n-k}\ $ et on en déduit

$G_{n,p}(t) = (1-p+pt)^n.$

Propriétés

  • Le rayon de convergence de cette série entière est toujours supérieur ou égal à 1.
  • On peut remarquer que

$G_X(t)=\mathbb{E}[t^{ X}].$

  • Si X admet une espérance $\scriptstyle\ \mathbb{E}[X]\ $ alors $\scriptstyle\ G_X\ $ et sa dérivée sont définies en t=1 et on a:

$\mathbb{E}[X]= \frac{dG_X}{dt} (t=1).$

  • Si X admet une variance $\scriptstyle\ \text{Var}(X)\ $, et donc une espérance $\scriptstyle\ \mathbb{E}[X],\ $ alors $\scriptstyle\ G_X\ $ et ses dérivées première et seconde sont définies en t=1 et on a:

$ Var[X]=\frac{d^2 G_X}{dt^2} (t=1) + \frac {dG_X} {dt} (t=1) - \left(\frac{dG_X}{dt} (t=1)\right)^2.$

  • Si deux variables aléatoires réelles discrètes à valeurs dans $\scriptstyle\ \mathbb{N}\ $ admettent la même fonction génératrice, alors elles ont la même loi de probabilité<ref>Ce résultat est induit par le fait qu'il existe une relation bijective entre une loi de probabilité et sa fonction génératrice. La loi de probabilité définit la fonction génératrice F et, réciproquement, on retrouve la loi de probabilité à partir de F puisque $p_k = F^{(k)}(0)/k!$. </ref>.
  • Soient X et Y deux variables aléatoires réelles discrètes entières et positives. Si X et Y sont indépendantes alors on a:

$G_{X+Y}=G_X\times G_Y.$

Remarque : La réciproque est fausse.

  • Si X1, X2, …, Xn est une suite de variables aléatoires indépendantes, et si

$S_n = \sum_{i=1}^n a_i X_i,$

où les ai sont des constantes, alors

$G_{S_n}(z) = E(z^{S_n}) = E(z^{\sum_{i=1}^n a_i X_i,}) = G_{X_1}(z^{a_1})G_{X_2}(z^{a_2})\cdots G_{X_n}(z^{a_n}).$

  • Par exemple, si les Xi ont de plus même loi (et donc même fonction génératrice G ), alors

$S_n = \sum_{i=1}^n X_i,$

a pour fonction génératrice :

$G_{S_n} = G^n.$

Composition des fonctions génératrices

La propriété suivante est particulièrement utile à l'étude des processus de Galton-Watson. Soit $\scriptstyle\ (X_n)\ $ une suite de variables aléatoires de même loi et $\scriptstyle\ N\ $ une variable aléatoire, toutes à valeurs dans $\scriptstyle\ \mathbb{N}.$

  • On pose

$S_N = \sum_{n=1}^{N}X_n= \sum_{n\ge 1}X_n\ 1\!\!1_{\{N\ge n\}}.$

  • On suppose que $\scriptstyle\ (N,X_1,X_2,...)\ $ est une famille de variables aléatoires indépendantes.

Alors :

$G_{S_N}=G_N\circ G_X.$

Notons que, si $\scriptstyle\ S_0\equiv 0,\ $ et si $S_n = \sum_{k=1}^{n}X_k,$ alors $S_N = \sum_{n\ge 0}\ S_n\ 1\!\!1_{\{N= n\}}.$ Par conséquent, $ \begin{align} G_{S_N}(z) &= \mathbb{E}\left[z^{S_N}\right]\\ &= \mathbb{E}\left[z^{\sum_{n\ge 0}\ S_n\ 1\!\!1_{\{N= n\}}}\right]\\ &= \mathbb{E}\left[\sum_{n\ge 0}\ z^{S_n}\ 1\!\!1_{\{N= n\}}\right]\\ &= \sum_{n\ge 0}\ \mathbb{E}\left[z^{S_n}\ 1\!\!1_{\{N= n\}}\right]\\ &= \sum_{n\ge 0}\ \mathbb{E}\left[z^{S_n}\right]\times\mathbb{E}\left[1\!\!1_{\{N= n\}}\right]\\ &= \sum_{n\ge 0}\ G_{S_n}(z)\times\mathbb{P}\left(N= n\right)\\ &= \sum_{n\ge 0}\ \mathbb{P}\left(N= n\right)\times \left(G_{X}(z)\right)^n\\ &= G_N\left(G_X(z)\right). \end{align}$

Généralisation aux variables aléatoires non entières

Cette notion de fonction génératrice se généralise aux variables aléatoires continues par les fonctions caractéristiques. Une autre notion utile est la fonction génératrice des moments.