======Fonction génératrice======
En mathématiques, la //fonction génératrice// de la suite (//a////n//) est la série formelle définie par
:$\sum a_nX^n$
On confond parfois la fonction génératrice et une fonction de la variable //x//. Cependant, il est utile de préciser qu'une fonction génératrice est avant tout une série formelle et que la fonction de la variable //x// correspondante risque de ne pas converger pour tout //x//.
*fonction génératrice de la suite constante 1 : $\sum X^n = \frac{1}{1 - X}$
*fonction génératrice de la suite (//n//) : $\sum nX^n = \frac{X}{(1-X)^2}$
*fonction génératrice de la suite $(n^2)$ : $\sum n^2X^n = \frac{X(1+X)}{(1-X)^3}$
*fonction génératrice de la suite $\frac{1}{n!}$ : $\sum \frac{X^n}{n!} = e^X$
On parle aussi de //fonction génératrice exponentielle// de la suite (//a////n//) définie par la série formelle $\sum a_n \frac{X^n}{n!}$.
Lorsque l'on travaille plutôt avec l'inverse de //X//, la variable //z//=1///X//, on parle alors de la transformée en Z, $\sum a_n{(1/z)}^n$, qui est beaucoup utilisée en traitement du signal et en asservissements.
On peut retrouver la suite initiale (//a////n//) à partir de la fonction génératrice $F(X)$ (resp. la fonction génératrice exponentielle $E(X)$) selon les formules
:$a_k = \frac{1}{k!} \frac{d^k F}{d X^k}(0) \quad\text{ et }\quad a_k = \frac{d^k E}{d X^k}(0)$
=====Définition=====
Soit //X// une variable aléatoire entière et positive, la fonction génératrice de //X// est la série entière:
$ G_X(t)=\sum _{k=0} ^\infty \mathbb{P}(X=k)t^k,$
où $\scriptstyle\ \mathbb{P}(X=k)\ $ est la probabilité que la variable aléatoire //X// prenne la valeur //k//.
=====Fonctions génératrices de lois usuelles=====
*Pour la loi de Poisson de paramètre //?//, on a $\scriptstyle\ \mathbb{P}(X=k)= \frac {\lambda^k}{k!}e^{-\lambda}\ $ et il vient
$G_{\lambda}(t)=e^{\lambda(t-1)}\ ;$
*Pour la loi binomiale de paramètres (//n//, //p//), on a $\scriptstyle\ \mathbb{P}(X=k)= C^k _n p^k (1-p)^{n-k}\ $ et on en déduit
$G_{n,p}(t) = (1-p+pt)^n.$
=====Propriétés=====
*Le rayon de convergence de cette série entière est toujours supérieur ou égal à 1.
*On peut remarquer que
$G_X(t)=\mathbb{E}[t^{ X}].$
*Si //X// admet une espérance $\scriptstyle\ \mathbb{E}[X]\ $ alors $\scriptstyle\ G_X\ $ et sa dérivée sont définies en //t=1// et on a:
$\mathbb{E}[X]= \frac{dG_X}{dt} (t=1).$
*Si //X// admet une variance $\scriptstyle\ \text{Var}(X)\ $, et donc une espérance $\scriptstyle\ \mathbb{E}[X],\ $ alors $\scriptstyle\ G_X\ $ et ses dérivées première et seconde sont définies en //t=1// et on a:
$ Var[X]=\frac{d^2 G_X}{dt^2} (t=1) + \frac {dG_X} {dt} (t=1) - \left(\frac{dG_X}{dt} (t=1)\right)^2.$
*Si deux variables aléatoires réelles discrètes à valeurs dans $\scriptstyle\ \mathbb{N}\ $ admettent la même fonction génératrice, alors elles ont la même loi de probabilité[Ce résultat est induit par le fait qu'il existe une relation bijective entre une loi de probabilité et sa fonction génératrice. La loi de probabilité définit la fonction génératrice //F// et, réciproquement, on retrouve la loi de probabilité à partir de //F// puisque $p_k = F^{(k)}(0)/k!$. ].
*Soient //X// et //Y// deux variables aléatoires réelles discrètes entières et positives. Si //X// et //Y// sont indépendantes alors on a:
$G_{X+Y}=G_X\times G_Y.$
//Remarque// : La réciproque est fausse.
* Si //X//1, //X//2, ..., //X//n est une suite de variables aléatoires indépendantes, et si
$S_n = \sum_{i=1}^n a_i X_i,$
où les //a//i sont des constantes, alors
$G_{S_n}(z) = E(z^{S_n}) = E(z^{\sum_{i=1}^n a_i X_i,}) = G_{X_1}(z^{a_1})G_{X_2}(z^{a_2})\cdots G_{X_n}(z^{a_n}).$
*Par exemple, si les //X//i ont de plus même loi (et donc même fonction génératrice //G //), alors
$S_n = \sum_{i=1}^n X_i,$
a pour fonction génératrice :
$G_{S_n} = G^n.$
===== Composition des fonctions génératrices =====
La propriété suivante est particulièrement utile à l'étude des processus de Galton-Watson.
Soit $\scriptstyle\ (X_n)\ $ une suite de variables aléatoires de même loi et $\scriptstyle\ N\ $ une variable aléatoire, toutes à valeurs dans $\scriptstyle\ \mathbb{N}.$
* On pose
$S_N = \sum_{n=1}^{N}X_n= \sum_{n\ge 1}X_n\ 1\!\!1_{\{N\ge n\}}.$
* On suppose que $\scriptstyle\ (N,X_1,X_2,...)\ $ est une famille de variables aléatoires indépendantes.
Alors :
$G_{S_N}=G_N\circ G_X.$
Notons que, si $\scriptstyle\ S_0\equiv 0,\ $ et si
$S_n = \sum_{k=1}^{n}X_k,$
alors
$S_N = \sum_{n\ge 0}\ S_n\ 1\!\!1_{\{N= n\}}.$
Par conséquent,
$ \begin{align}
G_{S_N}(z) &= \mathbb{E}\left[z^{S_N}\right]\\
&= \mathbb{E}\left[z^{\sum_{n\ge 0}\ S_n\ 1\!\!1_{\{N= n\}}}\right]\\
&= \mathbb{E}\left[\sum_{n\ge 0}\ z^{S_n}\ 1\!\!1_{\{N= n\}}\right]\\
&= \sum_{n\ge 0}\ \mathbb{E}\left[z^{S_n}\ 1\!\!1_{\{N= n\}}\right]\\
&= \sum_{n\ge 0}\ \mathbb{E}\left[z^{S_n}\right]\times\mathbb{E}\left[1\!\!1_{\{N= n\}}\right]\\
&= \sum_{n\ge 0}\ G_{S_n}(z)\times\mathbb{P}\left(N= n\right)\\
&= \sum_{n\ge 0}\ \mathbb{P}\left(N= n\right)\times \left(G_{X}(z)\right)^n\\
&= G_N\left(G_X(z)\right).
\end{align}$
=====Généralisation aux variables aléatoires non entières=====
Cette notion de fonction génératrice se généralise aux variables aléatoires continues par les fonctions caractéristiques. Une autre notion utile est la fonction génératrice des moments.