Somme de variables aléatoires

Énoncé

Partie 1
Un point lumineux se déplace sur une droite à partir de l'origine. À chaque seconde, il se déplace d'une unité vers la droite avec la probabilité p, ou vers la gauche avec la probabilité 1  −p, les déplacements étant supposés indépendants. On note X son abscisse après n secondes. Quelle est la loi de X et son espérance ?
Il pourra être utile d'introduire la suite de variables aléatoires (X_{i})_{1\leqslant 1\leqslant n}, Xi est la variable aléatoire qui vaut 1 si le i-ème déplacement s'effectue vers la droite, et −1 si ce déplacement s'effectue vers la gauche, et de considérer Yi la variable aléatoire définie par Y_{i}\: = \: \frac{X_{i}\: +\: 1}{2}.
Partie 2
Soit n un entier naturel non nul. Soit (X_{i})_{1\leqslant 1\leqslant n}, une suite de variables aléatoires de Bernoulli indépendantes de paramètre p\: \in \: ]0\: ;\: 1[. On note \alpha \: = \sum_{i= 1}^{n}p_{i}.
1. Montrer que \sum_{i= 1}^{n}\left ( p_{i}-\frac{\alpha }{n} \right )^{2}\: = \sum_{i= 1}^{n}p_{i}^{2}\: -\: \frac{\alpha ^{2}}{n}.
2. Calculer v\: = \: V\left ( \sum_{i= 1}^{n}X_{i} \right ).
3. Déterminer les valeurs de pi maximisant v.
La bonne méthode
Partie 1
On utilise l'indication de l'énoncé et on se ramène à une situation binomiale pour faciliter les calculs.
Partie 2
1. Il suffit de développer l'expression de gauche pour obtenir celle de droite.
2. On n'oublie pas que les variables sont indépendantes et qu'elles suivent toutes une loi de Bernoulli.
3. Il suffit de mettre en relation les deux premières questions.

Corrigé

Partie 1
En suivant l'indication de l'énoncé, on écrit que X\: = \: \sum_{i=1}^{n}X_{i}. Par ailleurs, pour tout entier naturel i compris entre 1 et n, Xi = 1 si et seulement si Y_{i}\: = \: \frac{X_{i}\: +\: 1}{2}\: = 1, et Xi = −1 si et seulement si Y_{i}\: = \: \frac{X_{i}\: +\: 1}{2}\: = 0. On en déduit que P(X_{i}\: = 1)\: = P(Y_{i}\: = 1)\: = \: p et P(X_{i}\: = -1)\: = P(Y_{i}\: = 0)\: = 1\: -\: p. La variable Yi est donc la variable de Bernoulli de paramètre p. Les variables Yi sont mutuellement indépendantes puisque les Xi le sont.
Soit la variable Y définie par Y\: = \sum_{i=1}^{n}Y_{i}. La variable Y est la somme de n variables indépendantes de Bernoulli de même paramètre p. Ainsi, Y suit la loi binominale de paramètres n et p. On en déduit que Y(\Omega)= \left [ 0\: ;\: n \right ].
On a Y\: = \sum_{i=1}^{n}Y_{i}\: = \sum_{i=1}^{n}\frac{X_{i}\: +\: 1}{2}\: = \frac{1}{2}\sum_{i=1}^{n}X_{i}\: +\: \frac{n}{2}\: = \frac{X}{2}\: +\: \frac{n}{2}, soit X = 2Y − n. L'ensemble des valeurs prises par X est donc l'ensemble \left \{ 2k\: -\: n,\: k\: \in \left [ 0\: ;\: n \right ] \right \}\: = \left \{ -n\: ;\: 2\: -\: n\: ;\: 4\: -\: n\: ;\cdots \: ;\: n\: -\: 4\: ;\: n\: -\: 2\: ;\: n \right \}.
Quel que soit x\: \in \: X(\Omega), il existe k\: \in \: [1\: ;\: n] tel que x = 2k − n, et :
P(X\: = x)\: = P(X\: = 2k\: -\: n)\: = P(Y\: = k)\: = \binom{n}{k}p^{k}\, \left ( 1\: -\: p\right )^{n-k}.
Ainsi, on obtient la loi de X :
Quel que soit x\: \in \: X(\Omega), P(X\: = x)\: = \binom{n}{\frac{x\: +\: n}{2}}p^{\frac{x\: +\: n}{2}}(1\: -\: p)^{\frac{n-x}{2}}.
S'agissant de l'espérance de X, il serait extrêmement maladroit d'utiliser la loi de X pour l'obtenir, on peut contourner la difficulté de deux manières :
E(X) = E(2Y − n) = 2E(Y) − n, par linéarité de l'espérance, et comme E(Y) = np, on trouve E(X) = 2(np) − nn (2p − 1).
• Une autre façon de procéder est de calculer E(X1) = −1 × (1 − p) + 1 × p = 2p − 1, et d'utiliser que E\left ( \sum_{i=1}^{n}X_{i} \right )\: = \sum_{i=1}^{n}E(X_{i})\: = n(2p\: -\: 1).
Partie 2
1. On a :
\sum_{i=1}^{n}\left ( p_{i}\: -\frac{\alpha }{n} \right )^{2} = \sum_{i=1}^{n}p_{i}^{2}\: -\: 2\frac{\alpha}{n}\sum_{i=1}^{n}p_{i}\: +\: n\frac{\alpha ^{2}}{n^{2}}\: =\: \sum_{i=1}^{n}p_{i}^{2}\: -\: 2\frac{\alpha ^{2}}{n}\: +\: \frac{\alpha ^{2}}{n}\: =\: \sum_{i=1}^{n}p_{i}^{2}\: -\: \frac{\alpha ^{2}}{n}.
2. Comme chaque variable Xi suit la loi de Bernoulli de paramètre pi, on a E(Xi) = pi et V\left ( X_{i} \right )\: = \left ( 0\: -\: p_{i} \right )^{2}\: \times \: \left ( 1\: -\: p_{i} \right )\: +\: \left ( 1\: -\: p_{i} \right )^{2}\: \times \: p_{i}\: = p_{i}\left ( 1\: -\: p_{i} \right ).
Par ailleurs, les variables sont indépendantes, donc :
V\left ( \sum_{i=1}^{n}X_{i} \right )\: = \sum_{i=1}^{n}V\left ( X_{i} \right )\: = \sum_{i=1}^{n}p_{i}\left ( 1\: -\: p_{i} \right )\: = \sum_{i=1}^{n}p_{i}\: -\sum_{i=1}^{n}p_{i}^{2}\: = \alpha \: -\: \sum_{i=1}^{n}p_{i}^{2}
3. La formule précédente montre que la variance est maximale lorsque \sum_{i=1}^{n}p_{i}^{2} est minimale. Or, \sum_{i=1}^{n}p_{i}^{2}\: = \sum_{i=1}^{n}\left (p_{i}\: -\frac{\alpha}{n} \right )^{2}\: +\: \frac{\alpha ^{2}}{n}, donc \sum_{i=1}^{n}p_{i}^{2} est minimale pour p_{i}\: = \frac{\mathrm{\alpha} }{n}.
La variance de X est maximale pour les pi tous égaux à \frac{\mathrm{\alpha} }{n}. La loi de X est alors la loi binomiale de paramètres n et p\: = \frac{\mathrm{\alpha} }{n}.