Distribuzione Binomiale

Planche_de_GaltonDefiniamo un evento di Bernoulli. Supponiamo di fare un gioco tale che ad ogni tentativo si possa ottenere uno solo di due possibili risultati. Un esempio banale è quello del lancio della moneta.

In questo caso però la probabilità dei due eventi (testa e croce) è la stessa. Nel gioco che stiamo immaginando invece possiamo pensare che i due eventi, che chiamiamo \(A\) e \(B\) non abbiano la stessa probabilità. Possiamo immaginare infatti che \(P(A)=p\) e che quindi, dal momento che l’insieme \(\{A,B\}\) è un insieme completo autoescludente, la probabilità di \(B\) sia \(P(B)=q=1-p\).

Supponiamo di ripetere il gioco un numero \(N\) di volte e che le probabilità \(p\) e \(q\) non varino durante il gioco.
Ogni estrazione di un gioco di questo tipo è definito un evento di Bernoulli.
Ci possiamo allora porre la seguente domanda: qual è la probabilità di ottenere \(k\) volte l’evento \(A\) in un ordine qualsiasi se giochiamo \(N\) volte?

Per rispondere a questa domanda dobbiamo cercare di contare i modi di mettere \(k\) palline in \(N\) scatole, ciascuna delle quali può contenere una o nessuna pallina. Sappiamo che \(N\) oggetti si possono ordinare in \(N!\) modi. Le \(k\) risposte positive non sono distinguibili e quindi le \(N!\) combinazioni di \(A\) vanno divise per \(k!\). Ma sono indistinguibili anche le \(N-k\) risposte \(B\), e quindi \(N!\) va anche diviso per \((N-k)!\).

Otteniamo così il coefficiente binomiale
\begin{equation}
\frac{N!}{k!(N-k)!}\equiv{N\choose k }
\end{equation}
Siccome l’evento $A$ si ripete $k$ volte con probabilit\`a $p$ e quello $B$ si ripete le restanti $N-k$ volte con probabilit\`a q, allora la distribuzione di questi eventi \`e data da
\begin{equation}
B(N,k,p)\equiv {N\choose k}p^kq^{N-k}
\end{equation}

Si vede immediatamente che la distribuzione binomiale è normalizzata, infatti
\begin{eqnarray}
\sum_{k=0}^NB(N,k,p) & = & \sum_{k=1}^Np^kq^{N-k}\\
& = & (q+p)^N =1
\end{eqnarray}

Calcoliamo il valore di attesa per una distribuziona binomiale, e dimostriamo che \(E(k)=Np\).
\begin{eqnarray}
\label{binmean}
E(k) & = & \sum_{k=0}^Nk{N\choose k}p^kq^{N-k}\\
& = & \sum_{k=1}^N k \frac{N!}{k!(N-k)!}p^k q^{N-k}\\
& = & Np\sum_{k=1}^N\frac{(N-1)!}{(k-1)!(N-k+1-1)!}p^k q^{N-k}\\
& = & Np\sum_{k=1}^N\frac{(N-1)!}{[(N-1)-(k-1)]!(k-1)!}p^{k-1}q^{N-k}
\end{eqnarray}
possiamo introdurre la nuova variabile \(R\equiv k-1\) in modo tale che \(k=R+1\), e la \cite{binmean} diventa
\begin{eqnarray}
& = & Np\sum_{k=1}^N\frac{(N-1)!}{[(N-1)-(k-1)]!(k-1)!}p^{k-1}q^{N-k}\\
& = & Np\sum_{R=1}^N\frac{(N-1)!}{[(N-1)-R]!R!}p^Rq^{N-1-R}
\end{eqnarray}
che, se chiamiamo \(N-1\equiv M\) diventa
\begin{eqnarray}
& = & Np\sum_{R=1}^N\frac{(N-1)!}{[(N-1)-R]!R!}p^Rq^{N-1-R}\\
& = & Np \sum_{R=0}^M\frac{M!}{(M-R)!R!}p^Rq^{M-R} = Np
\end{eqnarray}
dato che

\begin{equation}
\sum_{R=0}^M\frac{M!}{(M-R)!R!}p^Rq^{M-R}
\end{equation}

è la distribuzione binomiale \(B(M,R,p)\) e
\begin{equation}
\sum_{R=0}^M\frac{M!}{(M-R)!R!}p^Rq^{M-R}=1
\end{equation}
per la normalizzazione.

Varianza

Calcoliamo il valore di attesa di \(k^2\). Il calcolo è molto simile a quello del valore di attesa.

\begin{eqnarray}
\label{binmomento2}
E(k^2) & = & \sum_{k=0}^Nk^2{N\choose k}p^kq^{N-k}\\
& = & \sum_{k=0}^N k^2 \frac{N!}{k!(N-k)!}p^k q^{N-k}\\
& = & Np\sum_{k=0}^N\frac{(N-1)!}{(N-k)!(k-1)!}kp^{k-1} q^{N-k}
\end{eqnarray}

Se chiamiamo \(k-1=R\), e quindi \(k=R+1\) possiamo scrivere

\begin{eqnarray}
\label{binmomento22}
E(k^2) & = & Np\sum_{k=0}^N\frac{(N-1)!}{(N-k)!(k-1)!}kp^{k-1} q^{N-k}\\
& = & Np\sum_{R=0}^{N-1} \frac{(N-1)!(R+1)}{(N-1-R)!R!}p^R q^{N-1-R}
\end{eqnarray}

Ora chiamiamo \(N-1=M\) e ricordando che il valore di attesa di una somma è uguale alla somma dei valori d’attesa otteniamo

\begin{eqnarray}
\label{binmomento23}
E(k^2) & = & Np\sum_{R=0}^{N-1} \frac{(N-1)!(R+1)}{(N-1-R)!R!}p^R q^{N-1-R}\\
& = & Np\sum_{R=0}^{M} \frac{M!(R+1)}{(M-R)!R!}p^R q^{M-R}\\
& = & NpE(R+1)\\
&=& NpMp+Np\\
&=& Np(N-1)p+Np\\
&=&N(N-1)p^2+Np
\end{eqnarray}