Probabilità Condizionata e Formula di Bayes

Thomas_BayesProbabilità condizionata

Possiamo ora definire il condizionamento di un insieme rispetto ad un altro per mezzo di una formula che a prima vista può sembrare di difficile interpretazione.
\[
P(A\cap H)=P(H)P(A|H)
\label{condiz}
\]
dove \(P(A|H)\) è la probabilità dell’insieme (evento) \(A\) condizionato dall’insieme (evento) \(H\).

Possiamo provare a comprendere ancora una volta il condizionamento in termini di misura di aree.
La formula precedente dice che la probabilità dell’intersezione di due eventi \(A\cap H\) è uguale alla probabilità dell’evento \(H\) moltiplicata per la probabilità dell’evento \(A\) condizionato dall’evento \(H\).
Stiamo quindi cercando di calcolare la probabilità che l’evento \(A\) accada o sia accaduto, quando siamo a conoscenza del fatto che \(H\) è realmente accaduto.
La conoscenza di un evento condizionante ci dice intuitivamente che l’evento condizionato deve essere cercato tra quelli che si intersecano con esso.
In altri termini, se sappiamo che \(H\) è accaduto, dobbiamo cercare \(A\) tra le cose che sono accadute, e quindi la sua probabilità dipenderà dalla probabilità di \(A\cap H\).

La formula \(P(A\cap H)=P(H)P(A|H)\) non vuol dire che \(H\) sia la causa di \(A\) o che \(H\) avviene prima di \(A\), ed è definita solo se \(P(H)\neq0\).
Se \(P(H)\neq0\), allora possiamo scrivere
\begin{equation*}
P(A|H)=\frac{P(A\cap H)}{P(H)}
\end{equation*}
e quindi la probabilità dell’evento \(A\) condizionata all’evento \(B\) è data proprio dalla probabilità dell’intersezione dei due eventi divisa per la probabilità dell’evento condizionante.
Ovviamente l’operatore \(|\), che usiamo per indicare il condizionamento, non è un operatore simmetrico: se l’evento \(H\) condiziona l’evento \(A\) questo non significa che l’evento \(A\) condizioni l’evento \(H\).
Infatti dalla formula iniziale si ha
\begin{equation*}
P(H|A)\equiv\frac{P(A\cap H)}{P(A)}=P(A|H)\frac{P(H)}{P(A)}
\end{equation*}

La formula di Bayes

Prendiamo un insieme completo autoescludente \(A\) e indichiamo i suoi elementi con \(A_i\). Siccome gli insiemi \(A_i\) sono autoescludenti possiamo scrivere

\begin{eqnarray*}
P(B) & = & P(1\cap B) \\
& = & P((\bigsqcup_jA_j)\cap B)\\
& = &\sum_jP(A_j\cap B)\\
P(A\cap H)=P(H)P(A|H) \Rightarrow & = & \sum_jP(A_j)P(B| A_j)
\end{eqnarray*}

Se allora prendiamo uno qualsiasi degli eventi \(A_k\) e ne consideriamo il condizionamento rispetto a \(B\) si ha
\begin{eqnarray*}
P(A_k|B) & = & \frac{P(A_k)P(B|A_k)}{P(B)}\\
& = & \frac{P(A_k)P(B|A_k)}{\sum_j P(A_j)P(B|A_j)}\\
& = & \frac{P(A_k)P(B|A_k)}{Z}
\end{eqnarray*}
dove \(Z=\sum_j P(A_j)P(B|A_j)\), e si può osservare che non dipende da \(k\), infatti \(\sum_k P(A_k|B)=1\)

Esercizio: Il cubo
Un cubo con le facce colorate viene diviso in 1000 cubetti di eguali dimensioni. I cubetti così ottenuti sono poi mescolati: determinare la probabilità che un cubetto estratto a caso abbia due facce colorate.

Esercizio: Il problema del cavalier de Méré [Cufaro]

Nel XVII secolo, in Francia, era molto in voga un gioco di dadi in cui veniva lanciato un dado per quattro volte e si scommetteva sull’evento \(A=\) il VI appare almeno una volta.
Il cavalier de Méré aveva osservato a lungo i risultati del gioco e da una semplice statistica si era accorto che la probabilità di vincere scommettendo sull’evento \(A\) era leggermente più alta della probabilità di perdere. Questa osservazione la aveva ottenuta dividendo il numero di volte che usciva \(A\) per il numero di giocate.
Dopo aver vinto una notevole fortuna a questo gioco, il cavalier de Méré pensò di complicarlo un po’ nel modo seguente: si lanciano due dadi per 24 volte e si scommette sull’evento \(B=\) appare la coppia (VI,VI) almeno una volta.
Il suo ragionamento era infatti il seguente: se lancio un dado posso avere sei possibili risultati, I, II, III, IV, V e VI, ma se lancio due dadi ne ho 36, 6 possibilità per il primo dado moltiplicate per le sei possibilità del secondo. Allora VI è una delle 6 possibilità del primo gioco, mentre la coppia (VI, VI) è una delle 36 possibilità del secondo.
Osservò quindi che nel secondo gioco i risultati sono 6 volte di più rispetto al primo gioco, quindi pensò che se nel secondo gioco si lanciano i dadi 6 volte di più, cio\’e 24 volte, la probabilità di vincere scommettendo su (VI,VI) deve essere uguale alla probabilità di vincere nel primo gioco scommettendo su VI.

La leggenda racconta che in questo modo perse al secondo gioco tutto ciò che aveva guadagnato al primo.
Infatti il suo ragionamento era completamente errato, come venne dimostrato da Fermat, con un calcolo che venne considerato l’inizio della teoria della probabilità.

Se lanciamo un dado una volta sola, la probabilità di ottenere VI è \(1/6\simeq0.167\).
Se lanciamo il dado per due volte, allo stesso modo la probabilità che appaia VI al primo lancio è 1/6 e quella che appaia VI al secondo è sempre 1/6.
Nel lancio di due dadi però i nostri eventi sono fatti dalle coppie di risultati, e sono 36. I risultati favorevoli alla comparsa del VI al primo lancio sono le coppie
(VI,I), (VI,II), (VI,III), (VI,IV), (VI,V), (VI,VI), mentre quelli favorevoli alla comparsa del VI al secondo lancio sono (I,VI), (II,VI), (III,VI), (IV,VI), (V,VI), (VI,VI), tutte con probabilità 1/36. Perciò la probabilità che compaia VI al primo lancio è \(p(VI,I)+p(VI,II)+p(VI,III)+p(VI,IV)+p(VI,V)+p(VI,VI)=1/36+1/36+1/36+1/36+1/36+1/36=6/36=1/16\), la probabilità che compaia VI al secondo lancio è \(p(I,VI)+p(II,VI)+p(III,VI)+p(IV,VI)+p(V,VI)+p(VI,VI)=1/36+1/36+1/36+1/36+1/36+1/36=6/36=1/6\), mentre la probabilità che compaia VI in almeno un lancio è uguale alla somma di queste due meno la probabilità dell’evento (VI,VI), altrimenti lo contiamo due volte.
Quindi \(p(VI\) in almeno un lancio \()=1/6+1/6-1/36\simeq0.305\)

Esercizio: Probabilità Condizionata
Consideriamo una famiglia con due figli e calcoliamo la probabilità che siano entrambi maschi condizionata dai seguenti eventi:
a) Il più anziano è maschio
b) almeno uno dei due è maschio