Variabili Aleatorie


R&G

Supponiamo che \(x\) sia una variabile aleatoria, cioè una variabile che assume un valore non con certezza, ma solo con una data probabilità.
Gli esempi di variabili aleatorie sono tanti.
Se studiamo la disposizione di opere d’arte in un museo, possiamo pensare di distribuirle in modo tale da evitare che i visitatori possano osservarle agevolmente.
Il numero di visitatori ad una certa ora in una data sala del museo è una variabile aleatoria, perché ogni volta che la misuriamo assume quasi certamente un valore
diverso.
Però è una variabile a tutti gli effetti, nel senso che possiamo benissimo utilizzarla come variabile indipendente in una funzione \(y=f(x)\) o per eseguire un calcolo qualsiasi, per esempio quello del flusso di visitatori in uscita.
Però dobbiamo tenere conto che è aleatoria, che può assumere valori differenti con una data probabilità e quindi se la inseriamo in un calcolo, anche i risultati del nostro calcolo assumeranno valori con una data probabilità.

Spesso una fonte di difficoltà, nello studio della matematica è dato dalla mancanza di chiarezza nella distinzione tra una variabile e il valore che questa assume.
I linguaggi di programmazione in questo non sono di grande aiuto, dal momento che utilizzano il segno di \(=\) come operatorre di assegnazione: \(a=b\) in quasi tutti i linguaggi di programmazione indica che la variabile \(a\) assume il valore \(b\) .
Le variabili aleatorie ci aiutano un po’ a capire quale sia la differenza tra la variabile e il valore che assume.
Se infatti è chiaro che i valori assunti da \(x\) sono valori casuali con una certa probabilità, è più facile distinguere i due concetti, dal momento che la variabile non fluttua, ma i valori che assume sono in qualche senso “fluttuanti”.

Se la variabile \(x\) può allora assumere i valori \(\alpha=1, 2\) o \(3\) , allora per rendere un po’ più agevole la notazione, indichiamo con \(p_\alpha\equiv p(x_\alpha)\) la probabilità che la variabile \(x\) assuma il valore \(\alpha\) .
Se la serie delle probabilità converge assolutamente (vedremo poi il significato esatto di questa affermazione) allora possiamo definire la grandezza
\begin{equation}
<x>=\sum_\alpha p_\alpha x_\alpha
\end{equation}
che rappresenta il valore di attesa della variabile aleatoria rispetto alla probabilità \(p\) .

Il valore di attesa viene anche indicato con le notazioni \(E(\cdot)\) o \(<\cdot>\) .
Definiamo il valore mediano di una variabile aleatoria con \(x_m\) , che rappresenta la grandezza tale che
\begin{equation}
P(x<x_m)-P(x>x_m) = 0
\end{equation}
o perlomeno è molto piccola.

Se \(x\) è una variabile aleatoria, allora il valore di attesa di una funzione di \(x\) , \(f(x)\) è dato da
\begin{equation}
<f(x)>\equiv\sum_ip_if(x_i)
\end{equation}
in particolare se la funzione è la \(k-\) esima potenza di \(x\) , il suo valore di attesa si chiama  momento \(k-\) esimo
\begin{equation}
<x^k>\equiv\sum_ip_ix_i^k
\end{equation}

La varianza della variabile aleatoria \(x\) è data dalla formula
\begin{equation}
<(x-<x>)^2> = \sum_ip_i(x_i^2-2<x>x_i+<x>^2)=<x^2>-<x>^2
\end{equation}
Questa formula si dimostra nel modo seguente
\begin{eqnarray}
<(x-<x>)^2> & = & \sum_ip_i(x_i^2-2x_i<x>+<x>^2)\\
& = & \sum_ip_ix_i^2-2<x>\sum_ip_ix_i+\sum p_i<x>^2\\
& = & <x^2>-2<x><x>+<x>^2\\
& = & <x^2>-<x>^2
\end{eqnarray}

La varianza ci permette di calcolare quanto ci si allontana dal valore medio, quindi una proprietà della distribuzione. Questo si fa prendendo la deviazione standard \(\sigma\) della distribuzione:
\begin{equation}
\sigma = \sqrt{<x^2>-<x>^2} \geq0
\end{equation}

Come esercizio si può provare a dimostrare che se \(\sigma = 0\) allora \(p(x)=1\) se \(x=a\) e 0 altrimenti.