In teoria della probabilità e statistica è molto vivo il problema di studiare fenomeni con comportamento incognito ma, nei grandi numeri, riconducibili a fenomeni noti e ben studiati. A ciò vengono in soccorso i vari teoremi di convergenza di variabili casuali, che appunto studiano le condizioni sotto cui certe successioni di variabili casuali di una certa distribuzione tendono ad altre distribuzioni.
I più importanti risultati raggiungibili sotto forma di convergenza di variabili casuali sono la legge dei grandi numeri e il teorema centrale del limite, che afferma che, col crescere della numerosità di un campione, la distribuzione di probabilità della sua media è più o meno come quella di una gaussiana e la legge dei grandi numeri, che giustifica l'utilizzo della media del campione come stima del valore atteso della legge di ogni singola osservazione.
Si distinguono più tipi di convergenza. Ognuna di queste condizioni si esporrà qua per variabili casuali reali univariate, ma si generalizza senza troppe difficoltà per variabili casuali multivariate.
Convergenza in distribuzione
Una successione di variabili casuali
con funzioni di ripartizione
si dice convergente in distribuzione o convergente in legge alla variabile casuale
con funzione di ripartizione
, cioè
, se il seguente limite esiste
![{\displaystyle \lim _{n\to \infty }F_{n}(x)=F(x)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/732e5a10862bfd7c3d470e681f53f4cd11070a15)
in ogni punto
in cui
risulta continua. Questo è il tipo di convergenza usato nel teorema del limite centrale.
Poiché
, ciò che la convergenza in distribuzione implica è che all'aumentare di
la probabilità che la successione assuma valori minori o uguali ad
(ovvero assuma valori in un certo intervallo) sarà sempre più simile alla probabilità che
assuma valori nello stesso intervallo. Si noti che questo non richiede che
e
assumano i medesimi valori. Da questa osservazione segue che
e
possono essere definiti a partire da spazi di probabilità modellanti esperimenti casuali differenti.
Esempi
converge a
. Vale infatti
![{\displaystyle F_{n}(x)=I_{[1/n,+\infty )}=\left\{{\begin{matrix}0,x<{1 \over n}\\1,x\geq {1 \over n}\end{matrix}}\right.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/bacdef2a2601f832a4b1dfc42dd434b4bb47cdb1)
e quindi
![{\displaystyle \lim _{n\to \infty }F_{n}(x)=F_{X}(x)=I_{[0,+\infty )}=\left\{{\begin{matrix}0,x<0\\1,x\geq 0\end{matrix}}\right.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/bb8b553976654544932eb413286052fd2b5d478d)
- Una successione di variabili casuali uniformi discrete in
converge alla variabile casuale uniforme continua in
. Ciò è notevole considerando il passaggio tra classi profondamente distinte, ovvero quella delle v.c. discrete e quella delle v.c. continue. Vale anche il viceversa: ogni variabile casuale continua si può discretizzare in una successione di variabili casuali discrete, così come una funzione misurabile si interpreta come limite di una successione di funzioni semplici.
Teoremi
se e solo se per ogni funzione continua e limitata
vale ![{\displaystyle \lim _{n\to \infty }E[g(X_{n})]=E[g(X)]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5446ca1254365b66b0c8fe7974841df753605a7f)
- Se
e l'unione dei supporti delle
è limitato allora ![{\displaystyle E[X_{n}]\rightarrow E[X]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ea7339635499744d75d4abcb29604b3bc4d63053)
- Se
e
è una funzione continua, allora ![{\displaystyle h(X_{n}){\stackrel {d}{\rightarrow }}h(X)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4f2aa07d2a712507ce444be523226c037849d028)
- Se
è una variabile
-variata,
e
allora
per ogni ![{\displaystyle i=1,...,k}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3fcf6d247cb0b372e21e15f075455572df77b230)
Convergenza in probabilità
Come notato prima, la convergenza in distribuzione dà informazioni relative alla sola distribuzione della variabile casuale limite, mentre nulla possiamo dire sugli effettivi valori studiati. Per questo si introduce una nozione di convergenza più forte.
Diremo allora che una successione di variabili casuali
converge in probabilità alla variabile casuale
, in simboli
, se per ogni
[1]
o equivalentemente
![{\displaystyle \lim _{n\to \infty }P(|X_{n}-X|\geq \varepsilon )=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f733a5fbca6ac901d531b67daccca6239dcdee12)
Formalmente, scelti
,
esiste
tale che per ogni
.
Questo tipo di convergenza è usato nella legge debole dei grandi numeri.
Quello che la definizione di convergenza in probabilità sostiene è che, all'aumentare di
, la probabilità che i valori assunti dalla successione differiscano dai valori assunti da
meno di una quantità positiva
piccola a piacere, si avvicina sempre più ad 1.
Teoremi
se e solo se
.
(variabili k-variate) se e solo se
per ogni
. - Se
, allora
. - Se
e
è degenere (ovvero è una v.c. costante), allora
. - Se
e
è una funzione continua, allora
. - Se
allora
quasi certamente a meno di sottosuccessioni.
Convergenza quasi certa
Una successione di variabili casuali
si dice convergere quasi certamente (o "quasi ovunque" se non anche "P quasi certamente" intendendo con P la probabilità, abbreviabile come "P q.c") alla variabile casuale
, in simboli
o
, se
.
Poiché la funzione di probabilità
è definita su eventi, ovvero insiemi di esiti, la formula precedente può essere riscritta come
.
Ovvero, dato lo spazio di probabilità
, il limite
![{\displaystyle \lim _{n\to \infty }X_{n}(\omega )=X(\omega )}](https://wikimedia.org/api/rest_v1/media/math/render/svg/da7c5761865179c8535d144191e0a6fd03a19f3a)
esiste per ogni
t.c.
.
Quello che la definizione sostiene è che le v.c.
e
differiranno, in limite, solo su eventi di probabilità nulla. Questa è la nozione di convergenza più forte, perché esprime il fatto che, all'aumentare della numerosità del campione, è un evento quasi certo che le realizzazioni campionarie tenderanno a coincidere con le osservazioni della variabile casuale
. Questo è il tipo di convergenza usato nella legge forte dei grandi numeri.
Teoremi
se e solo se
.
(variabili k-variate) se e solo se
per ogni
.
se e solo se per ogni
. - Se
, allora
[2]. - Dalla precedente si ricava
, poiché ![{\displaystyle X_{n}{\stackrel {p}{\rightarrow }}X\Rightarrow X_{n}{\stackrel {d}{\rightarrow }}X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2c4014ab518344787f06e78d814a5c05cd050043)
Una successione di variabili casuali
si dice convergere in media r-esima, o in norma r-esima, alla variabile casuale
, con
, se[3]:
Se
,
si dice convergere in media a
. Se
, la convergenza si dice in media quadratica.
Secondo l'approccio assiomatico di Kolmogorov, questa convergenza equivale alla convergenza in norma Lp.
Teoremi
- Se
in media r-esima con
, allora
in probabilità[2] - Se
in media r-esima con
, allora
quasi certamente a meno di sottosuccessioni - Se
in media r-esima e
, allora
in media s-esima
Note
Bibliografia
- (EN) Jean Jacod, Philip Protter, Probability Essentials, Springer, 2000, ISBN 3-540-43871-8.
Portale Matematica
Portale Statistica