asintotica, distribuzione
Distribuzione di probabilità che corrisponde al limite verso il quale tende la distribuzione di una successione di variabili casuali (➔ variabile).
Una successione di variabili casuali X1,X2,...,Xn,... è una sequenza infinita di variabili casuali, ciascuna definita dalla sua funzione di distribuzione, F1, F2,...,Fn,... Si dice che la successione Xn ha una distribuzione a. se la successione F1,F2,...,Fn,... di funzioni di distribuzione tende a una funzione di distribuzione F per tutti i punti in cui F è continua. La distribuzione limite o legge F può essere degenere o non degenere. Nel primo caso, la massa di probabilità è tutta concentrata in un unico valore x0. Si dice, in questo caso, che Xn tende in probabilità a x0. Nel secondo caso, la legge F può essere continua o discreta, e la serie {Xn} converge in distribuzione a una variabile aleatoria X, di legge F.
Il concetto di distribuzione a. è particolarmente importante in statistica, poiché la conoscenza della distribuzione limite di uno stimatore (➔) permette di conoscerne le proprietà statistiche per grandi campioni e quindi di approssimarne le proprietà in campioni finiti. Permette, per es., di sapere se uno stimatore sia consistente per un particolare parametro, o di conoscerne approssimativamente la varianza, oppure di calcolare regioni di confidenza e di rifiuto, e quindi di sottoporre a verifica un’ipotesi statistica, con una precisione che è tanto maggiore quanto più grande è la dimensione del campione. Gli stimatori più utilizzati in statistica sono, in prevalenza, asintoticamente normali, ossia la loro distribuzione di probabilità è ben approssimata da una distribuzione normale (➔ gaussiana, distribuzione) quando la dimensione campionaria è abbastanza elevata. Più precisamente, si dice che uno stimatore θn di un parametro θ è asintoticamente normale se √1n (θn−θ) è una successione di variabili casuali, la cui distribuzione è ben approssimata da una legge normale a media 0 e varianza σ2 (dipendente dallo stimatore). Ciò equivale a dire che la varianza di θn è approssimativamente uguale a σ2/n.
Il valore √1n è la velocità di convergenza di θn. La velocità di convergenza è √1n per la maggior parte degli stimatori più comuni. Soddisfano questa proprietà, sotto condizioni piuttosto generali, lo stimatore dei minimi quadrati (➔ minimi quadrati, metodo dei) o lo stimatore di massima verosimiglianza (➔). Ci sono casi, tuttavia, in cui uno stimatore, pur essendo asintoticamente distribuito secondo una legge normale, ha una velocità di convergenza inferiore o superiore a √1n. La velocità di convergenza di stimatori non parametrici di tipo kernel (➔ Kernel density), per es., è generalmente inferiore a √1n. Al contrario, la velocità di convergenza dello stimatore con i Minimi Quadrati Ordinari (MQO) del coefficiente di regressione, in un modello AR(1) (➔ autoregressivo, modello) a radice unitaria, in cui il coefficiente di regressione è uguale a 1, è pari a n. Nonostante esso rappresenti il caso più importante in statistica, non tutti gli stimatori hanno distribuzione a. gaussiana. Un esempio di particolare rilevanza è dato dalla successione definita dal valore più grande (o più piccolo) in un campione di osservazioni: x(n) = max (x1,...,xn). Tale successione ha una distribuzione a. che deve necessariamente appartenere a una di 3 famiglie di distribuzioni – Weibull, Fréchet o Gumbel – nessuna delle quali comprende la normale come caso particolare.