identificabilita
identificabilità Proprietà che un modello statistico deve soddisfare perché sia possibile condurre inferenza statistica (➔) circa i suoi parametri. Intuitivamente si afferma che un modello è identificabile se a ogni parametro θ corrisponde una e una sola distribuzione di probabilità per i dati.
In modo più formale, dato un modello definito da una famiglia F={f(z;θ)} di distribuzioni di probabilità per i dati indicizzata da un parametro θ in uno spazio dei parametri Θ, si dice che tale modello è identificabile se esiste una corrispondenza biunivoca tra Θ e F, ovvero se a ciascun valore di θ corrisponde uno e un solo elemento di F (figura 1). La definizione formale di i. comprende sia il caso parametrico, in cui lo spazio dei parametri è finito-dimensionale (un vettore di parametri), sia il caso non parametrico, in cui lo spazio dei parametri è infinito-dimensionale (una funzione). Nel contesto di un modello parametrico regolare l’i. è assicurata dalla non singolarità della matrice di informazione di Fisher (➔ verosimiglianza massima, metodo della).
Un modello non è identificabile quando la corrispondenza tra Θ e F non è biunivoca. Ci sono due casi in cui questo può accadere: il primo si ha quando più valori di θ sono compatibili con lo stesso elemento di F (figura 2); il secondo quando un particolare elemento di θ è compatibile con più elementi di F (figura 3).Per illustrare il primo caso, si consideri il modello lineare gaussiano (➔ gaussiana, distribuzione) con due regressori e un’intercetta: la distribuzione condizionata di Y∣X1,X2 è quella di una variabile aleatoria (➔) normale N(α+β1X1+β2X2,1). Si assuma che X1 e X2 siano due variabili dummy (➔ dummy, variabili), per es., che X1 sia 1 per un maschio e 0 per una femmina, e X2 sia 1 per una femmina e 0 per un maschio. Il modello parametrico è:
{f(y∣X1=x1,X2=x2;θ)∼N(α+β1+(β2−β1)x2,1), θ=(α,β1,β2)∈Θ},
dove x1 e x2 soddisfano x1=1−x2 per via della relazione X1=1−X2. In questo caso il modello presenta collinerità (➔) tra i regressori e il parame-tro θ=(α,β1,β2) non è identificabile. Infatti, esiste un numero infinito di vettori θ′=(α′,β′1,β′2), per i quali si ha f(y∣X1=x1,X2=x2;θ)=f(y∣X1=x1,X2= x2;θ′) per ogni x1=1−x2. Per illustrare il secondo caso si consideri una variabile Y gaussiana di varianza unitaria, ma con media uguale a μA e μB nelle due sottopopolazioni A e B. Si assuma, che la probabilità π di appartenere al gruppo B sia nota. Si ipotizzi, inoltre, che non sia possibile osservare il valore di Y per le unità che appartengono al gruppo B. Il parametro di interesse è la media μ=E(Y)=μAπ+μB(1−π), la quale non è identificabile poiché non lo è la media μB per la sottopopolazione B. Un modo per affrontare questo problema è quello di reperire informazioni aggiuntive. Per es., se si potesse affermare che μB fosse compresa tra due valori noti c e d, allora se ne dedurrebbe che μ deve essere necessariamente compresa nell’intervallo
A+(c−μA)π≤μ≤μA+(d−μA)π,
di ampiezza (d−c)π.. Si parla in questo caso di identificazione per intervalli. Se il parametro di interesse è invece il vettore θ=(μA,μB), pur essendo θ non identificabile, si dice che esso è parzialmente identificabile, poiché è identificabile il sottovettore costituito dalla sola componente μA.