In statistica e in teoria della probabilità la varianza di una variabile statistica o di una variabile aleatoria è una funzione, indicata con o con (o semplicemente con se la variabile è sottintesa), che fornisce una misura della variabilità dei valori assunti dalla variabile stessa; nello specifico, la misura di quanto essi si discostino quadraticamente rispettivamente dalla media aritmetica o dal valore atteso. La varianza è una misura di dispersione, ossia una misura di quanto un dato insieme di numeri si discosta dal suo valore medio. Se assume valori lontani dalla sua media, la sua varianza sarà conseguentemente grande. Al contrario, se la variabile aleatoria rimane costante, la sua varianza sarà nulla. Essa rappresenta il momento centrato del second'ordine della variabile , se esiste finito, e la covarianza tra la variabile aleatoria e sé stessa.
Esempio di campioni da due popolazioni con la stessa media ma diversa varianza. La popolazione rossa ha media 100 e varianza 100 (SD=10), invece la popolazione blu ha media 100 e varianza 2500 (SD=50).
Il termine di "varianza" venne introdotto nel 1918 da Ronald Fisher[1] e sostituì nel tempo la denominazione di "deviazione standard quadratica" utilizzata da Karl Pearson.
Un esempio di "misura" dello scostamento di una variabile aleatoria dalla media è dato dalla disuguaglianza di Čebyšëv che controlla questo scostamento in termini dello scarto tipo:
La varianza della somma di due variabili indipendenti o anche solo incorrelate è pari alla somma delle loro varianze
Dimostrazione
Se , allora e
e siccome le variabili sono indipendenti risulta
Nel caso generale basta traslare le variabili di modo che abbiano valore atteso nullo (come ); la loro varianza non cambia in quanto la varianza è invariante per traslazione.
Varianza della differenza di due variabili indipendenti
Usando le due precedenti affermazioni, possiamo dire che la varianza della differenza di due variabili indipendenti è pari alla somma delle loro varianze
Varianza della somma di due variabili non indipendenti
Nel caso si disponga della distribuzione di frequenze di un carattere, è possibile calcolare più facilmente la varianza attraverso la seguente formula:
dove rappresenta il numero di modalità in cui si presenta il carattere , mentre e sono rispettivamente la -esima modalità di e la relativa frequenza assoluta.
A partire dalla precedente formula, ricordando che , si ricava anche:
Esiste, infine, una formula semplificata per il calcolo della varianza:
Le formule corrispondenti alla precedente che fanno uso della frequenza assoluta e di quella relativa sono:
Un difetto della varianza è quello di non avere la stessa unità di misura dei valori analizzati (se, per esempio, questi sono in cm, la varianza sarà in cm2), perciò in statistica viene molto spesso utilizzata anche la radice quadrata della varianza, vale a dire lo scarto quadratico medio (o deviazione standard o scarto tipo) . Con riferimento a questa notazione la varianza si trova quindi anche indicata come .
In statistica si utilizzano solitamente due stimatori per la varianza su un campione di cardinalità :
e
dove è la media campionaria. Il primo è detto varianza campionaria, mentre il secondo è detto varianza campionaria corretta a causa della sua proprietà di correttezza. Infatti lo stimatore è privo di distorsione, cioè il suo valore atteso è proprio la varianza:
Dimostrazione
Al contrario, lo stimatore ha un valore atteso diverso dalla varianza, .
Una spiegazione del termine è data dalla necessità di stimare anche la media che per il teorema del limite centrale ha varianza 1/n. Se la media è nota, lo stimatore diventa corretto. Questa è detta "correzione di Bessel".