In teoria della probabilità e statistica è molto vivo il problema di studiare fenomeni con comportamento incognito ma, nei grandi numeri , riconducibili a fenomeni noti e ben studiati. A ciò vengono in soccorso i vari teoremi di convergenza di variabili casuali , che appunto studiano le condizioni sotto cui certe successioni di variabili casuali di una certa distribuzione tendono ad altre distribuzioni.
I più importanti risultati raggiungibili sotto forma di convergenza di variabili casuali sono la legge dei grandi numeri e il teorema centrale del limite , che afferma che, col crescere della numerosità di un campione, la distribuzione di probabilità della sua media è più o meno come quella di una gaussiana e la legge dei grandi numeri , che giustifica l'utilizzo della media del campione come stima del valore atteso della legge di ogni singola osservazione.
Si distinguono più tipi di convergenza. Ognuna di queste condizioni si esporrà qua per variabili casuali reali univariate, ma si generalizza senza troppe difficoltà per variabili casuali multivariate.
Una successione di variabili casuali
(
X
n
)
n
∈
N
{\displaystyle (X_{n})_{n\in \mathbb {N} }}
con funzioni di ripartizione
F
n
{\displaystyle F_{n}}
si dice convergente in distribuzione o convergente in legge alla variabile casuale
X
{\displaystyle X}
con funzione di ripartizione
F
{\displaystyle F}
, cioè
X
n
→
d
X
{\displaystyle X_{n}{\stackrel {d}{\rightarrow }}X}
, se il seguente limite esiste
lim
n
→
∞
F
n
(
x
)
=
F
(
x
)
{\displaystyle \lim _{n\to \infty }F_{n}(x)=F(x)}
in ogni punto
x
∈
R
{\displaystyle x\in \mathbb {R} }
in cui
F
{\displaystyle F}
risulta continua. Questo è il tipo di convergenza usato nel teorema del limite centrale .
Poiché
F
X
(
x
)
=
P
(
X
≤
x
)
{\displaystyle F_{X}(x)=P(X\leq x)}
, ciò che la convergenza in distribuzione implica è che all'aumentare di
n
{\displaystyle n}
la probabilità che la successione assuma valori minori o uguali ad
x
{\displaystyle x}
(ovvero assuma valori in un certo intervallo) sarà sempre più simile alla probabilità che
X
{\displaystyle X}
assuma valori nello stesso intervallo. Si noti che questo non richiede che
X
{\displaystyle X}
e
X
n
{\displaystyle X_{n}}
assumano i medesimi valori. Da questa osservazione segue che
X
{\displaystyle X}
e
X
n
{\displaystyle X_{n}}
possono essere definiti a partire da spazi di probabilità modellanti esperimenti casuali differenti.
X
n
=
1
n
{\displaystyle X_{n}={1 \over n}}
converge a
X
=
0
{\displaystyle X=0}
. Vale infatti
F
n
(
x
)
=
I
[
1
/
n
,
+
∞
)
=
{
0
,
x
<
1
n
1
,
x
≥
1
n
{\displaystyle F_{n}(x)=I_{[1/n,+\infty )}=\left\{{\begin{matrix}0,x<{1 \over n}\\1,x\geq {1 \over n}\end{matrix}}\right.}
e quindi
lim
n
→
∞
F
n
(
x
)
=
F
X
(
x
)
=
I
[
0
,
+
∞
)
=
{
0
,
x
<
0
1
,
x
≥
0
{\displaystyle \lim _{n\to \infty }F_{n}(x)=F_{X}(x)=I_{[0,+\infty )}=\left\{{\begin{matrix}0,x<0\\1,x\geq 0\end{matrix}}\right.}
Una successione di variabili casuali uniformi discrete in
{
0
,
1
n
,
2
n
,
…
,
1
}
{\displaystyle \left\{0,{1 \over n},{2 \over n},\ldots ,1\right\}}
converge alla variabile casuale uniforme continua in
[
0
,
1
]
{\displaystyle [0,1]}
. Ciò è notevole considerando il passaggio tra classi profondamente distinte, ovvero quella delle v.c. discrete e quella delle v.c. continue. Vale anche il viceversa: ogni variabile casuale continua si può discretizzare in una successione di variabili casuali discrete, così come una funzione misurabile si interpreta come limite di una successione di funzioni semplici .
X
n
→
d
X
{\displaystyle X_{n}{\stackrel {d}{\rightarrow }}X}
se e solo se per ogni funzione continua e limitata
g
(
x
)
{\displaystyle g(x)}
vale
lim
n
→
∞
E
[
g
(
X
n
)
]
=
E
[
g
(
X
)
]
{\displaystyle \lim _{n\to \infty }E[g(X_{n})]=E[g(X)]}
Se
X
n
→
d
X
{\displaystyle X_{n}{\stackrel {d}{\rightarrow }}X}
e l'unione dei supporti delle
X
n
{\displaystyle X_{n}}
è limitato allora
E
[
X
n
]
→
E
[
X
]
{\displaystyle E[X_{n}]\rightarrow E[X]}
Se
X
n
→
d
X
{\displaystyle X_{n}{\stackrel {d}{\rightarrow }}X}
e
h
{\displaystyle h}
è una funzione continua, allora
h
(
X
n
)
→
d
h
(
X
)
{\displaystyle h(X_{n}){\stackrel {d}{\rightarrow }}h(X)}
Se
X
n
{\displaystyle X_{n}}
è una variabile
k
{\displaystyle k}
-variata,
X
n
=
(
X
n
,
1
,
.
.
.
,
X
n
,
k
)
{\displaystyle X_{n}=(X_{n,1},...,X_{n,k})}
e
X
n
→
d
X
{\displaystyle X_{n}{\stackrel {d}{\rightarrow }}X}
allora
X
n
,
i
→
d
X
i
{\displaystyle X_{n,i}{\stackrel {d}{\rightarrow }}X_{i}}
per ogni
i
=
1
,
.
.
.
,
k
{\displaystyle i=1,...,k}
Come notato prima, la convergenza in distribuzione dà informazioni relative alla sola distribuzione della variabile casuale limite, mentre nulla possiamo dire sugli effettivi valori studiati. Per questo si introduce una nozione di convergenza più forte.
Diremo allora che una successione di variabili casuali
(
X
n
)
n
∈
N
{\displaystyle (X_{n})_{n\in \mathbb {N} }}
converge in probabilità alla variabile casuale
X
{\displaystyle X}
, in simboli
X
n
→
p
X
{\displaystyle X_{n}{\stackrel {p}{\rightarrow }}X}
, se per ogni
ε
>
0
{\displaystyle \varepsilon >0}
lim
n
→
∞
P
(
|
X
n
−
X
|
<
ε
)
=
1
{\displaystyle \lim _{n\to \infty }P(|X_{n}-X|<\varepsilon )=1}
[ 1]
o equivalentemente
lim
n
→
∞
P
(
|
X
n
−
X
|
≥
ε
)
=
0
{\displaystyle \lim _{n\to \infty }P(|X_{n}-X|\geq \varepsilon )=0}
Formalmente, scelti
ε
>
0
{\displaystyle \varepsilon >0}
,
δ
>
0
{\displaystyle \delta >0}
esiste
N
{\displaystyle N}
tale che per ogni
n
≥
N
{\displaystyle n\geq N}
P
(
|
X
n
−
X
|
<
ε
)
≥
1
−
δ
{\displaystyle P(|X_{n}-X|<\varepsilon )\geq 1-\delta }
.
Questo tipo di convergenza è usato nella legge debole dei grandi numeri .
Quello che la definizione di convergenza in probabilità sostiene è che, all'aumentare di
n
{\displaystyle n}
, la probabilità che i valori assunti dalla successione differiscano dai valori assunti da
X
{\displaystyle X}
meno di una quantità positiva
ε
{\displaystyle \varepsilon }
piccola a piacere, si avvicina sempre più ad 1.
X
n
→
p
X
{\displaystyle X_{n}{\stackrel {p}{\rightarrow }}X}
se e solo se
X
n
−
X
→
p
0
{\displaystyle X_{n}-X{\stackrel {p}{\rightarrow }}0}
.
X
n
→
p
X
{\displaystyle X_{n}{\stackrel {p}{\rightarrow }}X}
(variabili k-variate) se e solo se
X
n
,
i
→
p
X
i
{\displaystyle X_{n,i}{\stackrel {p}{\rightarrow }}X_{i}}
per ogni
i
=
1
,
.
.
.
,
k
{\displaystyle i=1,...,k}
.
Se
X
n
→
p
X
{\displaystyle X_{n}{\stackrel {p}{\rightarrow }}X}
, allora
X
n
→
d
X
{\displaystyle X_{n}{\stackrel {d}{\rightarrow }}X}
.
Se
X
n
→
d
X
{\displaystyle X_{n}{\stackrel {d}{\rightarrow }}X}
e
X
{\displaystyle X}
è degenere (ovvero è una v.c. costante), allora
X
n
→
p
X
{\displaystyle X_{n}{\stackrel {p}{\rightarrow }}X}
.
Se
X
n
→
p
X
{\displaystyle X_{n}{\stackrel {p}{\rightarrow }}X}
e
g
{\displaystyle g}
è una funzione continua, allora
g
(
X
n
)
→
p
g
(
X
)
{\displaystyle g(X_{n}){\stackrel {p}{\rightarrow }}g(X)}
.
Se
X
n
→
p
X
{\displaystyle X_{n}{\stackrel {p}{\rightarrow }}X}
allora
X
n
→
X
{\displaystyle X_{n}\rightarrow X}
quasi certamente a meno di sottosuccessioni.
Una successione di variabili casuali
(
X
n
)
n
∈
N
{\displaystyle (X_{n})_{n\in \mathbb {N} }}
si dice convergere quasi certamente (o "quasi ovunque " se non anche "P quasi certamente " intendendo con P la probabilità, abbreviabile come "P q.c") alla variabile casuale
X
{\displaystyle X}
, in simboli
X
n
→
q
.
c
.
X
{\displaystyle X_{n}{\stackrel {q.c.}{\rightarrow }}X}
o
X
n
→
q
.
o
.
X
{\displaystyle X_{n}{\stackrel {q.o.}{\rightarrow }}X}
, se
P
(
lim
n
→
∞
X
n
=
X
)
=
1
{\displaystyle P\left(\lim _{n\to \infty }X_{n}=X\right)=1}
.
Poiché la funzione di probabilità
P
{\displaystyle P}
è definita su eventi, ovvero insiemi di esiti, la formula precedente può essere riscritta come
P
(
{
ω
∈
Ω
|
lim
n
→
∞
X
n
(
ω
)
=
X
(
ω
)
}
)
=
1
{\displaystyle P(\{\omega \in \Omega |\lim _{n\to \infty }X_{n}(\omega )=X(\omega )\})=1}
.
Ovvero, dato lo spazio di probabilità
(
Ω
,
Σ
,
P
)
{\displaystyle (\Omega ,\Sigma ,P)}
, il limite
lim
n
→
∞
X
n
(
ω
)
=
X
(
ω
)
{\displaystyle \lim _{n\to \infty }X_{n}(\omega )=X(\omega )}
esiste per ogni
ω
∈
U
{\displaystyle \omega \in U}
t.c.
P
(
U
)
=
1
{\displaystyle P(U)=1}
.
Quello che la definizione sostiene è che le v.c.
X
n
{\displaystyle X_{n}}
e
X
{\displaystyle X}
differiranno, in limite, solo su eventi di probabilità nulla. Questa è la nozione di convergenza più forte, perché esprime il fatto che, all'aumentare della numerosità del campione, è un evento quasi certo che le realizzazioni campionarie tenderanno a coincidere con le osservazioni della variabile casuale
X
{\displaystyle X}
. Questo è il tipo di convergenza usato nella legge forte dei grandi numeri .
X
n
→
q
.
c
.
X
{\displaystyle X_{n}{\stackrel {q.c.}{\rightarrow }}X}
se e solo se
X
n
−
X
→
q
.
c
.
0
{\displaystyle X_{n}-X{\stackrel {q.c.}{\rightarrow }}0}
.
X
n
→
q
.
c
.
X
{\displaystyle X_{n}{\stackrel {q.c.}{\rightarrow }}X}
(variabili k-variate) se e solo se
X
n
,
i
→
q
.
c
.
X
i
{\displaystyle X_{n,i}{\stackrel {q.c.}{\rightarrow }}X_{i}}
per ogni
i
=
1
,
.
.
.
,
k
{\displaystyle i=1,...,k}
.
X
n
→
q
.
c
.
X
{\displaystyle X_{n}{\stackrel {q.c.}{\rightarrow }}X}
se e solo se per ogni
ε
>
0
{\displaystyle \varepsilon >0}
,
lim
n
→
∞
P
(
⋂
m
≥
n
{
|
X
m
−
X
|
≤
ε
}
)
=
1
{\displaystyle \lim _{n\to \infty }P\left(\bigcap _{m\geq n}{\bigl \{}|X_{m}-X|\leq \varepsilon {\bigr \}}\right)=1}
.
Se
X
n
→
q
.
c
.
X
{\displaystyle X_{n}{\stackrel {q.c.}{\rightarrow }}X}
, allora
X
n
→
p
X
{\displaystyle X_{n}{\stackrel {p}{\rightarrow }}X}
[ 2] .
Dalla precedente si ricava
X
n
→
q
.
c
.
X
⇒
X
n
→
d
X
{\displaystyle X_{n}{\stackrel {q.c.}{\rightarrow }}X\Rightarrow X_{n}{\stackrel {d}{\rightarrow }}X}
, poiché
X
n
→
p
X
⇒
X
n
→
d
X
{\displaystyle X_{n}{\stackrel {p}{\rightarrow }}X\Rightarrow X_{n}{\stackrel {d}{\rightarrow }}X}
Dimostrazione convergenza quasi certa implica convergenza in probabilità
modifica
L'affermazione segue direttamente dalla terza proprietà dei teoremi precedenti; infatti
1
=
lim
n
→
+
∞
P
(
⋂
m
≥
n
{
|
X
m
−
X
|
≤
ε
}
)
≤
P
(
{
|
X
n
−
X
|
≤
ε
}
)
≤
1
⟹
X
n
→
p
X
.
{\displaystyle 1=\lim _{n\to +\infty }P\left(\bigcap _{m\geq n}{\bigl \{}|X_{m}-X|\leq \varepsilon {\bigr \}}\right)\leq P{\bigr (}{\bigl \{}|X_{n}-X|\leq \varepsilon {\bigr \}}{\bigr )}\leq 1\ \Longrightarrow \ X_{n}{\stackrel {p}{\rightarrow }}X.}
Resta quindi da mostrare che è vera la caratterizzazione della convergenza quasi certa. Dalla definizione di convergenza quasi certa si ha che:
X
n
→
q
.
c
.
X
⟺
P
(
{
ω
∈
Ω
:
lim
n
→
∞
X
n
(
ω
)
=
X
(
ω
)
}
)
=
1.
{\displaystyle X_{n}{\stackrel {q.c.}{\rightarrow }}X\iff P\left(\left\{\omega \in \Omega :\lim _{n\to \infty }X_{n}(\omega )=X(\omega )\right\}\right)=1.}
Sia
A
=
{
ω
∈
Ω
:
lim
n
→
∞
X
n
(
ω
)
=
X
(
ω
)
}
{\displaystyle A=\left\{\omega \in \Omega :\lim _{n\to \infty }X_{n}(\omega )=X(\omega )\right\}}
, così che:
ω
∈
A
⟺
∀
ε
>
0
,
∃
n
∈
N
:
∀
m
≥
n
|
X
m
−
X
n
|
≤
ε
{\displaystyle \omega \in A\iff \forall \varepsilon >0,\exists n\in \mathbb {N} :\ \forall m\geq n\quad |X_{m}-X_{n}|\leq \varepsilon }
⟺
∀
k
∈
N
,
∃
n
∈
N
:
∀
m
≥
n
|
X
m
−
X
n
|
≤
1
k
{\displaystyle \iff \forall k\in \mathbb {N} ,\exists n\in \mathbb {N} :\ \forall m\geq n\quad |X_{m}-X_{n}|\leq {\frac {1}{k}}}
⟺
ω
∈
⋂
k
∈
N
⋃
n
∈
N
⋂
m
≥
n
{
|
X
m
(
ω
)
−
X
(
ω
)
|
≤
1
k
}
{\displaystyle \iff \omega \in \bigcap _{k\in \mathbb {N} }\bigcup _{n\in \mathbb {N} }\bigcap _{m\geq n}\left\{|X_{m}(\omega )-X(\omega )|\leq {\frac {1}{k}}\right\}}
.
Se definiamo gli eventi
A
k
=
⋃
n
∈
N
⋂
m
≥
n
{
|
X
m
(
ω
)
−
X
(
ω
)
|
≤
1
k
}
{\displaystyle A_{k}=\bigcup _{n\in \mathbb {N} }\bigcap _{m\geq n}\left\{|X_{m}(\omega )-X(\omega )|\leq {\frac {1}{k}}\right\}}
, allora per ogni
k
∈
N
{\displaystyle k\in \mathbb {N} }
fissato abbiamo che:
1
=
P
(
A
)
=
P
(
⋂
j
∈
N
A
j
)
≤
P
(
A
k
)
≤
1
⟹
∀
k
∈
N
P
(
A
k
)
=
1
{\displaystyle 1=P(A)=P\left(\bigcap _{j\in \mathbb {N} }A_{j}\right)\leq P(A_{k})\leq 1\ \Longrightarrow \ \forall k\in \mathbb {N} \quad P(A_{k})=1}
.
Ma quindi se definiamo
B
n
=
⋂
m
≥
n
{
|
X
m
(
ω
)
−
X
(
ω
)
|
≤
1
k
}
{\displaystyle B_{n}=\bigcap _{m\geq n}\left\{|X_{m}(\omega )-X(\omega )|\leq {\frac {1}{k}}\right\}}
, dato che
B
n
↑
⋃
n
∈
N
B
n
{\displaystyle B_{n}\uparrow \bigcup _{n\in \mathbb {N} }B_{n}}
grazie alla continuità da sotto della probabilità abbiamo che: per ogni
k
∈
N
{\displaystyle k\in \mathbb {N} }
,
1
=
P
(
A
k
)
=
P
(
⋃
n
∈
N
B
n
)
=
lim
n
→
∞
P
(
B
n
)
{\displaystyle 1=P(A_{k})=P\left(\bigcup _{n\in \mathbb {N} }B_{n}\right)=\lim _{n\to \infty }P(B_{n})}
.
Equivalentemente:
∀
ε
>
0
,
lim
n
→
∞
P
(
⋂
m
≥
n
{
|
X
n
(
ω
)
−
X
(
ω
)
|
}
≤
ε
)
=
1
{\displaystyle \forall \varepsilon >0,\ \lim _{n\to \infty }P\left(\bigcap _{m\geq n}{\bigl \{}|X_{n}(\omega )-X(\omega )|{\bigr \}}\leq \varepsilon \right)=1}
.
Una successione di variabili casuali
(
X
n
)
n
∈
N
{\displaystyle (X_{n})_{n\in \mathbb {N} }}
si dice convergere in media r-esima , o in norma r-esima , alla variabile casuale
X
{\displaystyle X}
, con
r
>
0
{\displaystyle r>0}
, se[ 3] :
lim
n
→
∞
E
(
|
X
n
−
X
|
r
)
=
0
{\displaystyle \lim _{n\to \infty }\mathbb {E} (|X_{n}-X|^{r})=0}
Se
r
=
1
{\displaystyle r=1}
,
X
n
{\displaystyle X_{n}}
si dice convergere in media a
X
{\displaystyle X}
. Se
r
=
2
{\displaystyle r=2}
, la convergenza si dice in media quadratica .
Secondo l'approccio assiomatico di Kolmogorov , questa convergenza equivale alla convergenza in norma Lp .
Se
X
n
→
X
{\displaystyle X_{n}\rightarrow X}
in media r-esima con
r
>
0
{\displaystyle r>0}
, allora
X
n
→
X
{\displaystyle X_{n}\rightarrow X}
in probabilità[ 2]
Se
X
n
→
X
{\displaystyle X_{n}\rightarrow X}
in media r-esima con
r
>
0
{\displaystyle r>0}
, allora
X
n
→
X
{\displaystyle X_{n}\rightarrow X}
quasi certamente a meno di sottosuccessioni
Se
X
n
→
X
{\displaystyle X_{n}\rightarrow X}
in media r-esima e
r
>
s
≥
1
{\displaystyle r>s\geq 1}
, allora
X
n
→
X
{\displaystyle X_{n}\rightarrow X}
in media s-esima
Qui di seguito sono riportati alcuni controesempi che mostrano che la convergenza in probabilità è strettamente più debole della convergenza quasi certa e in
L
p
{\displaystyle L^{p}}
, le quali a loro volta non sono confrontabili, cioè esistono variabili aleatorie che convergono in una ma non nell'altra.
Siano
(
Z
n
)
n
∈
N
{\displaystyle (Z_{n})_{n\in \mathbb {N} }}
variabili aleatorie indipendenti con distribuzione di Bernoulli ,
Z
n
∼
Be
(
1
n
)
{\displaystyle Z_{n}\sim {\text{Be}}\left({\frac {1}{n}}\right)}
. Sia
X
n
=
2
n
Z
n
{\displaystyle X_{n}=2^{n}Z_{n}}
, allora
X
n
→
p
0
{\displaystyle X_{n}{\xrightarrow[{}]{p}}0}
, ma non quasi certamente o in
L
p
{\displaystyle L^{p}}
.
P
(
|
X
n
−
0
|
≥
ε
)
=
P
(
X
n
≥
ε
)
=
P
(
Z
n
≥
ε
2
n
)
≤
P
(
Z
n
=
1
)
=
1
n
⟶
0.
{\displaystyle P\left(|X_{n}-0|\geq \varepsilon \right)=P(X_{n}\geq \varepsilon )=P\left(Z_{n}\geq {\frac {\varepsilon }{2^{n}}}\right)\leq P(Z_{n}=1)={\frac {1}{n}}\longrightarrow 0.}
Impossibilità di convergenza quasi certa
modifica
Dato che
∑
n
∈
N
P
(
Z
n
=
1
)
=
∑
n
∈
N
1
n
=
+
∞
{\displaystyle \sum _{n\in \mathbb {N} }P(Z_{n}=1)=\sum _{n\in \mathbb {N} }{\frac {1}{n}}=+\infty }
, allora per il lemma di Borel-Cantelli si ha che
P
(
lim sup
n
→
∞
{
Z
n
=
1
}
)
=
1.
{\displaystyle P\left(\limsup _{n\to \infty }\left\{Z_{n}=1\right\}\right)=1.}
Allora quasi certamente
X
n
=
2
n
Z
n
{\displaystyle X_{n}=2^{n}Z_{n}}
per infiniti
n
∈
N
{\displaystyle n\in \mathbb {N} }
; cioè esiste
Ω
~
⊆
Ω
{\displaystyle {\tilde {\Omega }}\subseteq \Omega }
,
P
(
Ω
~
)
=
1
{\displaystyle P({\tilde {\Omega }})=1}
, tale che
∀
ω
∈
Ω
~
{\displaystyle \forall \omega \in {\tilde {\Omega }}}
X
n
(
ω
)
=
2
n
{\displaystyle X_{n}(\omega )=2^{n}}
per infiniti
n
∈
N
{\displaystyle n\in \mathbb {N} }
. Quindi
X
n
{\displaystyle X_{n}}
diverge lungo una sottosuccessione e dunque non può convergere quasi certamente a
0
{\displaystyle 0}
.
Per ogni
p
>
0
{\displaystyle p>0}
si ha che:
E
(
|
X
n
−
0
|
p
)
=
E
(
X
n
p
)
=
E
(
2
n
p
Z
n
)
=
2
n
p
E
(
Z
n
)
=
2
n
p
n
→
n
→
∞
+
∞
{\displaystyle {\text{E}}{\bigl (}|X_{n}-0|^{p}{\bigr )}={\text{E}}{\bigl (}X_{n}^{p}{\bigr )}={\text{E}}{\bigl (}2^{np}Z_{n}{\bigr )}=2^{np}{\text{E}}{\bigl (}Z_{n}{\bigr )}={\frac {2^{np}}{n}}{\xrightarrow[{n\to \infty }]{}}+\infty }
.
Siano
(
Z
n
)
n
∈
N
{\displaystyle (Z_{n})_{n\in \mathbb {N} }}
variabili aleatorie indipendenti con distribuzione di Bernoulli ,
Z
n
∼
Be
(
1
n
2
)
{\displaystyle Z_{n}\sim {\text{Be}}\left({\frac {1}{n^{2}}}\right)}
e siano
X
n
=
2
n
Z
n
{\displaystyle X_{n}=2^{n}Z_{n}}
. Dal lemma di Borel-Cantelli
P
(
lim sup
n
→
∞
{
Z
n
=
1
}
)
=
0
{\displaystyle P\left(\limsup _{n\to \infty }\left\{Z_{n}=1\right\}\right)=0}
, cioè quasi certamente
Z
n
=
1
{\displaystyle Z_{n}=1}
solo per un numero finito di
n
∈
N
{\displaystyle n\in \mathbb {N} }
. Allora quasi cetamente
Z
n
=
0
{\displaystyle Z_{n}=0}
definitivamente, quindi
X
n
=
2
n
Z
n
=
0
{\displaystyle X_{n}=2^{n}Z_{n}=0}
definitivamente, in particolare
lim
n
→
∞
X
n
=
0
{\displaystyle \lim _{n\to \infty }X_{n}=0}
.
Tuttavia non si ha la convergenza in
L
p
{\displaystyle L^{p}}
perché per ogni
p
>
0
{\displaystyle p>0}
si ha che
E
(
|
X
n
−
0
|
p
)
=
E
(
X
n
p
)
=
E
(
2
n
p
Z
n
)
=
2
n
p
E
(
Z
n
)
=
2
n
p
n
2
→
n
→
∞
+
∞
{\displaystyle {\text{E}}{\bigl (}|X_{n}-0|^{p}{\bigr )}={\text{E}}{\bigl (}X_{n}^{p}{\bigr )}={\text{E}}{\bigl (}2^{np}Z_{n}{\bigr )}=2^{np}{\text{E}}{\bigl (}Z_{n}{\bigr )}={\frac {2^{np}}{n^{2}}}{\xrightarrow[{n\to \infty }]{}}+\infty }
.
Se
Z
n
∼
Be
(
1
n
)
{\displaystyle Z_{n}\sim {\text{Be}}\left({\frac {1}{n}}\right)}
indipendenti, allora analogamente a quanto detto nel primo esempio si ha che
Z
n
{\displaystyle Z_{n}}
non converge quasi certamente a
0
{\displaystyle 0}
; mentre per ogni
p
>
0
{\displaystyle p>0}
,
E
(
|
X
n
−
0
|
p
)
=
1
n
⟶
0
{\displaystyle {\text{E}}{\bigl (}|X_{n}-0|^{p}{\bigr )}={\frac {1}{n}}\longrightarrow 0}
, cioè
Z
n
→
L
p
0
{\displaystyle Z_{n}{\xrightarrow[{}]{L^{p}}}0}
.