Przykładowy rozkład prawdopodobieństwa pewnej zmiennej
Rozkład prawdopodobieństwa średniej dwóch takich niezależnych zmiennych
Rozkład prawdopodobieństwa średniej trzech takich niezależnych zmiennych
Rozkład prawdopodobieństwa średniej czterech takich niezależnych zmiennych. Jest już bardzo zbliżony do rozkładu normalnego.
Centralne twierdzenie graniczne – twierdzenie probabilistyki o zbieżności pewnych ciągów zmiennych losowych do rozkładu normalnego [1] . Wyjaśnia ono powszechność w przyrodzie zbliżonych do niego rozkładów prawdopodobieństwa .
Centralne twierdzenie graniczne to twierdzenie matematyczne mówiące, że jeśli
X
i
{\displaystyle X_{i}}
są niezależnymi zmiennymi losowymi pochodzącymi z tej samej populacji o wartości oczekiwanej
μ
{\displaystyle \mu }
oraz dodatniej i skończonej wariancji
σ
2
,
{\displaystyle \sigma ^{2},}
to ciąg zmiennych losowych, w postaci znormalizowanych wartości oczekiwanych
U
n
{\displaystyle U_{n}}
U
n
=
1
n
∑
i
=
1
n
X
i
−
μ
σ
/
n
{\displaystyle U_{n}={\frac {{\frac {1}{n}}\sum _{i=1}^{n}X_{i}-\mu }{\sigma /{\sqrt {n}}}}}
zbieżny jest według rozkładu do standardowego rozkładu normalnego , gdy
n
→
+
∞
.
{\displaystyle n\to +\infty .}
Tzn.
lim
n
→
∞
P
(
U
n
<
u
)
=
1
2
π
∫
−
∞
u
e
−
x
2
/
2
d
x
{\displaystyle \lim _{n\to \infty }P(U_{n}<u)={\frac {1}{\sqrt {2\pi }}}\int _{-\infty }^{u}e^{-x^{2}/2}\,dx}
Centralne twierdzenie graniczne znane też pod nazwą twierdzenia Lindeberga-Lévy’ego mówi:
Niech
(
X
n
,
k
)
{\displaystyle (X_{n,k})}
będzie schematem serii , w którym
E
X
n
,
k
=
0
{\displaystyle EX_{n,k}=0}
dla
k
⩽
n
{\displaystyle k\leqslant n}
i dla każdego
n
{\displaystyle n}
mamy
∑
k
=
1
n
D
2
X
n
,
k
=
1.
{\displaystyle \sum _{k=1}^{n}D^{2}X_{n,k}=1.}
Jeśli spełniony jest warunek Lindeberga , tj. dla każdego
ϵ
>
0
{\displaystyle \epsilon >0}
zachodzi
lim
n
→
∞
∑
k
=
1
n
E
X
n
,
k
2
1
{
|
X
n
,
k
|
>
ϵ
}
=
0
,
{\displaystyle \lim _{n\to \infty }\sum _{k=1}^{n}EX_{n,k}^{2}\mathbf {1} _{\{|X_{n,k}|>\epsilon \}}=0,}
to
∑
k
=
1
n
X
n
,
k
→
D
N
(
0
,
1
)
.
{\displaystyle \sum _{k=1}^{n}X_{n,k}{\xrightarrow {D}}N(0,1).}
Dowodów centralnego twierdzenia granicznego w wersji ogólnej jest kilka. Wszystkie są dość skomplikowane i wymagają korzystania z wielu zaawansowanych narzędzi matematycznych. Poniżej znajduje się jeden z prostszych dowodów, nie dający jednak oszacowania wartości błędu.
Pierwszym krokiem dowodu jest sformułowanie i udowodnienie użytecznych lematów.
Lemat 1
Niech
f
:
R
→
R
{\displaystyle f\colon \mathbf {R} \to \mathbf {R} }
będzie funkcją trzykrotnie różniczkowalną taką, że
∀
x
∈
R
{\displaystyle \forall x\in \mathbf {R} }
zachodzi
|
f
‴
(
x
)
|
⩽
A
{\displaystyle |f'''(x)|\leqslant A}
oraz
|
f
″
(
x
)
|
⩽
B
.
{\displaystyle |f''(x)|\leqslant B.}
Wówczas:
∀
x
,
y
∈
R
{\displaystyle \forall x,y\in \mathbf {R} }
a)
|
f
(
x
+
y
)
−
f
(
x
)
−
f
′
(
x
)
y
−
f
″
(
x
)
y
2
2
!
|
{\displaystyle {\Bigg |}f(x+y)-f(x)-f'(x)y-{\frac {f''(x)y^{2}}{2!}}{\Bigg |}}
⩽
A
|
y
|
3
3
!
,
{\displaystyle {}\leqslant {\frac {A|y|^{3}}{3!}},}
b)
|
f
(
x
+
y
)
−
f
(
x
)
−
f
′
(
y
)
|
⩽
B
y
2
2
!
.
{\displaystyle {\bigg |}f(x+y)-f(x)-f'(y){\bigg |}\leqslant {\frac {By^{2}}{2!}}.}
Dowód
Oznaczmy
φ
x
(
y
)
=
f
(
x
+
y
)
−
f
(
x
)
−
f
′
(
x
)
y
−
f
″
(
x
)
y
2
2
!
.
{\displaystyle \varphi _{x}(y)=f(x+y)-f(x)-f'(x)y-{\frac {f''(x)y^{2}}{2!}}.}
Wówczas
φ
x
(
0
)
=
0
,
φ
x
′
(
0
)
=
0
,
φ
x
″
(
0
)
=
0.
{\displaystyle \varphi _{x}(0)=0,\varphi _{x}'(0)=0,\varphi _{x}''(0)=0.}
Ustalmy dowolne
y
>
0.
{\displaystyle y>0.}
Wówczas zgodnie z twierdzeniem Cauchy’ego istnieją takie
z
,
t
,
w
>
0
,
{\displaystyle z,t,w>0,}
że:
|
φ
x
(
y
)
y
3
|
=
|
φ
x
(
y
)
−
φ
x
(
0
)
y
3
−
0
|
{\displaystyle {\Bigg |}{\frac {\varphi _{x}(y)}{y^{3}}}{\Bigg |}={\Bigg |}{\frac {\varphi _{x}(y)-\varphi _{x}(0)}{y^{3}-0}}{\Bigg |}}
=
|
φ
x
′
(
z
)
3
z
2
|
{\displaystyle {}={\Bigg |}{\frac {\varphi _{x}'(z)}{3z^{2}}}{\Bigg |}}
=
|
φ
x
′
(
z
)
−
φ
x
′
(
0
)
3
z
2
−
3
⋅
0
2
|
{\displaystyle {}={\Bigg |}{\frac {\varphi _{x}'(z)-\varphi _{x}'(0)}{3z^{2}-3\cdot 0^{2}}}{\Bigg |}}
=
|
φ
x
″
(
t
)
6
t
|
{\displaystyle {}={\Bigg |}{\frac {\varphi _{x}''(t)}{6t}}{\Bigg |}}
=
|
φ
x
″
(
t
)
−
φ
x
″
(
0
)
6
t
−
6
⋅
0
|
{\displaystyle {}={\Bigg |}{\frac {\varphi _{x}''(t)-\varphi _{x}''(0)}{6t-6\cdot 0}}{\Bigg |}}
=
|
φ
x
‴
(
w
)
6
|
⩽
A
6
.
{\displaystyle {}={\Bigg |}{\frac {\varphi _{x}'''(w)}{6}}{\Bigg |}\leqslant {\frac {A}{6}}.}
Na tej samej zasadzie:
|
φ
x
(
y
)
y
2
|
{\displaystyle {\Bigg |}{\frac {\varphi _{x}(y)}{y^{2}}}{\Bigg |}}
=
|
φ
x
″
(
t
)
2
|
{\displaystyle {}={\Bigg |}{\frac {\varphi _{x}''(t)}{2}}{\Bigg |}}
⩽
B
2
.
{\displaystyle {}\leqslant {\frac {B}{2}}.}
◻
{\displaystyle \Box }
Lemat 2
Jeżeli
X
∼
N
(
0
,
1
)
,
{\displaystyle X\sim N(0,1),}
to
E
|
X
|
3
=
∫
R
|
x
|
3
1
2
π
e
−
x
2
2
d
x
=
4
2
π
.
{\displaystyle E|X|^{3}=\int \limits _{R}|x|^{3}{\frac {1}{\sqrt {2\pi }}}e^{-{\frac {x^{2}}{2}}}dx={\frac {4}{\sqrt {2\pi }}}.}
Dowód
E
|
X
|
3
=
∫
R
|
x
|
3
1
2
π
e
−
x
2
2
d
x
{\displaystyle E|X|^{3}=\int \limits _{R}|x|^{3}{\frac {1}{\sqrt {2\pi }}}e^{-{\frac {x^{2}}{2}}}dx}
=
2
2
π
∫
0
+
∞
x
3
e
−
x
2
2
d
x
.
{\displaystyle {}={\frac {2}{\sqrt {2\pi }}}\int \limits _{0}^{+\infty }x^{3}e^{-{\frac {x^{2}}{2}}}dx.}
Dokonujemy podstawienia
x
2
=
t
⇒
d
x
=
d
t
2
x
:
{\displaystyle x^{2}=t\Rightarrow dx={\frac {dt}{2x}}{:}}
E
|
X
|
3
=
2
2
π
∫
0
+
∞
t
x
e
−
t
2
d
t
2
x
{\displaystyle E|X|^{3}={\frac {2}{\sqrt {2\pi }}}\int \limits _{0}^{+\infty }txe^{-{\frac {t}{2}}}{\frac {dt}{2x}}}
=
1
2
π
∫
0
+
∞
t
e
−
t
2
d
t
.
{\displaystyle {}={\frac {1}{\sqrt {2\pi }}}\int \limits _{0}^{+\infty }te^{-{\frac {t}{2}}}dt.}
Teraz całkujemy przez części:
E
|
X
|
3
=
−
2
t
2
π
e
−
t
2
|
0
+
∞
+
2
2
π
∫
0
+
∞
e
−
t
2
d
t
{\displaystyle E|X|^{3}=-{\frac {2t}{\sqrt {2\pi }}}e^{-{\frac {t}{2}}}{\Bigg |}_{0}^{+\infty }+{\frac {2}{\sqrt {2\pi }}}\int \limits _{0}^{+\infty }e^{-{\frac {t}{2}}}dt}
=
−
4
2
π
e
−
t
2
|
0
+
∞
{\displaystyle {}=-{\frac {4}{\sqrt {2\pi }}}e^{-{\frac {t}{2}}}{\Bigg |}_{0}^{+\infty }}
=
4
2
π
.
{\displaystyle {}={\frac {4}{\sqrt {2\pi }}}.}
◻
{\displaystyle \Box }
Drugi krok polega na oszacowaniu pewnej wartości:
Niech
f
:
R
→
R
,
f
∈
C
3
(
R
)
{\displaystyle f\colon \mathbf {R} \to \mathbf {R} ,f\in C^{3}(\mathbf {R} )}
będzie funkcją trzykrotnie różniczkowalną taką, że
|
f
‴
(
x
)
|
⩽
A
∀
x
∈
R
{\displaystyle |f'''(x)|\leqslant A\;\forall x\in \mathbf {R} }
oraz
|
f
″
(
x
)
|
⩽
B
∀
x
∈
R
.
{\displaystyle |f''(x)|\leqslant B\;\forall x\in \mathbf {R} .}
Rozważamy niezależne zmienne
(
G
n
,
k
)
{\displaystyle (G_{n,k})}
o rozkładzie normalnym takie, że
∀
n
,
k
E
G
n
,
k
=
0
{\displaystyle \forall n,k\;EG_{n,k}=0}
oraz
D
2
G
n
,
k
=
D
2
X
n
,
k
.
{\displaystyle D^{2}G_{n,k}=D^{2}X_{n,k}.}
Wówczas:
∀
x
∈
R
|
E
f
(
x
+
X
n
,
k
)
−
E
f
(
x
+
G
n
,
k
)
|
{\displaystyle \forall x\in \mathbf {R} \;{\Bigg |}Ef(x+X_{n,k})-Ef(x+G_{n,k}){\Bigg |}}
=
|
E
f
(
x
+
X
n
,
k
)
−
f
(
x
)
−
f
′
(
x
)
⋅
E
X
n
,
k
{\displaystyle {}={\Bigg |}Ef(x+X_{n,k})-f(x)-f'(x)\cdot EX_{n,k}}
−
f
″
(
x
)
2
!
E
X
n
,
k
2
−
E
f
(
x
+
G
n
,
k
)
+
f
(
x
)
+
f
′
(
x
)
⋅
E
G
n
,
k
+
f
″
(
x
)
2
!
E
G
n
,
k
2
|
{\displaystyle {}-{\frac {f''(x)}{2!}}EX_{n,k}^{2}-Ef(x+G_{n,k})+f(x)+f'(x)\cdot EG_{n,k}+{\frac {f''(x)}{2!}}EG_{n,k}^{2}{\Bigg |}}
=
|
E
[
f
(
x
+
X
n
,
k
)
−
f
(
x
)
−
f
′
(
x
)
⋅
X
n
,
k
{\displaystyle ={\Bigg |}E{\Big [}f(x+X_{n,k})-f(x)-f'(x)\cdot X_{n,k}}
−
f
″
(
x
)
2
!
X
n
,
k
2
]
−
E
[
f
(
x
+
G
n
,
k
)
−
f
(
x
)
−
f
′
(
x
)
⋅
G
n
,
k
−
f
″
(
x
)
2
!
G
n
,
k
2
]
|
{\displaystyle {}-{\frac {f''(x)}{2!}}X_{n,k}^{2}{\Big ]}-E{\Big [}f(x+G_{n,k})-f(x)-f'(x)\cdot G_{n,k}-{\frac {f''(x)}{2!}}G_{n,k}^{2}{\Big ]}{\Bigg |}}
⩽
E
|
f
(
x
+
X
n
,
k
)
−
f
(
x
)
−
f
′
(
x
)
⋅
X
n
,
k
{\displaystyle \leqslant E{\Bigg |}f(x+X_{n,k})-f(x)-f'(x)\cdot X_{n,k}}
−
f
″
(
x
)
2
!
X
n
,
k
2
|
+
E
|
f
(
x
+
G
n
,
k
)
−
f
(
x
)
−
f
′
(
x
)
⋅
G
n
,
k
−
f
″
(
x
)
2
!
G
n
,
k
2
|
.
{\displaystyle {}-{\frac {f''(x)}{2!}}X_{n,k}^{2}{\Bigg |}+E{\Bigg |}f(x+G_{n,k})-f(x)-f'(x)\cdot G_{n,k}-{\frac {f''(x)}{2!}}G_{n,k}^{2}{\Bigg |}.}
Przy czym ostatnia nierówność to nierówność trójkąta .
Drugi ze składników daje się na podstawie Lematu 1 oszacować w sposób następujący:
E
|
f
(
x
+
G
n
,
k
)
−
f
(
x
)
−
f
′
(
x
)
⋅
G
n
,
k
−
f
″
(
x
)
2
!
G
n
,
k
2
|
{\displaystyle E{\Bigg |}f(x+G_{n,k})-f(x)-f'(x)\cdot G_{n,k}-{\frac {f''(x)}{2!}}G_{n,k}^{2}{\Bigg |}}
⩽
A
6
E
|
G
n
,
k
|
3
.
{\displaystyle {}\leqslant {\frac {A}{6}}E|G_{n,k}|^{3}.}
Tymczasem
G
n
,
k
=
D
2
X
n
,
k
⋅
G
,
{\displaystyle G_{n,k}={\sqrt {D^{2}X_{n,k}}}\cdot G,}
gdzie
G
∼
N
(
0
,
1
)
.
{\displaystyle G\sim N(0,1).}
W związku z tym (korzystając z Lematu 2):
E
|
G
n
,
k
|
3
=
(
D
2
X
n
,
k
)
3
/
2
⋅
E
|
G
|
3
{\displaystyle E|G_{n,k}|^{3}=(D^{2}X_{n,k})^{3/2}\cdot E|G|^{3}}
⩽
12
⋅
(
D
2
X
n
,
k
)
3
/
2
.
{\displaystyle {}\leqslant 12\cdot (D^{2}X_{n,k})^{3/2}.}
Wobec tego
A
6
E
|
G
n
,
k
|
3
⩽
2
A
⋅
(
D
2
X
n
,
k
)
3
/
2
{\displaystyle {\frac {A}{6}}E|G_{n,k}|^{3}\leqslant 2A\cdot (D^{2}X_{n,k})^{3/2}}
⩽
2
A
⋅
D
2
X
n
,
k
⋅
(
max
1
⩽
k
⩽
n
D
2
X
n
,
k
)
.
{\displaystyle {}\leqslant 2A\cdot D^{2}X_{n,k}\cdot {\bigg (}\max _{1\leqslant k\leqslant n}{\sqrt {D^{2}X_{n,k}}}{\bigg )}.}
Pierwszy ze składników można natomiast oszacować w sposób następujący:
E
|
f
(
x
+
X
n
,
k
)
−
f
(
x
)
−
f
′
(
x
)
⋅
X
n
,
k
−
f
″
(
x
)
2
!
X
n
,
k
2
|
{\displaystyle E{\Bigg |}f(x+X_{n,k})-f(x)-f'(x)\cdot X_{n,k}-{\frac {f''(x)}{2!}}X_{n,k}^{2}{\Bigg |}}
=
E
|
f
(
x
+
X
n
,
k
)
−
f
(
x
)
−
f
′
(
x
)
⋅
X
n
,
k
−
f
″
(
x
)
2
!
X
n
,
k
2
|
⋅
1
{
|
X
n
,
k
|
⩽
ϵ
}
{\displaystyle {}=E{\Bigg |}f(x+X_{n,k})-f(x)-f'(x)\cdot X_{n,k}-{\frac {f''(x)}{2!}}X_{n,k}^{2}{\Bigg |}\cdot \mathbf {1} _{\{|X_{n,k}|\leqslant \epsilon \}}}
+
E
|
f
(
x
+
X
n
,
k
)
−
f
(
x
)
−
f
′
(
x
)
⋅
X
n
,
k
{\displaystyle {}+E{\Bigg |}f(x+X_{n,k})-f(x)-f'(x)\cdot X_{n,k}}
−
f
″
(
x
)
2
!
X
n
,
k
2
|
⋅
1
{
|
X
n
,
k
|
>
ϵ
}
.
{\displaystyle {}-{\frac {f''(x)}{2!}}X_{n,k}^{2}{\Bigg |}\cdot \mathbf {1} _{\{|X_{n,k}|>\epsilon \}}.}
Z kolei szacujemy:
E
|
f
(
x
+
X
n
,
k
)
−
f
(
x
)
−
f
′
(
x
)
⋅
X
n
,
k
−
f
″
(
x
)
2
!
X
n
,
k
2
|
⋅
1
{
|
X
n
,
k
|
⩽
ϵ
}
{\displaystyle E{\Bigg |}f(x+X_{n,k})-f(x)-f'(x)\cdot X_{n,k}-{\frac {f''(x)}{2!}}X_{n,k}^{2}{\Bigg |}\cdot \mathbf {1} _{\{|X_{n,k}|\leqslant \epsilon \}}}
⩽
A
6
E
|
X
n
,
k
|
3
⋅
1
{
|
X
n
,
k
|
⩽
ϵ
}
{\displaystyle {}\leqslant {\frac {A}{6}}E|X_{n,k}|^{3}\cdot \mathbf {1} _{\{|X_{n,k}|\leqslant \epsilon \}}}
⩽
A
6
D
2
X
n
,
k
⋅
ϵ
{\displaystyle {}\leqslant {\frac {A}{6}}D^{2}X_{n,k}\cdot \epsilon }
oraz
E
|
f
(
x
+
X
n
,
k
)
−
f
(
x
)
−
f
′
(
x
)
⋅
X
n
,
k
−
f
″
(
x
)
2
!
X
n
,
k
2
|
⋅
1
{
|
X
n
,
k
|
>
ϵ
}
{\displaystyle E{\Bigg |}f(x+X_{n,k})-f(x)-f'(x)\cdot X_{n,k}-{\frac {f''(x)}{2!}}X_{n,k}^{2}{\Bigg |}\cdot \mathbf {1} _{\{|X_{n,k}|>\epsilon \}}}
⩽
E
|
f
(
x
+
X
n
,
k
)
−
f
(
x
)
−
f
′
(
x
)
⋅
X
n
,
k
|
⋅
1
{
|
X
n
,
k
|
>
ϵ
}
+
E
|
f
″
(
x
)
2
!
X
n
,
k
2
|
⋅
1
{
|
X
n
,
k
|
>
ϵ
}
{\displaystyle {}\leqslant E|f(x+X_{n,k})-f(x)-f'(x)\cdot X_{n,k}|\cdot \mathbf {1} _{\{|X_{n,k}|>\epsilon \}}+E{\Bigg |}{\frac {f''(x)}{2!}}X_{n,k}^{2}{\Bigg |}\cdot \mathbf {1} _{\{|X_{n,k}|>\epsilon \}}}
⩽
B
⋅
E
X
n
,
k
2
⋅
1
{
|
X
n
,
k
|
>
ϵ
}
.
{\displaystyle {}\leqslant B\cdot EX_{n,k}^{2}\cdot \mathbf {1} _{\{|X_{n,k}|>\epsilon \}}.}
Ostatnia nierówność wynika z Lematu 1.
Zatem
∀
x
∈
R
{\displaystyle \forall x\in \mathbf {R} }
mamy następujące oszacowanie:
|
E
f
(
x
+
X
n
,
k
)
−
E
f
(
x
+
G
n
,
k
)
|
{\displaystyle |Ef(x+X_{n,k})-Ef(x+G_{n,k})|}
⩽
2
A
⋅
D
2
X
n
,
k
⋅
(
max
1
⩽
k
⩽
n
D
2
X
n
,
k
)
+
A
6
D
2
X
n
,
k
⋅
ϵ
+
B
⋅
E
X
n
,
k
2
⋅
1
{
|
X
n
,
k
|
>
ϵ
}
.
{\displaystyle {}\leqslant 2A\cdot D^{2}X_{n,k}\cdot {\bigg (}\max _{1\leqslant k\leqslant n}{\sqrt {D^{2}X_{n,k}}}{\bigg )}+{\frac {A}{6}}D^{2}X_{n,k}\cdot \epsilon +B\cdot EX_{n,k}^{2}\cdot \mathbf {1} _{\{|X_{n,k}|>\epsilon \}}.}
Trzeci krok polega na wielokrotnym zastosowaniu oszacowania uzyskanego powyżej.
|
E
f
(
X
n
,
1
+
X
n
,
2
+
…
+
X
n
,
n
)
−
E
f
(
G
n
,
1
+
G
n
,
2
+
…
+
G
n
,
n
)
|
{\displaystyle |Ef(X_{n,1}+X_{n,2}+\ldots +X_{n,n})-Ef(G_{n,1}+G_{n,2}+\ldots +G_{n,n})|}
⩽
|
E
f
(
X
n
,
1
+
…
+
X
n
,
n
)
−
E
f
(
X
n
,
1
+
…
+
X
n
,
n
−
1
+
G
n
,
n
)
|
{\displaystyle {}\leqslant |Ef(X_{n,1}+\ldots +X_{n,n})-Ef(X_{n,1}+\ldots +X_{n,n-1}+G_{n,n})|}
+
|
E
f
(
X
n
,
1
+
…
+
X
n
,
n
−
1
+
G
n
,
n
)
−
E
f
(
X
n
,
1
+
…
+
X
n
,
n
−
2
+
G
n
,
n
−
1
+
G
n
,
n
)
|
{\displaystyle {}+|Ef(X_{n,1}+\ldots +X_{n,n-1}+G_{n,n})-Ef(X_{n,1}+\ldots +X_{n,n-2}+G_{n,n-1}+G_{n,n})|}
+
…
+
|
E
f
(
X
n
,
1
+
G
n
,
2
+
…
+
G
n
,
n
)
−
E
f
(
G
n
,
1
+
G
n
,
2
+
…
+
G
n
,
n
)
|
.
{\displaystyle {}+\ldots +|Ef(X_{n,1}+G_{n,2}+\ldots +G_{n,n})-Ef(G_{n,1}+G_{n,2}+\ldots +G_{n,n})|.}
Rozpatrzmy
k
{\displaystyle k}
-ty z powyższych wyrazów.
Podstawiamy
Y
:=
X
n
,
1
+
…
+
X
n
,
k
−
1
+
G
n
,
k
+
1
+
…
+
G
n
,
n
.
{\displaystyle Y:=X_{n,1}+\ldots +X_{n,k-1}+G_{n,k+1}+\ldots +G_{n,n}.}
Zmienna
Y
{\displaystyle Y}
jest niezależna od
X
n
,
k
{\displaystyle X_{n,k}}
i
G
n
,
k
.
{\displaystyle G_{n,k}.}
Wobec tego:
|
E
f
(
X
n
,
1
+
…
+
X
n
,
k
+
G
n
,
k
+
1
+
…
+
G
n
,
n
)
−
E
f
(
X
n
,
1
+
…
+
X
n
,
k
−
1
+
G
n
,
k
+
…
+
G
n
,
n
)
|
{\displaystyle |Ef(X_{n,1}+\ldots +X_{n,k}+G_{n,k+1}+\ldots +G_{n,n})-Ef(X_{n,1}+\ldots +X_{n,k-1}+G_{n,k}+\ldots +G_{n,n})|}
=
|
E
f
(
Y
+
X
n
,
k
)
−
E
f
(
Y
+
G
n
,
k
)
|
=
|
∫
R
E
f
(
y
+
X
n
,
k
)
d
μ
Y
(
y
)
{\displaystyle {}=|Ef(Y+X_{n,k})-Ef(Y+G_{n,k})|={\bigg |}\int \limits _{R}Ef(y+X_{n,k})d\mu _{Y}(y)}
−
∫
R
E
f
(
y
+
G
n
,
k
)
d
μ
Y
(
y
)
|
{\displaystyle {}-\int \limits _{R}Ef(y+G_{n,k})d\mu _{Y}(y){\bigg |}}
⩽
∫
R
|
E
f
(
y
+
X
n
,
k
)
{\displaystyle {}\leqslant \int \limits _{R}|Ef(y+X_{n,k})}
−
E
f
(
y
+
G
n
,
k
)
|
d
μ
Y
(
y
)
{\displaystyle {}-Ef(y+G_{n,k})|d\mu _{Y}(y)}
⩽
2
A
⋅
D
2
X
n
,
k
⋅
{\displaystyle {}\leqslant 2A\cdot D^{2}X_{n,k}\cdot }
(
max
1
⩽
k
⩽
n
D
2
X
n
,
k
)
{\displaystyle {\bigg (}\max _{1\leqslant k\leqslant n}{\sqrt {D^{2}X_{n,k}}}{\bigg )}}
+
A
6
D
2
X
n
,
k
⋅
ϵ
{\displaystyle {}+{\frac {A}{6}}D^{2}X_{n,k}\cdot \epsilon }
+
B
⋅
E
X
n
,
k
2
⋅
1
{
|
X
n
,
k
|
>
ϵ
}
.
{\displaystyle {}+B\cdot EX_{n,k}^{2}\cdot \mathbf {1} _{\{|X_{n,k}|>\epsilon \}}.}
Zatem:
|
E
f
(
X
n
,
1
+
X
n
,
2
+
…
+
X
n
,
n
)
−
E
f
(
G
n
,
1
+
G
n
,
2
+
…
+
G
n
,
n
)
|
{\displaystyle |Ef(X_{n,1}+X_{n,2}+\ldots +X_{n,n})-Ef(G_{n,1}+G_{n,2}+\ldots +G_{n,n})|}
⩽
2
A
⋅
(
∑
k
=
1
n
D
2
X
n
,
k
)
⋅
(
max
1
⩽
k
⩽
n
D
2
X
n
,
k
)
{\displaystyle {}\leqslant 2A\cdot {\bigg (}\sum _{k=1}^{n}D^{2}X_{n,k}{\bigg )}\cdot {\bigg (}\max _{1\leqslant k\leqslant n}{\sqrt {D^{2}X_{n,k}}}{\bigg )}}
+
A
6
(
∑
k
=
1
n
D
2
X
n
,
k
)
⋅
ϵ
{\displaystyle {}+{\frac {A}{6}}{\bigg (}\sum _{k=1}^{n}D^{2}X_{n,k}{\bigg )}\cdot \epsilon }
+
B
⋅
(
∑
k
=
1
n
E
X
n
,
k
2
⋅
1
{
|
X
n
,
k
|
>
ϵ
}
)
{\displaystyle {}+B\cdot {\bigg (}\sum _{k=1}^{n}EX_{n,k}^{2}\cdot \mathbf {1} _{\{|X_{n,k}|>\epsilon \}}{\bigg )}}
⩽
2
A
⋅
(
max
1
⩽
k
⩽
n
D
2
X
n
,
k
)
{\displaystyle {}\leqslant 2A\cdot {\bigg (}\max _{1\leqslant k\leqslant n}{\sqrt {D^{2}X_{n,k}}}{\bigg )}}
+
A
6
ϵ
+
B
⋅
L
n
(
ϵ
)
.
{\displaystyle {}+{\frac {A}{6}}\epsilon +B\cdot L_{n}(\epsilon ).}
Pierwszy i ostatni składnik z warunku Lindeberga zbiegają do zera, gdy
n
{\displaystyle n}
dąży do nieskończoności. W związku z tym:
∀
ϵ
>
0
lim sup
n
→
∞
|
E
f
(
X
n
,
1
+
…
+
X
n
,
n
)
−
E
f
(
G
n
,
1
+
…
+
G
n
,
n
)
|
⩽
A
⋅
ϵ
.
{\displaystyle \forall \epsilon >0\;\limsup _{n\to \infty }|Ef(X_{n,1}+\ldots +X_{n,n})-Ef(G_{n,1}+\ldots +G_{n,n})|\leqslant A\cdot \epsilon .}
Oznacza to, że:
E
f
(
X
n
,
1
+
…
+
X
n
,
k
)
{\displaystyle Ef(X_{n,1}+\ldots +X_{n,k})}
→
n
→
∞
E
f
(
G
n
,
1
+
…
+
G
n
,
n
)
=
E
f
(
G
)
,
{\displaystyle {}{\xrightarrow[{n\to \infty }]{}}Ef(G_{n,1}+\ldots +G_{n,n})=Ef(G),}
gdzie
G
∼
N
(
0
,
1
)
.
{\displaystyle G\sim N(0,1).}
Czwarty krok polega na wyliczenie dystrybuanty granicznej na podstawie powyższych oszacowań.
Weźmy funkcję
f
:
R
→
R
,
f
∈
C
3
(
R
)
{\displaystyle f\colon \mathbf {R} \to \mathbf {R} ,f\in \mathbb {C} ^{3}(R)}
spełniającą warunek
∀
x
∈
R
1
(
t
+
δ
,
+
∞
)
(
x
)
{\displaystyle \forall x\in \mathbf {R} \;\mathbf {1} _{(t+\delta ,+\infty )}(x)}
⩽
f
(
x
)
⩽
1
(
t
,
+
∞
)
(
x
)
{\displaystyle {}\leqslant f(x)\leqslant \mathbf {1} _{(t,+\infty )}(x)}
dla pewnych
t
∈
R
,
δ
>
0.
{\displaystyle t\in \mathbf {R} ,\delta >0.}
Wówczas:
P
(
X
n
,
1
+
…
+
X
n
,
n
⩾
t
)
⩾
E
f
(
X
n
,
1
+
…
+
X
n
,
n
)
⩾
P
(
X
n
,
1
+
…
+
X
n
,
n
⩾
t
+
δ
)
.
{\displaystyle P(X_{n,1}+\ldots +X_{n,n}\geqslant t)\geqslant Ef(X_{n,1}+\ldots +X_{n,n})\geqslant P(X_{n,1}+\ldots +X_{n,n}\geqslant t+\delta ).}
Ale:
E
f
(
X
n
,
1
+
…
+
X
n
,
n
)
→
n
→
∞
E
f
(
G
)
{\displaystyle Ef(X_{n,1}+\ldots +X_{n,n}){\xrightarrow[{n\to \infty }]{}}Ef(G)}
oraz
P
(
G
⩾
t
)
⩾
E
f
(
G
)
⩾
P
(
G
⩾
t
+
δ
)
.
{\displaystyle P(G\geqslant t)\geqslant Ef(G)\geqslant P(G\geqslant t+\delta ).}
W związku z tym:
lim inf
n
→
∞
P
(
X
n
,
1
+
…
+
X
n
,
n
⩾
t
)
{\displaystyle \liminf _{n\to \infty }P(X_{n,1}+\ldots +X_{n,n}\geqslant t)}
⩾
P
(
G
⩾
t
+
δ
)
→
δ
→
0
+
P
(
G
⩾
t
)
{\displaystyle {}\geqslant P(G\geqslant t+\delta ){\xrightarrow[{\delta \to 0^{+}}]{}}P(G\geqslant t)}
oraz podobnie
lim sup
n
→
∞
P
(
X
n
,
1
+
…
+
X
n
,
n
⩾
t
)
{\displaystyle \limsup _{n\to \infty }P(X_{n,1}+\ldots +X_{n,n}\geqslant t)}
⩽
P
(
G
⩾
t
−
δ
)
→
δ
→
0
+
P
(
G
⩾
t
)
.
{\displaystyle {}\leqslant P(G\geqslant t-\delta ){\xrightarrow[{\delta \to 0^{+}}]{}}P(G\geqslant t).}
Otrzymujemy więc
P
(
X
n
,
1
+
…
+
X
n
,
n
⩾
t
)
→
n
→
∞
{\displaystyle P(X_{n,1}+\ldots +X_{n,n}\geqslant t){\xrightarrow[{n\to \infty }]{}}}
P
(
G
⩾
t
)
⇒
P
(
X
n
,
1
+
…
+
X
n
,
n
<
t
)
→
n
→
∞
P
(
G
<
t
)
.
{\displaystyle P(G\geqslant t)\Rightarrow P(X_{n,1}+\ldots +X_{n,n}<t){\xrightarrow[{n\to \infty }]{}}P(G<t).}
Ale z ciągłości dystrybuanty rozkładu normalnego wnioskujemy, że
P
(
X
n
,
1
+
…
+
X
n
,
n
⩽
t
)
→
n
→
∞
P
(
G
⩽
t
)
.
{\displaystyle P(X_{n,1}+\ldots +X_{n,n}\leqslant t){\xrightarrow[{n\to \infty }]{}}P(G\leqslant t).}
Ponieważ punktowa zbieżność dystrybuant w punktach ciągłości dystrybuanty granicznej jest równoważna zbieżności według rozkładu, więc ostatecznie:
∑
k
=
1
n
X
n
,
k
→
n
→
∞
D
N
(
0
,
1
)
.
{\displaystyle \sum _{k=1}^{n}X_{n,k}{\xrightarrow[{n\to \infty }]{D}}N(0,1).}
◻
{\displaystyle \Box }
Centralne twierdzenie graniczne nie sprawi , by przy dostatecznie dużej próbie rozkład stał się normalny. Jedynie rozkład średniej z tej próby upodabnia się do normalnego.
Centralne twierdzenie graniczne jest prawdziwe tylko dla rozkładów o skończonej wariancji. Zobacz stabilność struktury .