1.切比雪夫不等式
切比雪夫不等式可以对随机变量偏离期望值的概率做出估计,这是大数定律的推理基础。以下介绍一个对切比雪夫不等式的直观证明。
1.1 示性函数
对于随机事件A,我们引入一个示性函数 I A = { 1 , A发生 0 , A不发生 I_A=\begin{cases} 1&,\text{A发生} \\ 0&,\text{A不发生} \end{cases} IA={10,A发生,A不发生,即一次实验中,若 A A A发生了,则 I I I的值为1,否则为0。
现在思考一个问题:这个函数的自变量是什么?
我们知道,随机事件在做一次试验后有一个确定的观察结果,称这个观察结果为样本点 ω \omega ω,所有可能的样本点的集合称为样本空间$\Omega =\left { \omega \right } ,称 ,称 ,称\Omega 的一个子集 的一个子集 的一个子集A$为随机事件。
例如,掷一个六面骰子,记得到数字 k k k的样本点为 ω k \omega_k ωk,则 Ω = { ω 1 , ω 2 , ω 3 , ω 4 , ω 5 , ω 6 } \Omega = \{\omega_1,\omega_2,\omega_3,\omega_4,\omega_5,\omega_6\} Ω={ω1,ω2,ω3,ω4,ω5,ω6},随机事件“得到的数字为偶数”为 A = { ω 2 , ω 4 , ω 6 } A = \{\omega_2,\omega_4,\omega_6\} A={ω2,ω4,ω6}。
由此可知,示性函数是关于样本点的函数,即
I A ( ω ) = { 1 , ω ∈ A 0 , ω ∉ A (试验后) I_A(\omega)=\begin{cases} 1&,\omega \in A \\ 0&,\omega \notin A \end{cases} \text {(试验后)} IA(ω)={10,ω∈A,ω∈/A(试验后)
在试验之前,我们能获得哪个样本点也是未知的,因此样本点也是个随机事件,记为 ξ \xi ξ,相应的示性函数可以记为
I A = { 1 , ξ ∈ A 0 , ξ ∉ A (试验前) I_A=\begin{cases} 1&,\xi \in A \\ 0&,\xi \notin A \end{cases} \text {(试验前)} IA={10,ξ∈A,ξ∈/A(试验前)
在试验之前, I I I的值也是未知的,因此 I I I是个二值随机变量。这样,我们就建立了随机事件 A A A和随机变量 I I I之间的一一对应关系。
对 I I I求数学期望可得
E I A = 1 × P ( ξ ∈ A ) + 0 × P ( ξ ∉ A ) = P ( ξ ∈ A ) \mathbb{E}I_A=1 \times P(\xi \in A) + 0 \times P(\xi \notin A)=P(\xi \in A) EIA=1×P(ξ∈A)+0×P(ξ∈/A)=P(ξ∈A)
P ( ξ ∈ A ) P(\xi \in A) P(ξ∈A)是什么?是样本点落在 A A A里面的概率,也就是 A A A事件发生的概率 P ( A ) P(A) P(A),由此我们就得到了示性函数很重要的性质:其期望值正是对应的随机事件的概率,即
E I A = P ( A ) \mathbb{E}I_A=P(A) EIA=P(A)
1.2 马尔科夫不等式
对于非负的随机变量 X X X和定值 a a a,考虑随机事件 A = { X ≥ a } A=\{X \ge a\} A={X≥a},我们可以画出示性函数 I A I_A IA关于观察值 x x x的图像,如图所示:
容易发现 I X ≥ a ( x ) ≤ x a I_{X \ge a}(x) \le \frac{x}{a} IX≥a(x)≤ax恒成立。把 x x x换为随机变量 X X X,再对该式取数学期望得
E I X ≥ a = P ( X ≥ a ) ≤ E X a \mathbb{E}I_{X \ge a}=P(X \ge a) \le \frac{\mathbb{E}X}{a} EIX≥a=P(X≥a)≤aEX
称该不等式为马尔科夫Markov不等式,
从理解上说,如果非负随机变量 X X X的期望存在,则 X X X超过某个定值 a a a的概率不超过 E a \frac{\mathbb{E}}{a} aE。举个简单的例子:如果我们知道所有人收入的平均数 a a a,那么随机抽一个人收入超过 10 a 10a 10a的概率不超过 10 % 10\% 10%。
根据图中两个函数的差距,我们大致能理解这个不等式对概率的估计时比较粗超的。
1.3 切比雪夫不等式
对于随机变量 X X X,记 μ = E X \mu = \mathbb{E}X μ=EX,考虑随机事件 A = { ∣ X − μ ∣ ≥ a } A=\{|X-\mu|\ge a\} A={∣X−μ∣≥a},其示性函数的图像如图所示:
易知 I ∣ X − μ ∣ ≥ a ≤ ( x − μ ) 2 a 2 I_{|X-\mu|\ge a}\le \frac{{(x-\mu)}^2}{a^2} I∣X−μ∣≥a≤a2(x−μ)2恒成立。将该式 x x x换成 X X X并取数学期望得
E I ∣ X − μ ∣ ≥ a = P ( ∣ X − μ ∣ ≥ a ) ≤ D X a 2 \mathbb{E}I_{|X-\mu|\ge a}=P(|X-\mu|\ge a)\le \frac{\mathbb{D}X}{a^2} EI∣X−μ∣≥a=P(∣X−μ∣≥a)≤a2DX
称上面这个不等式为切比雪夫Chebyshev不等式。
从理解上来说,如果随机变量 X X X的期望和方差存在,则 X X X和期望值的距离大于 a a a的概率不超过 D X a 2 \frac{\mathbb{D}X}{a^2} a2DX,给定的范围越大( a a a越大),或 X X X的方差越小,则偏离的概率越小,这和直觉是相符的。
同样的,切比雪夫不等式对概率的估计也比较粗糙。
2. 大数定律
对于一系列随机变量 { X n } \{X_n\} {Xn},设每个随机变量都有期望。由于随机变量之和 ∑ i = 1 n X i \sum_{i=1}^{n}X_i ∑i=1nXi很有可能发散到无穷大,我们转而考虑随机变量的均值 X ˉ n = 1 n ∑ i = 1 n X i {\bar{X}_n}=\frac{1}{n}\sum_{i=1}^{n}X_i Xˉn=n1∑i=1nXi和其期望 E ( X ˉ n ) \mathbb{E}({\bar{X}_n}) E(Xˉn)之间的距离。若 { X n } \{X_n\} {Xn}满足一定条件,当 n n n足够大时,这个距离会以非常大的概率接近0,这就是大数定律的主要思想。
定义:
任取 ε > 0 \varepsilon >0 ε>0,若恒有 lim n → ∞ P ( ∣ X ˉ n − E X ˉ n ∣ < ε ) = 1 \lim_{n \to \infty} P(\left | \bar{X}_n-\mathbb{E}\bar{X}_n \right | < \varepsilon )=1 limn→∞P( Xˉn−EXˉn <ε)=1,称 { X n } \{X_n\} {Xn}服从(弱)大数定律,称 X ˉ n \bar{X}_n Xˉn依概率收敛于 E ( X ˉ n ) \mathbb{E}({\bar{X}_n}) E(Xˉn),记作
X ˉ n ⟶ P E ( X ˉ n ) \bar{X}_n\overset{P}{\longrightarrow} \mathbb{E}({\bar{X}_n}) Xˉn⟶PE(Xˉn)
2.1 马尔可夫大数定律
任取 ε > 0 \varepsilon >0 ε>0,由切比雪夫不等式可知
P ( ∣ X ˉ n − E X ˉ n ∣ < ε ) ≥ 1 − D ( X ˉ n ) ε 2 P(\left | \bar{X}_n-\mathbb{E}\bar{X}_n \right | < \varepsilon )\ge 1-\frac{\mathbb{D}({\bar{X}_n})}{{\varepsilon}^2} P( Xˉn−EXˉn <ε)≥1−ε2D(Xˉn)
= 1 − 1 ε 2 n 2 D ( ∑ i = 1 n X i ) =1-\frac{1}{{\varepsilon}^2n^2}\mathbb{D}(\sum_{i=1}^{n}X_i) =1−ε2n21D(i=1∑nXi)
由此得到马尔可夫大数定律:
如果 lim n → ∞ 1 n 2 D ( ∑ i = 1 n X i ) = 0 \lim_{n \to \infty}\frac{1}{n^2}\mathbb{D}(\sum_{i=1}^{n}X_i)=0 limn→∞n21D(∑i=1nXi)=0,则 { X n } \{X_n\} {Xn}服从大数定律。
2.2 切比雪夫大数定律
在马尔可夫大数定律的基础上,如果 { X n } \{X_n\} {Xn}两两不相关,则方差可以拆开:
1 n 2 D ( ∑ i = 1 n X i ) = 1 n 2 ∑ i = 1 n D X i \frac{1}{n^2}\mathbb{D}(\sum_{i=1}^{n}X_i)=\frac{1}{n^2}\sum_{i=1}^{n}\mathbb{D}X_i n21D(i=1∑nXi)=n21i=1∑nDXi
如果 D X i \mathbb{D}X_i DXi有共同的上界c,则
1 n 2 D ( ∑ i = 1 n X i ) ≤ n c n 2 = c n \frac{1}{n^2}\mathbb{D}(\sum_{i=1}^{n}X_i)\le \frac{nc}{n^2}=\frac{c}{n} n21D(i=1∑nXi)≤n2nc=nc
P ( ∣ X ˉ n − E X ˉ n ∣ < ε ) ≥ 1 − c ε 2 n P(\left | \bar{X}_n-\mathbb{E}\bar{X}_n \right | < \varepsilon )\ge 1-\frac{c}{{\varepsilon}^2n} P( Xˉn−EXˉn <ε)≥1−ε2nc
由此得到切比雪夫大数定律:
如果 { X n } \{X_n\} {Xn}两两不相关,且方差有共同的上界,则 { X n } \{X_n\} {Xn}两两不相关服从大数定律。
3. 中心极限定理
大数定律研究的是一系列随机变量 { X n } \{X_n\} {Xn}的均值 X ˉ n = 1 n ∑ i = 1 n X i {\bar{X}_n}=\frac{1}{n}\sum_{i=1}^{n}X_i Xˉn=n1∑i=1nXi是否会依概率收敛于其期望 E ( X ˉ n ) \mathbb{E}({\bar{X}_n}) E(Xˉn)这个数值,而中心极限定理进一步研究 X ˉ n {\bar{X}_n} Xˉn服从什么分布。若 { X n } \{X_n\} {Xn}满足一定的条件,当 n n n足够大时, X ˉ n {\bar{X}_n} Xˉn服从正态分布,这就是中心极限定理的主要思想,这也体现了正态分布的重要性和普遍性。
3.1 独立同分布中心极限定理(林德贝格-勒维)
如果 { X n } \{X_n\} {Xn}独立同分布,且 E X = μ \mathbb{E}X=\mu EX=μ, D X = σ 2 > 0 \mathbb{D}X={\sigma}^2>0 DX=σ2>0,则 n n n足够大时 X ˉ n {\bar{X}_n} Xˉn近似服从正态分布 N ( μ , σ 2 n ) N(\mu, \frac{{\sigma}^2}{n}) N(μ,nσ2),即
lim x → ∞ P ( X ˉ n − μ σ / n < a ) = Φ ( a ) = ∫ − ∞ a 1 2 π e − t 2 / 2 d t \lim_{x \to \infty} P(\frac{{\bar X}_n-\mu}{\sigma / \sqrt{n}}<a)=\Phi (a)=\int_{-\infty}^{a}\frac{1}{\sqrt{2\pi}}e^{-t^2/2}dt x→∞limP(σ/nXˉn−μ<a)=Φ(a)=∫−∞a2π1e−t2/2dt