概率论与数理统计复习总结2

概率论与数理统计复习总结,仅供笔者复习使用,参考教材:

  • 《概率论与数理统计》/ 荣腾中主编. — 第 2 版. 高等教育出版社
  • 《2024高途考研数学——概率基础精讲》王喆

概率论与数理统计实际上是两个互补的分支:概率论已知随机变量及其概率分布 的基础上去描述随机现象的统计规律、挖掘随机变量的数字特征与数学性质、计算随机事件的发生概率;数理统计 则是通过随机现象来研究其统计规律性,即通过收集、整理和分析随机变量的观测数据,对随机变量的性质和特征做出合理的推断或预测。

本文主要内容为:数理统计1;
概率论 部分见 概率论与数理统计复习总结1;
数理统计1 部分见 概率论与数理统计复习总结2;
数理统计2 部分见 概率论与数理统计复习总结3;

目录

  • 六. 数理统计的基本概念
    • 1. 总体和样本
    • 2. 样本的分布函数
    • 3. 统计量
    • 4. 抽样分布
      • 4.1 常见抽样分布
      • 4.2 抽样分布定理
    • 5. 分位数
  • 七. 参数估计
    • 1. 点估计
    • 2. 估计量的评价标准
    • 3. 区间估计
      • 3.1 置信区间
      • 3.2 单个正态总体的参数的置信区间

六. 数理统计的基本概念

数理统计通过研究如何有效地收集、整理和分析随机变量的观测数据,以对随机变量的性质h额特征做出合理的推断或预测。

1. 总体和样本

  • 总体:一个统计问题中的所有研究对象在某一属性上的取值的集合称,记为 X X X

  在总体所构成的取值集合中,不同数据出现的可能性不同。因此总体本质上是一个概率分布,其数量属性就是服从此概率分布的随机变量。

  • 个体:组成总体的每个元素;
  • 样本:从总体中随机抽取 n 个个体进行观测,称之为样本,记为 { X 1 , X 2 , ⋯ , X n } \{X_1, X_2, \cdots , X_n\} {X1,X2,,Xn},其观测值记为 { x 1 , x 2 , ⋯ , x n } \{x_1, x_2, \cdots , x_n\} {x1,x2,,xn}
  • 简单样本:如果样本 X 1 , X 2 , ⋯ , X n X_1, X_2, \cdots , X_n X1,X2,,Xn 相互独立且每个随机变量与总体 X X X 有相同的概率分布,则称为简单样本;

2. 样本的分布函数

  • 样本的分布函数:样本中含有总体的信息,样本的随机规律性与总体的随机规律性关系密切。假设总体 X X X 的分布函数为 F ( x ) F(x) F(x) X 1 , X 2 , ⋯ , X n X_1, X_2, \cdots , X_n X1,X2,,Xn 是来自总体 X X X 的样本,则该样本的联合分布函数为:
    F ( x 1 , x 2 , ⋯ , x n ) = P { X 1 ≤ x 1 , X 2 ≤ x 2 , ⋯ , X n ≤ x n } = ∏ i = 1 n P ( X i ≤ x i ) = ∏ i = 1 n F ( x i ) F(x_1, x_2, \cdots , x_n) = P\{ X_1 \leq x_1, X_2 \leq x_2, \cdots,X_n \leq x_n\} = \prod_{i=1}^n P(X_i \leq x_i) = \prod_{i=1}^n F(x_i) F(x1,x2,,xn)=P{X1x1,X2x2,,Xnxn}=i=1nP(Xixi)=i=1nF(xi)

连续型随机变量的联合密度函数为
f ( x 1 , x 2 , ⋯ , x n ) = ∏ i = 1 n f X i ( x i ) = ∏ i = 1 n f ( x i ) f(x_1, x_2, \cdots , x_n) = \prod_{i=1}^n f_{X_i}(x_i) = \prod_{i=1}^n f(x_i) f(x1,x2,,xn)=i=1nfXi(xi)=i=1nf(xi)
离散型随机变量的联合分布律为
P { X 1 = x 1 , X 2 = x 2 , ⋯ , X n = x n } = ∏ i = 1 n P ( X i = x i ) = ∏ i = 1 n P ( X = x i ) P\{ X_1 = x_1, X_2 = x_2, \cdots,X_n = x_n\} = \prod_{i=1}^n P(X_i = x_i) = \prod_{i=1}^n P(X = x_i) P{X1=x1,X2=x2,,Xn=xn}=i=1nP(Xi=xi)=i=1nP(X=xi)

  • 经验分布函数:假设总体 X X X 的分布函数 F ( x ) F(x) F(x) 未知, x 1 , x 2 , ⋯ , x n x_1, x_2, \cdots, x_n x1,x2,,xn 是来自 X X X 的一组样本值。将 x 1 , x 2 , ⋯ , x n x_1, x_2, \cdots, x_n x1,x2,,xn 按由小到大的顺序排序,其结果记为 x ( 1 ) < x ( 2 ) < ⋯ < x ( n ) x_{(1)}<x_{(2)}<\cdots<x_{(n)} x(1)<x(2)<<x(n)。对任意给定的一个实数 x x x,根据频率与概率的关系,得到
    F ( x ) = P { X ⩽ x } = { 0 , x < x ( 1 ) , k n , x ( k ) ⩽ x < x ( k + 1 ) , ( k = 1 , 2 , ⋯ , n − 1 ) 1 , x ⩾ x ( n ) \begin{aligned} F(x) & =P\{X \leqslant x\} = \begin{cases}0, & x<x_{(1)}, \\ \frac{k}{n}, & x_{(k)} \leqslant x<x_{(k+1)}, \quad(k=1,2, \cdots, n-1) \\ 1, & x \geqslant x_{(n)}\end{cases} \end{aligned} F(x)=P{Xx}= 0,nk,1,x<x(1),x(k)x<x(k+1),(k=1,2,,n1)xx(n)

  经验分布函数在 x ( k ) ⩽ x < x ( k + 1 ) x_{(k)} \leqslant x<x_{(k+1)} x(k)x<x(k+1) 时取 k n \frac{k}{n} nk 看似是均匀分布,但是 x ( k ) x_{(k)} x(k) x ( k + 1 ) x_{(k+1)} x(k+1) 之间并不等距,因此 X X X 并不是均匀分布的。显然 F n ( x ) F_n(x) Fn(x) x x x 的单调不减函数,且满足:
(1) 0 ⩽ F n ( x ) ⩽ 1 , x ∈ R 0 \leqslant F_n(x) \leqslant 1, x \in \mathbf{R} 0Fn(x)1,xR
(2) F n ( + ∞ ) = 1 , F n ( − ∞ ) = 0 F_n(+\infty)=1, F_n(-\infty)=0 Fn(+)=1,Fn()=0
(3) F n ( x + 0 ) = F n ( x ) , x ∈ R F_n(x+0)=F_n(x), x \in \mathbf{R} Fn(x+0)=Fn(x),xR
  其实经验分布函数就是一个用样本观测值构造的、用于估计理论分布 F ( x ) F(x) F(x) 的分布函数,它是一个不含未知参数的只关于当前样本的函数。

3. 统计量

样本来自总体,样本值中包含了总体各方面的信息。但这些信息较为分散,甚至杂乱无章。为了将这些分散在样本中的有关总体的信息挖掘出来用于对总体进行推断,需要对样本信息进行加工处理。最常见的加工方法是针对不同的问题,构造不同的样本的函数来反映总体不同的特征,样本的函数通常被称为统计量

  • 统计量:设 X 1 , X 2 , ⋯ , X n X_1, X_2, \cdots , X_n X1,X2,,Xn 是来自总体 X X X 的样本,若关于样本的函数 T ( x 1 , x 2 , ⋯ , x n ) T(x_1, x_2, \cdots, x_n) T(x1,x2,,xn) 中不含任何未知参数,则称 T T T 为统计量;

  • 样本矩统计量:设 X 1 , X 2 , ⋯ , X n X_1, X_2, \cdots , X_n X1,X2,,Xn 是来自总体 X X X 的样本,常见的样本矩统计量如下;

    • 样本均值: X ˉ = 1 n ∑ i = 1 n X i \bar{X}=\frac{1}{n} \sum_{i=1}^n X_i Xˉ=n1i=1nXi
    • 样本方差: S 2 = 1 n − 1 ∑ i = 1 n ( X i − X ˉ ) 2 S^2=\frac{1}{n-1} \sum_{i=1}^n\left(X_i-\bar{X}\right)^2 S2=n11i=1n(XiXˉ)2
    • 样本标准差: S = S 2 = 1 n − 1 ∑ i = 1 n ( X i − X ˉ ) 2 S=\sqrt{S^2}=\sqrt{\frac{1}{n-1} \sum_{i=1}^n\left(X_i-\bar{X}\right)^2} S=S2 =n11i=1n(XiXˉ)2
    • 样本 k k k 阶原点矩: M k = 1 n ∑ i = 1 n X i k , k = 1 , 2 , ⋯ M_k=\frac{1}{n} \sum_{i=1}^n X_i^k, k=1,2, \cdots Mk=n1i=1nXik,k=1,2,
    • 样本 k k k 阶中心矩: M k ∗ = 1 n ∑ i = 1 n ( X i − X ˉ ) k , k = 2 , 3 , ⋯ M_k^*=\frac{1}{n} \sum_{i=1}^n\left(X_i-\bar{X}\right)^k, k=2,3, \cdots Mk=n1i=1n(XiXˉ)k,k=2,3,

      显然,样本 k k k 阶原点矩和样本均值、样本 k k k 阶中心矩和样本方差也有以下等式关系:
    M 1 = X ˉ , S 2 = n n − 1 M 2 ∗ , M 2 ∗ = 1 n ∑ i = 1 n X i 2 − X ˉ 2 M_1=\bar{X}, \quad S^2=\frac{n}{n-1} M_2^*, \quad M_2^*=\frac{1}{n} \sum_{i=1}^n X_i^2-\bar{X}^2 M1=Xˉ,S2=n1nM2,M2=n1i=1nXi2Xˉ2

      样本矩统计量都是样本的函数,只与当前这一组样本 X 1 , X 2 , ⋯ , X n X_1, X_2, \cdots , X_n X1,X2,,Xn 有关,与总体 X X X 无关。但当样本组合的数量不断增多趋于无穷,即取无数组样本 X 1 , X 2 , ⋯ , X n X_1, X_2, \cdots , X_n X1,X2,,Xn 时,样本矩统计量会呈现出与总体 X X X 相关的统计规律:
    E X ˉ = E X , D X ˉ = 1 n D X , E M 2 ∗ = n − 1 n D X , E S 2 = D X E\bar{X}=EX, \quad D\bar{X}=\frac{1}{n} DX, \quad EM_2^*=\frac{n-1}{n} DX, \quad ES^2=DX EXˉ=EX,DXˉ=n1DX,EM2=nn1DX,ES2=DX
      除此之外,还有以下性质:
    (1) ∑ i = 1 n ( X i − X ˉ ) = 0 \sum_{i=1}^n(X_i-\bar{X})=0 i=1n(XiXˉ)=0
    (2)当 n → + ∞ n \rightarrow+\infty n+ 时, X ˉ ⟶ P E X \bar{X} \stackrel{P}{\longrightarrow} EX XˉPEX
    (3)对任意实数 x x x,有 ∑ i = 1 n ( X i − X ˉ ) 2 ⩽ ∑ i = 1 n ( X i − x ) 2 \sum_{i=1}^n(X_i-\bar{X})^2 \leqslant \sum_{i=1}^n(X_i-x)^2 i=1n(XiXˉ)2i=1n(Xix)2

  • 顺序统计量:设 X 1 , X 2 , ⋯ , X n X_1, X_2, \cdots , X_n X1,X2,,Xn 是来自总体 X X X 的样本,对给定的一组样本观测值 x 1 , x 2 , ⋯ , x n x_1, x_2, \cdots, x_n x1,x2,,xn,按从小到大的顺序排列。用 x ( k ) , k = 1 , 2 , ⋯ , n x_{(k)}, k = 1, 2, \cdots, n x(k),k=1,2,,n 表示大小位置在第 k k k 位的数,这样就有 x ( 1 ) ≤ x ( 2 ) ≤ ⋯ ≤ x ( n ) x_{(1)} ≤ x_{(2)} ≤ \cdots ≤ x_{(n)} x(1)x(2)x(n)。当样本 X 1 , X 2 , ⋯ , X n X_1, X_2, \cdots , X_n X1,X2,,Xn 的观测值随机变化时, x ( k ) , k = 1 , 2 , ⋯ , n x_{(k)}, k = 1, 2, \cdots, n x(k),k=1,2,,n 的取值也随之而变化,且具有随机性。这样, x ( k ) , k = 1 , 2 , ⋯ , n x_{(k)}, k = 1, 2, \cdots, n x(k),k=1,2,,n 的全部取值就对应一个随机变量,记为 X ( k ) , k = 1 , 2 , ⋯ , n X_{(k)}, k = 1, 2, \cdots, n X(k),k=1,2,,n 。它显然是一个统计量,我们称 X ( 1 ) , X ( 2 ) , ⋯ , X ( n ) X_{(1)}, X_{(2)}, \cdots, X_{(n)} X(1),X(2),,X(n) 为样本 X 1 , X 2 , ⋯ , X n X_1, X_2, \cdots , X_n X1,X2,,Xn 的顺序统计量。特别地,称 X ( 1 ) = m i n { X 1 , X 2 , ⋯ , X n } X_{(1)} = min \{X_1, X_2, \cdots, X_n\} X(1)=min{X1,X2,,Xn} 为最小顺序统计量, X ( n ) = m a x { X 1 , X 2 , ⋯ , X n } X_{(n)} = max \{X_1, X_2, \cdots, X_n\} X(n)=max{X1,X2,,Xn} 为最大顺序统计量;

4. 抽样分布

通过样本构造函数可以得到统计量,但为了更精确地刻画总体,还想确定统计量的分布。统计量的分布称为抽样分布,本节介绍几种常见的抽样分布以及常见统计量的分布情况。

4.1 常见抽样分布

  • χ 2 \chi^2 χ2 分布:设 X 1 , X 2 , ⋯ , X n X_1, X_2, \cdots, X_n X1,X2,,Xn n n n 个相互独立且都服从标准正态分布 N ( 0 , 1 ) N(0, 1) N(0,1) 的随机变量,记 χ 2 = ∑ i = 1 n X i 2 \chi^2 = \sum_{i=1}^n X_i^2 χ2=i=1nXi2,则称统计量 χ 2 \chi^2 χ2 服从自由度为 n n n χ 2 \chi^2 χ2 分布,记为 χ 2 ∼ χ 2 ( n ) \chi^2 \sim \chi^2(n) χ2χ2(n)。可以证明, χ 2 \chi^2 χ2 分布的密度函数为:
    f ( x ) = { 1 2 n 2 Γ ( n 2 ) x n 2 − 1 e − x 2 , x > 0 , 0 , x ⩽ 0 f(x)= \begin{cases}\frac{1}{2^{\frac{n}{2}} \Gamma\left(\frac{n}{2}\right)} x^{\frac{n}{2}-1} \mathrm{e}^{-\frac{x}{2}}, & x>0, \\ 0, & x \leqslant 0\end{cases} f(x)={22nΓ(2n)1x2n1e2x,0,x>0,x0
    其中 Γ ( α ) = ∫ 0 + ∞ x α − 1 e − x d x \Gamma(\alpha)=\int_0^{+\infty} x^{\alpha-1} \mathrm{e}^{-x} \mathrm{~d} x Γ(α)=0+xα1ex dx f ( x ) f(x) f(x) 的曲线如图所示,它是一个只取非负值的偏态分布:
    在这里插入图片描述
    χ 2 \chi^2 χ2 分布具有如下两个重要性质:
    (1)设 χ 2 ∼ χ 2 ( n ) \chi^2 \sim \chi^2(n) χ2χ2(n),则 E χ 2 = n , D χ 2 = 2 n E \chi^2=n, D \chi^2=2 n Eχ2=n,Dχ2=2n
    (2)设 χ 1 2 ∼ χ 2 ( n 1 ) \chi_1^2 \sim \chi^2(n_1) χ12χ2(n1) χ 2 2 ∼ χ 2 ( n 2 ) \chi_2^2 \sim \chi^2(n_2) χ22χ2(n2),且 χ 1 2 \chi_1^2 χ12 χ 2 2 \chi_2^2 χ22 相互独立,则 χ 1 2 + χ 2 2 ∼ \chi_1^2+\chi_2^2 \sim χ12+χ22 χ 2 ( n 1 + n 2 ) \chi^2\left(n_1+n_2\right) χ2(n1+n2)

  • t t t 分布:设 X ∼ N ( 0 , 1 ) X \sim N(0,1) XN(0,1) Y ∼ χ 2 ( n ) Y \sim \chi^2(n) Yχ2(n),且 X X X Y Y Y 相互独立,记 T = X Y / n T=\frac{X}{\sqrt{Y / n}} T=Y/n X。则称 T T T 的分布为自由度为 n n n t t t 分布,记为 T ∼ t ( n ) T \sim t(n) Tt(n)。可以证明, T T T 的密度函数为:
    f ( x ) = Γ ( n + 1 2 ) n π Γ ( n 2 ) ( 1 + x 2 n ) − n + 1 2 , x ∈ R f(x)=\frac{\Gamma\left(\frac{n+1}{2}\right)}{\sqrt{n \pi} \Gamma\left(\frac{n}{2}\right)}\left(1+\frac{x^2}{n}\right)^{- \frac{n+1}{2}}, x \in \mathbf{R} f(x)= Γ(2n)Γ(2n+1)(1+nx2)2n+1,xR
    f ( x ) f(x) f(x) 的曲线如图所示,易见 f ( x ) f(x) f(x) 是一个偶函数:
    在这里插入图片描述
    t t t 分布有如下性质:
    (1) f ( x ) f(x) f(x) 的图形关于 y y y 轴对称,当 n > 1 n>1 n>1 时,ET = 0 =0 =0
    (2)当 n > 2 n>2 n>2 时, D T = n n − 2 D T=\frac{n}{n-2} DT=n2n
    (3)当 n = 1 n=1 n=1 时, T T T 的密度函数为 f ( x ) = 1 π ⋅ 1 1 + x 2 , x ∈ R f(x)=\frac{1}{\pi} \cdot \frac{1}{1+x^2}, x \in \mathbf{R} f(x)=π11+x21,xR
    (4)当 n → + ∞ n \rightarrow+\infty n+ 时, f ( x ) → 1 2 π e − x 2 2 , x ∈ R f(x) \rightarrow \frac{1}{\sqrt{2 \pi}} \mathrm{e}^{-\frac{x^2}{2}}, x \in \mathbf{R} f(x)2π 1e2x2,xR。这说明当自由度 n n n 充分大时, T T T 近似服从标准正态分布;

  • F F F 分布:设 X ∼ χ 2 ( m ) X \sim \chi^2(m) Xχ2(m) Y ∼ χ 2 ( n ) Y \sim \chi^2(n) Yχ2(n),且 X X X Y Y Y 独立。记 F = X / m Y / n F=\frac{X / m}{Y / n} F=Y/nX/m,则称 F F F 的分布为第一自由度是 m m m,第二自由度是 n n n F F F 分布,记为 F ∼ F ( m , n ) F \sim F(m, n) FF(m,n)。可以证明, F F F 的密度函数为:
    f ( x ) = { Γ ( m + n 2 ) Γ ( m 2 ) Γ ( n 2 ) ( m n ) m 2 x m 2 − 1 ( 1 + m x n ) − n + m 2 , x > 0 , 0 , x ⩽ 0 f(x)= \begin{cases}\frac{\Gamma\left(\frac{m+n}{2}\right)}{\Gamma\left(\frac{m}{2}\right) \Gamma\left(\frac{n}{2}\right)}\left(\frac{m}{n}\right)^{\frac{m}{2}} x^{\frac{m}{2}-1}\left(1+\frac{m x}{n}\right)^{-\frac{n+m}{2}}, & x>0, \\ 0, & x \leqslant 0\end{cases} f(x)= Γ(2m)Γ(2n)Γ(2m+n)(nm)2mx2m1(1+nmx)2n+m,0,x>0,x0
    f ( x ) f(x) f(x) 的曲线如图所示:
    在这里插入图片描述
    易证, F F F 分布具有如下性质:
    (1)当 F ∼ F ( m , n ) F \sim F(m, n) FF(m,n) 时, 1 F ∼ F ( n , m ) \frac{1}{F} \sim F(n, m) F1F(n,m)
    (2)当 T ∼ t ( n ) T \sim t(n) Tt(n) 时, T 2 ∼ F ( 1 , n ) T^2 \sim F(1, n) T2F(1,n)

4.2 抽样分布定理

  • X 1 , X 2 , ⋯ , X n X_1, X_2, \cdots, X_n X1,X2,,Xn 为来自总体 X ∼ N ( μ , σ 2 ) X \sim N\left(\mu, \sigma^2\right) XN(μ,σ2) 的样本, X ˉ , S 2 \bar{X}, S^2 Xˉ,S2 分别为样本均值和样本方差,则
    (1) X ˉ ∼ N ( μ , σ 2 n ) \bar{X} \sim N\left(\mu, \frac{\sigma^2}{n}\right) XˉN(μ,nσ2) X ˉ − μ σ n ∼ N ( 0 , 1 ) \frac{\bar{X}-\mu}{\sigma} \sqrt{n} \sim N(0,1) σXˉμn N(0,1)
    (2) ( n − 1 ) S 2 σ 2 = 1 σ 2 ∑ i = 1 n ( X i − X ˉ ) 2 ∼ χ 2 ( n − 1 ) \frac{(n-1) S^2}{\sigma^2}=\frac{1}{\sigma^2} \sum_{i=1}^n\left(X_i-\bar{X}\right)^2 \sim \chi^2(n-1) σ2(n1)S2=σ21i=1n(XiXˉ)2χ2(n1)
    (3) X ˉ \bar{X} Xˉ S 2 S^2 S2 相互独立;
  • X 1 , X 2 , ⋯ , X n X_1, X_2, \cdots, X_n X1,X2,,Xn 为来自总体 X ∼ N ( μ , σ 2 ) X \sim N\left(\mu, \sigma^2\right) XN(μ,σ2) 的样本, X ˉ , S 2 \bar{X}, S^2 Xˉ,S2 分别为样本均值和样本方差,则
    (1) X ˉ − μ S n ∼ t ( n − 1 ) \frac{\bar{X}-\mu}{S} \sqrt{n} \sim t(n-1) SXˉμn t(n1)
    (2) E S 2 = σ 2 E S^2=\sigma^2 ES2=σ2 D S 2 = 2 σ 4 n − 1 D S^2=\frac{2 \sigma^4}{n-1} DS2=n12σ4
  • X 1 , X 2 , ⋯ , X m X_1, X_2, \cdots, X_m X1,X2,,Xm 为来自总体 X ∼ N ( μ 1 , σ 1 2 ) X \sim N\left(\mu_1, \sigma_1^2\right) XN(μ1,σ12) 的样本, Y 1 , Y 2 Y_1, Y_2 Y1,Y2, ⋯ , Y n \cdots, Y_n ,Yn 为来自总体 Y ∼ N ( μ 2 , σ 2 2 ) Y \sim N\left(\mu_2, \sigma_2^2\right) YN(μ2,σ22) 的样本,且两个样本相互独立。令
    X ˉ = 1 m ∑ i = 1 m X i , Y ˉ = 1 n ∑ j = 1 n Y j S X 2 = 1 m − 1 ∑ i = 1 m ( X i − X ˉ ) 2 , S Y 2 = 1 n − 1 ∑ j = 1 n ( Y j − Y ˉ ) 2 \begin{gathered} \bar{X}=\frac{1}{m} \sum_{i=1}^m X_i, \bar{Y}=\frac{1}{n} \sum_{j=1}^n Y_j \\ S_X^2=\frac{1}{m-1} \sum_{i=1}^m\left(X_i-\bar{X}\right)^2, S_Y^2=\frac{1}{n-1} \sum_{j=1}^n\left(Y_j-\bar{Y}\right)^2 \end{gathered} Xˉ=m1i=1mXi,Yˉ=n1j=1nYjSX2=m11i=1m(XiXˉ)2,SY2=n11j=1n(YjYˉ)2

    (1) F = S x 2 / S Y 2 σ 1 2 / σ 2 2 ∼ F ( m − 1 , n − 1 ) F=\frac{S_x^2 / S_Y^2}{\sigma_1^2 / \sigma_2^2} \sim F(m-1, n-1) F=σ12/σ22Sx2/SY2F(m1,n1)
    (2)当 σ 1 2 = σ 2 2 = σ 2 \sigma_1^2=\sigma_2^2=\sigma^2 σ12=σ22=σ2 时,
    T = ( X ˉ − Y ˉ ) − ( μ 1 − μ 2 ) S w 1 n + 1 m ∼ t ( m + n − 2 ) T=\frac{(\bar{X}-\bar{Y})-\left(\mu_1-\mu_2\right)}{S_w \sqrt{\frac{1}{n}+\frac{1}{m}}} \sim t(m+n-2) T=Swn1+m1 (XˉYˉ)(μ1μ2)t(m+n2)
    其中 S w 2 = ( m − 1 ) S X 2 + ( n − 1 ) S Y 2 m + n − 2 S_w^2=\frac{(m-1) S_X^2+(n-1) S_Y^2}{m+n-2} Sw2=m+n2(m1)SX2+(n1)SY2.

5. 分位数

在概率论中,如果已知连续型随机变量 X X X 的密度函数 f ( x ) f(x) f(x),可以计算概率 P { X ⩽ x 0 } = ∫ − ∞ x 0 f ( x ) d x P\left\{X \leqslant x_0\right\}=\int_{-\infty}^{x_0} f(x) \mathrm{d} x P{Xx0}=x0f(x)dx;而在统计推断中,遇到的问题常常是一个反问题,即已知概率 p 0 = P { X ⩽ x 0 } p_0=P\left\{X \leqslant x_0\right\} p0=P{Xx0} x 0 x_0 x0,称 x 0 x_0 x0 p 0 p_0 p0 分位数。分位数又叫分位点或临界值,它在区间估计、假设检验等统计推断中起着重要的作用。

  • 分位数:设 X X X 是连续型随机变量,分布函数为 F ( x ) F(x) F(x),密度函数为 f ( x ) f(x) f(x)。对给定的概率 p p p,如有实数 v p v_p vp,使得
    F ( v p ) = P { X ⩽ v p } = ∫ − ∞ v p f ( x ) d x = p F\left(v_p\right)=P\left\{X \leqslant v_p\right\}=\int_{-\infty}^{v_p} f(x) \mathrm{d} x=p F(vp)=P{Xvp}=vpf(x)dx=p
    则称 v p v_p vp 为随机变量 X X X 的(下侧) p p p 分位数。如图显示了分位数 v p v_p vp 与密度函数的关系:
    在这里插入图片描述

  • 分位数的性质:将标准正态分布、 χ 2 \chi^2 χ2 分布、 t t t 分布、 F F F 分布的分位数分别记为 u p u_p up t p ( n ) t_p(n) tp(n) χ p 2 ( n ) \chi_p^2(n) χp2(n) F p ( m , n ) F_p(m, n) Fp(m,n),它们有如下性质:
    (1)由标准正态分布的对称性,易得 u 0.5 = 0 u_{0.5}=0 u0.5=0 − u p = u 1 − p , 0 < p < 1 -u_p=u_{1-p}, 0<p<1 up=u1p,0<p<1。此性质如图所示:
    在这里插入图片描述
    在进行手工计算时,可以通过查标准正态分布函数表以及利用相关性质来获得分位数的值,如: u 0.95 = 1.65 , u 0.975 = 1.96 , u 0.05 = − u 0.95 = − 1.65 u_{0.95}=1.65, u_{0.975}=1.96, u_{0.05}=-u_{0.95}=-1.65 u0.95=1.65,u0.975=1.96,u0.05=u0.95=1.65
    (2)由 t t t 分布的对称性易得 t 0.5 ( n ) = 0 t_{0.5}(n)=0 t0.5(n)=0 − t p ( n ) = t 1 − p ( n ) , 0 < p < 1 -t_p(n)=t_{1-p}(n), 0<p<1 tp(n)=t1p(n),0<p<1。由于当 n → + ∞ n \rightarrow+\infty n+ 时, t t t 分布趋于标准正态分布,所以 n n n 充分大时有 t p ( n ) = u p t_p(n)=u_p tp(n)=up。在进行手工计算时,可以直接通过查 t t t 分位数表以及利用相关性质得到 t t t 分位数的值,如: t 0.975 ( 12 ) = 2.179 , t 0.05 ( 10 ) = − t 0.95 ( 10 ) = − 1.812 , t 0.95 ( 50 ) ≈ u 0.95 = 1.65 t_{0.975}(12)=2.179, t_{0.05}(10)=-t_{0.95}(10)=-1.812, t_{0.95}(50) \approx u_{0.95}=1.65 t0.975(12)=2.179,t0.05(10)=t0.95(10)=1.812,t0.95(50)u0.95=1.65
    (3)关于 χ 2 \chi^2 χ2 分布的分位数,当 n n n 充分大 ( n > 45 ) (n>45) (n>45) 时,有近似计算公式
    χ p 2 ( n ) ≈ 1 2 ( u p + 2 n − 1 ) 2 \chi_p^2(n) \approx \frac{1}{2}\left(u_p+\sqrt{2 n-1}\right)^2 χp2(n)21(up+2n1 )2
    n n n 不够大时,可直接查 χ 2 \chi^2 χ2 分布的分位数表,例: χ 0.95 2 ( 10 ) = 18.31 , χ 0.975 2 ( 12 ) = 23.34 \chi_{0.95}^2(10)=18.31, \chi_{0.975}^2(12)=23.34 χ0.952(10)=18.31,χ0.9752(12)=23.34

七. 参数估计

前一章介绍了使用未知分布的样本构造统计量来近似描述总体的分布情况。然而,现实中更常见的是已知样本服从的分布但不知道分布的具体参数,可以通过多次试验进行采样得到样本,计算样本规律得到分布的参数,称之为参数估计。本章主要介绍点估计和区间估计,以及评价估计优劣的标准。

1. 点估计

设总体 X X X 的分布形式已知, θ \theta θ 是其未知参数, X 1 , X 2 , ⋯ , X n X_1, X_2, \cdots, X_n X1,X2,,Xn 是来自总体 X X X 的样本, x 1 , x 2 , ⋯ , x n x_1, x_2, \cdots, x_n x1,x2,,xn 是样本值。点估计的任务是构造一个适当的统计量 θ ^ = T ( X 1 , X 2 , ⋯ , X n ) \hat{\theta}= T(X_1, X_2, \cdots, X_n) θ^=T(X1,X2,,Xn),使其样本值 T ( x 1 , x 2 , ⋯ , x n ) T(x_1, x_2, \cdots, x_n) T(x1,x2,,xn) 有理由作为未知参数 θ \theta θ 的估计值。这时,称统计量 θ ^ = T ( X 1 , X 2 , ⋯ , X n ) \hat{\theta}=T(X_1, X_2, \cdots, X_n) θ^=T(X1,X2,,Xn) θ \theta θ 的点估计量,它的观测值 T ( x 1 , x 2 , ⋯ , x n ) T(x_1, x_2, \cdots, x_n) T(x1,x2,,xn) 称为 θ \theta θ 的点估计值,仍用 θ ^ \hat{\theta} θ^ 表示。点估计的常用方法有矩估计法、最大似然估计法、最小二乘估计法等。

  • 矩估计法:由辛钦大数定律知,对来自总体 X X X 的样本 X 1 , X 2 , ⋯ , X n X_1, X_2, \cdots, X_n X1,X2,,Xn,当总体 X X X 的前 k k k 阶原点矩 E X l ( l = 1 , 2 , ⋯ , k ) E X^l(l=1,2, \cdots, k) EXl(l=1,2,,k) 存在时,有
    M l = 1 n ∑ i = 1 n X i l ⟶ P E X l ( n → + ∞ , l = 1 , 2 , ⋯ , k ) M_l=\frac{1}{n} \sum_{i=1}^n X_i^l \stackrel{P}{\longrightarrow} E X^l \quad(n \rightarrow+\infty, l=1,2, \cdots, k) Ml=n1i=1nXilPEXl(n+,l=1,2,,k)
    因此,对总体 X X X l l l 阶原点矩 E X l ( l = 1 , 2 , ⋯ , k ) E X^l(l=1,2, \cdots, k) EXl(l=1,2,,k) 可用样本的 l l l 阶原点矩 M l M_l Ml 的样本值估计,即
    E ^ X l = M l = 1 n ∑ i = 1 n X i l , l = 1 , 2 , ⋯ , k \hat{E} X^l=M_l=\frac{1}{n} \sum_{i=1}^n X_i^l, \quad l=1,2, \cdots, k E^Xl=Ml=n1i=1nXil,l=1,2,,k
    同理,总体的 l l l 阶中心矩也可以用样本的 l l l 阶中心矩估计,即
    E ^ ( X − E X ) l = M i ∗ = 1 n ∑ i = 1 n ( X i − X ˉ ) l , l = 1 , 2 , ⋯ , k \hat{E}(X-E X)^l=M_i^*=\frac{1}{n} \sum_{i=1}^n\left(X_i-\bar{X}\right)^l, l=1,2, \cdots, k E^(XEX)l=Mi=n1i=1n(XiXˉ)l,l=1,2,,k

  矩估计法使用样本的矩估计模型参数,例题如下:
在这里插入图片描述
  矩估计法直观、简便,且在总体矩存在的情况下求它们的矩估计量 不需要知道总体的分布,这些都是矩估计法的优点。但是矩估计法也存在明显的不足:首先,矩估计法要求总体矩存在,而有些总体的矩是不存在的,这时就不能使用矩估计法,如柯西分布不存在数学期望;其次,矩估计法 未能充分利用总体分布所提供的信息,个别情形可能出现以偏概全的情况,因此不能保证它有优良的性质。因此实际应用中更常使用最大似然估计法,最大似然估计法克服了矩估计法的上述两个不足,不要求矩的存在性,且可充分利用总体分布的信息。

  • 最大似然估计法:未知参数的最大似然估计值就是参数空间中让样本取得观测值的概率最大的值。对给定的样本观测值 x 1 , x 2 , ⋯ , x n x_1, x_2, \cdots, x_n x1,x2,,xn,有似然函数
    L ( θ 1 , θ 2 , ⋯ , θ k ; x 1 , x 2 , ⋯ , x n ) = { ∏ i = 1 n P { X = x i } , 当总体  X 是离散型时, ∏ i = 1 n f ( x i ) , 当总体  X 是连续型时  \begin{aligned} L(\theta_1, \theta_2, \cdots, \theta_k ; x_1, x_2, \cdots, x_n)=\left\{\begin{array}{l} \prod_{i=1}^n P\{X=x_i\}, & \text { 当总体 } X \text { 是离散型时,} \\ \prod_{i=1}^n f(x_i), & \text { 当总体 } X \text { 是连续型时 } \end{array} \right. \end{aligned} L(θ1,θ2,,θk;x1,x2,,xn)={i=1nP{X=xi},i=1nf(xi), 当总体 X 是离散型时, 当总体 X 是连续型时 
    似然函数反映了样本 X 1 , X 2 , ⋯ , X n X_1, X_2, \cdots, X_n X1,X2,,Xn 取得观测值 x 1 , x 2 , ⋯ , x n x_1, x_2, \cdots, x_n x1,x2,,xn 的概率。最大似然估计法就是求使 L ( θ 1 , θ 2 , ⋯ , θ k ; x 1 , x 2 , ⋯ , x n ) L(\theta_1, \theta_2, \cdots, \theta_k ; x_1, x_2, \cdots, x_n) L(θ1,θ2,,θk;x1,x2,,xn) 达到最大值时的未知参数,即 max ⁡ ( θ 1 , θ 2 , ⋯ , θ k ) ∈ θ L ( θ 1 , θ 2 , ⋯ , θ k ; x 1 , x 2 , ⋯ , x n ) \max _{\left(\theta_1, \theta_2, \cdots, \theta_k\right) \in \theta} L\left(\theta_1, \theta_2, \cdots, \theta_k ; x_1, x_2, \cdots, x_n\right) max(θ1,θ2,,θk)θL(θ1,θ2,,θk;x1,x2,,xn)。为了保留更高的计算精度,一般会对似然函数做对数处理,即
    max ⁡ ( θ 1 , θ 2 , ⋯ , θ k ) ∈ θ ln ⁡ L ( θ 1 , θ 2 , ⋯ , θ k ; x 1 , x 2 , ⋯ , x n ) \max _{\left(\theta_1, \theta_2, \cdots, \theta_k\right) \in \theta} \ln L\left(\theta_1, \theta_2, \cdots, \theta_k ; x_1, x_2, \cdots, x_n\right) (θ1,θ2,,θk)θmaxlnL(θ1,θ2,,θk;x1,x2,,xn)

2. 估计量的评价标准

对于总体的一个未知参数,使用点估计的不同方法可以得到不同的估计量,因此需要一些指标进行评价。

  • 无偏性:设总体为 X X X θ \theta θ 是末知参数, θ ∈ Θ \theta \in \Theta θΘ,假设 θ ^ n = θ ^ ( X 1 , X 2 , ⋯ , X n ) \hat{\theta}_n=\hat{\theta}\left(X_1, X_2, \cdots, X_n\right) θ^n=θ^(X1,X2,,Xn) θ \theta θ 的一个估计。如果对任意 θ ∈ Θ \theta \in \Theta θΘ 均有 E ( θ ^ n − θ ) = 0 E\left(\hat{\theta}_n-\theta\right)=0 E(θ^nθ)=0,则称 θ ^ n \hat{\theta}_n θ^n θ \theta θ 的无偏估计。如果对任意 θ ∈ Θ \theta \in \Theta θΘ 均有 lim ⁡ n → + ∞ E ( θ ^ n − θ ) = 0 \lim _{n \rightarrow+\infty} E\left(\hat{\theta}_n-\theta\right)=0 limn+E(θ^nθ)=0,则称 θ ^ n \hat{\theta}_n θ^n θ \theta θ 的渐近无偏估计。在工程实际中 E ( θ ^ n − θ ) E\left(\hat{\theta}_n-\theta\right) E(θ^nθ) 常称为以 θ ^ n \hat{\theta}_n θ^n 估计 θ \theta θ 的系统误差,无偏估计实际上就是系统误差为 0 的估计;

  因为 E ( θ ^ n − θ ) = 0 E\left(\hat{\theta}_n-\theta\right)=0 E(θ^nθ)=0 等价于 E θ ^ n = θ E \hat{\theta}_n=\theta Eθ^n=θ,所以 lim ⁡ n → + ∞ E ( θ ^ n − θ ) = 0 \lim _{n \rightarrow+\infty} E\left(\hat{\theta}_n-\theta\right)=0 limn+E(θ^nθ)=0 等价于 lim ⁡ n → + ∞ E θ ^ n = \lim _{n \rightarrow+\infty} E \hat{\theta}_n= limn+Eθ^n= θ \theta θ。因此样本的 k k k 阶原点矩 M k = 1 n ∑ i = 1 n X i k M_k=\frac{1}{n} \sum_{i=1}^n X_i^k Mk=n1i=1nXik 是总体 k k k 阶原点矩 E X k E X^k EXk 的无偏估计,样本方差 S 2 S^2 S2 是总体方差 D X DX DX 的无偏估计,样本二阶中心矩 M 2 ∗ M_2^* M2 是总体方差 D X DX DX 的渐近无偏估计。

  • 有效性:设 θ ^ 1 \hat{\theta}_1 θ^1 θ ^ 2 \hat{\theta}_2 θ^2 都是未知参数 θ \theta θ 的无偏估计,如果 D θ ^ 1 < D θ ^ 2 D\hat{\theta}_1 < D\hat{\theta}_2 Dθ^1<Dθ^2,则称 θ ^ 1 \hat{\theta}_1 θ^1 θ ^ 2 \hat{\theta}_2 θ^2 有效;
    • 最小方差无偏估计:设 θ ^ ∗ \hat{\theta}^* θ^ 是末知参数 θ \theta θ 的无偏估计,如果对 θ \theta θ 的任一无偏估计 θ ^ \hat{\theta} θ^,都有 D θ ^ ∗ ⩽ D θ ^ D \hat{\theta}^* \leqslant D \hat{\theta} Dθ^Dθ^,则称 θ ^ ∗ \hat{\theta}^* θ^ θ \theta θ 的最小方差无偏估计或最优无偏估计;
    • 均方误差:在求估计值与参数真值之间的平均偏差时为了避免正负偏差值相抵消的效应,均方误差采用了平方偏差,即 MSE ⁡ ( θ ^ , θ ) = E ( θ ^ − θ ) 2 \operatorname{MSE}(\hat{\theta}, \theta)=E(\hat{\theta}-\theta)^2 MSE(θ^,θ)=E(θ^θ)2

      均方误差具有很好的数学性质,可以证明
    MSE ⁡ ( θ ^ , θ ) = D θ ^ + ( E θ ^ − θ ) 2 \operatorname{MSE}(\hat{\theta}, \theta)=D \hat{\theta}+(E \hat{\theta}-\theta)^2 MSE(θ^,θ)=Dθ^+(Eθ^θ)2
    显然,如果 θ ^ \hat{\theta} θ^ θ \theta θ 的无偏估计,则 MSE ⁡ ( θ ^ , θ ) = D θ ^ \operatorname{MSE}(\hat{\theta}, \theta)=D \hat{\theta} MSE(θ^,θ)=Dθ^,即均方误差越小越好的标准等价于方差越小越好的标准,这时均方误差最小的评价标准和有效性标准是一致的。

  无偏性与有效性都需要样本容量 n n n 固定为前提,如果想要随着样本容量 n n n 的增大, θ ^ \hat{\theta} θ^ 的估计值越来越接近真值 θ \theta θ,就需要引入相合性标准。

  • 相合性:设 θ ^ n \hat{\theta}_n θ^n 是未知参数 θ \theta θ 的估计量,如果当样本容量 n → + ∞ n \rightarrow+\infty n+ 时, θ ^ n \hat{\theta}_n θ^n 依概率收敛于 θ \theta θ,即 θ ^ n ⟶ P n → + ∞ θ \hat{\theta}_n \underset{n \rightarrow+\infty}{\stackrel{P}{\longrightarrow}} \theta θ^nn+Pθ,则称 θ ^ n \hat{\theta}_n θ^n θ \theta θ 的相合估计或一致估计;

  相合性的定义不方便判断一个估计量是否是相合估计,往往使用以下定理进行判断:
θ ^ n \hat{\theta}_n θ^n 是末知参数 θ \theta θ 的一个点估计量,如果 lim ⁡ n → + ∞ E θ ^ n = θ \lim _{n \rightarrow+\infty} E \hat{\theta}_n=\theta limn+Eθ^n=θ lim ⁡ n → + ∞ D θ ^ n = 0 \lim _{n \rightarrow+\infty} D \hat{\theta}_n=0 limn+Dθ^n=0,则 θ ^ n \hat{\theta}_n θ^n θ \theta θ 的相合估计。

3. 区间估计

点估计通过估计量的观测值来估计未知参数的真值,但这个估计值仅仅是未知参数真值的一个近似,与真值之间难免存在误差。因此,在一些实际应用中,需要知道估计值的误差,即真值所在的范围,于是引入了区间估计。区间估计以区间的形式给出了估计值的范围和可信程度,分别称为置信区间和置信度。

3.1 置信区间

设总体 X X X 的分布形式已知, θ \theta θ 是其未知参数, X 1 , X 2 , ⋯ , X n X_1, X_2, \cdots, X_n X1,X2,,Xn 是来自总体 X X X 的样本, x 1 , x 2 , ⋯ , x n x_1, x_2, \cdots, x_n x1,x2,,xn 是样本值。有界区间的估计需要构造两个适当的统计量 θ ^ 1 = T 1 ( X 1 , X 2 , ⋯ , X n ) \hat{\theta}_1=T_1(X_1, X_2, \cdots, X_n) θ^1=T1(X1,X2,,Xn) θ ^ 2 = T 2 ( X 1 , X 2 , ⋯ , X n ) \hat{\theta}_2=T_2(X_1, X_2, \cdots, X_n) θ^2=T2(X1,X2,,Xn),它们构成一个随机区间 ( θ ^ 1 , θ ^ 2 ) (\hat{\theta}_1, \hat{\theta}_2) (θ^1,θ^2),并用它们的样本值 θ ^ 1 = T 1 ( x 1 , x 2 , ⋯ , x n ) \hat{\theta}_1=T_1(x_1, x_2, \cdots, x_n) θ^1=T1(x1,x2,,xn) θ ^ 2 = T 2 ( x 1 , x 2 , ⋯ , x n ) \hat{\theta}_2=T_2(x_1, x_2, \cdots, x_n) θ^2=T2(x1,x2,,xn) 所构成的区间 ( θ ^ 1 , θ ^ 2 ) (\hat{\theta}_1, \hat{\theta}_2) (θ^1,θ^2) 来表示未知参数 θ \theta θ 的估计范围。随机区间 ( θ ^ 1 , θ ^ 2 ) (\hat{\theta}_1, \hat{\theta}_2) (θ^1,θ^2) 包含未知参数 θ \theta θ 的概率称为置信度 α \alpha α。区间估计要尽可能保证较大的置信度 α \alpha α 和较小的区间长度 ∣ θ ^ 2 − θ ^ 1 ∣ |\hat{\theta}_2-\hat{\theta}_1| θ^2θ^1

  • 置信区间:设总体 X X X 的分布函数为 F ( x , θ ) F(x, \theta) F(x,θ) θ \theta θ 为末知参数, X 1 , X 2 , ⋯ , X n X_1, X_2, \cdots, X_n X1,X2,,Xn 是总体 X X X 的样本。对于给定值 α ( 0 < α < 1 ) \alpha(0<\alpha<1) α(0<α<1),如果存在两个统计量 T 1 = T 1 ( X 1 , X 2 , ⋯ , X n ) T_1=T_1\left(X_1, X_2, \cdots, X_n\right) T1=T1(X1,X2,,Xn) T 2 = T 2 ( X 1 , X 2 , ⋯ , X n ) T_2=T_2\left(X_1, X_2, \cdots, X_n\right) T2=T2(X1,X2,,Xn) 满足
    P { T 1 < θ < T 2 } = 1 − α P\left\{T_1<\theta<T_2\right\}=1-\alpha P{T1<θ<T2}=1α
    则称随机区间 ( T 1 , T 2 ) \left(T_1, T_2\right) (T1,T2) 为末知参数 θ \theta θ 的一个置信度为 1 − α 1-\alpha 1α 的置信区间, T 1 T_1 T1 T 2 T_2 T2 分别称为置信下限和置信上限;

  从置信区间的定义可以看出,对总体的一个末知参数,可以得到很多不同的置信区间,当然我们希望得到最好的置信区间。评价置信区间好坏的标准主要有两个:一个是估计精度,可用置信区间 ( T 1 , T 2 ) \left(T_1, T_2\right) (T1,T2) 的区间长度 T 2 − T 1 T_2-T_1 T2T1 来刻画,区间长度 T 2 − T 1 T_2-T_1 T2T1 越小,估计精度越高,置信区间越好。由于 T 1 , T 2 T_1, T_2 T1,T2 是随机变量,所以 T 2 − T 1 T_2-T_1 T2T1 也是随机变量,因此可用 E ( T 2 − T 1 ) E\left(T_2-T_1\right) E(T2T1) 近似代替置信区间的估计精度;另一个是置信度,用概率 P { T 1 < θ < T 2 } = 1 − α P\left\{T_1<\theta<T_2\right\}=1-\alpha P{T1<θ<T2}=1α 来表示, 1 − α 1-\alpha 1α 越大,置信度越高。
  不过,置信区间的估计精度和置信度是相互制约的:当样本容量 n n n 固定时,精度和置信度不能同时提高。20 世纪 30 年代,美国统计学家奈曼 (Neyman) 提出了现今广泛接受的原则:先保证对置信度的要求,在此条件下尽可能地提高精度,即先根据实际问题选定 α \alpha α 的值( α \alpha α 常取 0.1 , 0.05 , 0.01 0.1,0.05,0.01 0.1,0.05,0.01),然后再去确定置信下限 T 1 T_1 T1 和置信上限 T 2 T_2 T2

3.2 单个正态总体的参数的置信区间

  • 参数 μ \mu μ 的置信区间:
    • σ 2 \sigma^2 σ2 已知时:由于 U = X ˉ − μ σ n ∼ N ( 0 , 1 ) U=\frac{\bar{X}-\mu}{\sigma} \sqrt{n} \sim N(0,1) U=σXˉμn N(0,1),所以 1 − α = P { X ˉ − C 1 < μ < X ˉ + C 2 } = P { − C 2 σ n < U < C 1 σ n } 1-\alpha=P\left\{\bar{X}-C_1<\mu<\bar{X}+C_2\right\}=P\left\{-\frac{C_2}{\sigma} \sqrt{n}<U<\frac{C_1}{\sigma} \sqrt{n}\right\} 1α=P{XˉC1<μ<Xˉ+C2}=P{σC2n <U<σC1n }
      因此参数 μ \mu μ 的置信度为 1 − α 1-\alpha 1α 的置信区间是 ( X ˉ − σ n u 1 − a 2 , X ˉ + σ n u 1 − a 2 ) \left(\bar{X}-\frac{\sigma}{\sqrt{n}} u_{1-\frac{a}{2}}, \quad \bar{X}+\frac{\sigma}{\sqrt{n}} u_{1-\frac{a}{2}}\right) (Xˉn σu12a,Xˉ+n σu12a)
    • σ 2 \sigma^2 σ2 未知时:由于 T = X ˉ − μ S n ∼ t ( n − 1 ) T=\frac{\bar{X}-\mu}{S} \sqrt{n} \sim t(n-1) T=SXˉμn t(n1),因此参数 μ \mu μ 的置信度 为 1 − α 1-\alpha 1α 的置信区间是
      ( X ˉ − S n t 1 − a 2 ( n − 1 ) , X ˉ + S n t 1 − a 2 ( n − 1 ) ) \left(\bar{X}-\frac{S}{\sqrt{n}} t_{1-\frac{a}{2}}(n-1), \bar{X}+\frac{S}{\sqrt{n}} t_{1-\frac{a}{2}}(n-1)\right) (Xˉn St12a(n1),Xˉ+n St12a(n1))
  • 参数 σ 2 \sigma^2 σ2 的置信区间:
    • μ \mu μ 已知时:令 S 1 2 = 1 n ∑ i = 1 n ( X i − μ ) 2 S_1^2=\frac{1}{n} \sum_{i=1}^n\left(X_i-\mu\right)^2 S12=n1i=1n(Xiμ)2,则由 χ 2 = n S 1 2 σ 2 ∼ χ 2 ( n ) \chi^2=\frac{n S_1^2}{\sigma^2} \sim \chi^2(n) χ2=σ2nS12χ2(n),可推导出方差 σ 2 \sigma^2 σ2 的置信度为 1 − α 1-\alpha 1α 的置信区间为
      ( n S 1 2 χ 1 − a 2 2 ( n ) , n S 1 2 χ a 2 2 ( n ) ) \left(\frac{n S_1^2}{\chi_{1-\frac{a}{2}}^2(n)}, \frac{n S_1^2}{\chi_{\frac{a}{2}}^2(n)}\right) (χ12a2(n)nS12,χ2a2(n)nS12)
    • μ \mu μ 未知时:根据抽样分布定理,有 χ 2 = ( n − 1 ) S 2 σ 2 ∼ χ 2 ( n − 1 ) \chi^2=\frac{(n-1) S^2}{\sigma^2} \sim \chi^2(n-1) χ2=σ2(n1)S2χ2(n1),所以对给定的置信度 1 − α 1-\alpha 1α,有
      1 − α = P { χ α 2 2 ( n − 1 ) < ( n − 1 ) S 2 σ 2 < χ 1 − a 2 2 ( n − 1 ) } = P { ( n − 1 ) S 2 χ 1 − a 2 2 ( n − 1 ) < σ 2 < ( n − 1 ) S 2 χ a 2 2 ( n − 1 ) } 1-\alpha=P\left\{\chi_{\frac{\alpha}{2}}^2(n-1)<\frac{(n-1) S^2}{\sigma^2}<\chi_{1-\frac{a}{2}}^2(n-1)\right\}=P\left\{\frac{(n-1) S^2}{\chi_{1-\frac{a}{2}}^2(n-1)}<\sigma^2<\frac{(n-1) S^2}{\chi_{\frac{a}{2}}^2(n-1)}\right\} 1α=P{χ2α2(n1)<σ2(n1)S2<χ12a2(n1)}=P{χ12a2(n1)(n1)S2<σ2<χ2a2(n1)(n1)S2}
      因此方差 σ 2 \sigma^2 σ2 的置信度为 1 − α 1-\alpha 1α 的置信区间为
      ( ( n − 1 ) S 2 χ 1 − a 2 2 ( n − 1 ) , ( n − 1 ) S 2 χ α 2 2 ( n − 1 ) ) \left(\frac{(n-1) S^2}{\chi_{1-\frac{a}{2}}^2(n-1)}, \frac{(n-1) S^2}{\chi_{\frac{\alpha}{2}}^2(n-1)}\right) (χ12a2(n1)(n1)S2,χ2α2(n1)(n1)S2)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/20691.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

linux(一)-----osi七层模型

1.七层模型的定义 1&#xff09;物理层 &#xff08;指的是网卡&#xff0c;网线等物理层面的硬件&#xff09; 2&#xff09;数据链路层 前两层可以概括为物理链路层&#xff0c;以二进制的数据形式在物理媒介上进行传输数据&#xff08;传输协议ISO2100协议&#xff09; …

LeetCode[1302]层数最深叶子节点的和

难度&#xff1a;Medium 题目&#xff1a; 给你一棵二叉树的根节点 root &#xff0c;请你返回 层数最深的叶子节点的和 。 示例 1&#xff1a; 输入&#xff1a;root [1,2,3,4,5,null,6,7,null,null,null,null,8] 输出&#xff1a;15示例 2&#xff1a; 输入&#xff1a;r…

python爬虫 获取简单的get请求

打印结果&#xff1a; 原博主写的很厉害额&#xff0c;写的比较全面&#xff0c;大家可以去学习看看 参考原文&#xff1a; Python调用get或post请求外部接口_python调用post接口_纯洁的小魔鬼的博客-CSDN博客

【TypeScript】TS入门及基础学习(一)

【TypeScript】TS入门及基础学习&#xff08;一&#xff09; 【TypeScript】TS入门及基础学习&#xff08;一&#xff09;一、前言二、基本概念1.强类型语言和弱类型语言2.动态语言和静态语言 三、TypeScript与JavaScript的区别四、环境搭建及演练准备4.1 安装到本地4.2 在线运…

计算机视觉与图形学-神经渲染专题-第一个基于NeRF的自动驾驶仿真平台

如今&#xff0c;自动驾驶汽车可以在普通情况下平稳行驶&#xff0c;人们普遍认识到&#xff0c;真实的传感器模拟将在通过模拟解决剩余的极端情况方面发挥关键作用。为此&#xff0c;我们提出了一种基于神经辐射场&#xff08;NeRF&#xff09;的自动驾驶模拟器。与现有作品相…

【爬虫实践】使用Python从网站抓取数据

一、说明 本周我不得不为客户抓取一个网站。我意识到我做得如此自然和迅速&#xff0c;分享它会很有用&#xff0c;这样你也可以掌握这门艺术。【免责声明&#xff1a;本文展示了我的抓取做法&#xff0c;如果您有更多相关做法请在评论中分享】 二、计划策略 2.1 策划 确定您…

软件测试(功能、接口、性能、自动化)详解

一、软件测试功能测试 测试用例编写是软件测试的基本技能&#xff1b;也有很多人认为测试用例是软件测试的核心&#xff1b;软件测试中最重要的是设计和生成有效的测试用例&#xff1b;测试用例是测试工作的指导&#xff0c;是软件测试的必须遵守的准则。 黑盒测试常见测试用…

idea运行web老项目

idea打开老项目 首先你要用idea打开老项目&#xff0c;这里看我之前发的文章就可以啦 运行web项目 1. 编辑配置 2. 添加tomcat项目 3. 设置tomcat参数 选择本地tomcat&#xff0c;注意有的tomcat版本&#xff0c;不然运行不了设置-Dfile.encodingUTF-8 启动&#xff0c;这样…

vue3实现拖拽排序

效果&#xff1a; 实现 <template><div class"box"><divv-for"(item, index) in items":key"item.id"class"item":style"{ order: item.order }":draggable"true"dragstart"onDragStart(in…

【测试联调】如何在前后端测试联调时优雅的构造异常场景

目录 背景 使用iptables实现 利用iptables丢弃某ip数据包 使用 -L 列出所有规则 IP 连通性 通信 测试 插入一条规则&#xff0c;丢弃此ip 的所有协议请求 列出所有规则 测试 丢弃规则内的IP 连通性 清除 规则列表的 限制 模拟ip进行丢包50%的处理。 mysql proxy 代理…

脑电信号处理与特征提取——6.运用机器学习技术和脑电进行大脑解码(涂毅恒)

目录 六、运用机器学习技术和脑电进行大脑解码 6.1 前言 6.2 基于脑电数据的机器学习基础分析 6.3 基于脑电数据的机器学习进阶分析 6.4 代码解读 六、运用机器学习技术和脑电进行大脑解码 6.1 前言 6.2 基于脑电数据的机器学习基础分析 6.3 基于脑电数据的机器学习进阶分…

快速增加Shopee,lazada店铺销量的秘籍大揭秘

在竞争激烈的电商市场中&#xff0c;如何快速提高Shopee。lazada店铺的销量一直是卖家们关注的焦点。 优化产品信息&#xff1a;在Shopee平台上&#xff0c;完整填写产品标题、描述和关键词等信息非常重要。确保您的产品信息准确、清晰&#xff0c;并包含与目标买家搜索相关的…

C语言笔试题训练【第一天】

目录 第一题 第二题 第三题 第四题 第五题 大家好&#xff0c;我是纪宁。 从今天开始博主会日更一些经典的C语言笔试题&#xff0c;持续20天左右。题目类型为5道选择题加2道编程题&#xff0c;希望能和大家一起进步。 第一题 1.读程序&#xff0c;下面程序正确的输出是&…

如何在Visual Studio Code中用Mocha对TypeScript进行测试

目录 使用TypeScript编写测试用例 在Visual Studio Code中使用调试器在线调试代码 首先&#xff0c;本文不是一篇介绍有关TypeScript、JavaScript或其它编程语言数据结构和算法的文章。如果你正在准备一场面试&#xff0c;或者学习某一个课程&#xff0c;互联网上可以找到许多…

微信小程序wx.getlocation接口权限申请总结

先附上申请通过截图 插播内容&#xff1a;可代开通&#xff0c;保证通过。wx.getLocation接口&#xff08;获取当前的地址位置&#xff09; qq&#xff1a; 308205428 如何申请 当申请微信小程序的wx.getLocation接口权限时&#xff0c;你可以…

Go语言进阶语法八万字详解,通俗易懂

文章目录 File文件操作FileInfo接口权限打开模式File操作文件读取 I/O操作io包 文件复制io包下的Read()和Write()io包下的Copy()ioutil包总结 断点续传Seeker接口断点续传 bufio包bufio包原理Reader对象Writer对象 bufio包bufio.Readerbufio.Writer ioutil包ioutil包的方法示例…

gitlab CI/CD 安装 gitlab runner

一、为什么需要安装gitlab runner &#xff1f; 极狐GitLab Runner 极狐GitLab Runner 是在流水线中运行作业的应用&#xff0c;与极狐GitLab CI/CD 配合运作。 说白了就是你部署的一个agent。 二、如何安装&#xff1f; 1.介绍通过helm部署github runner 2.helm添加仓库 h…

【Java可执行命令】(十四)脚本执行工具jrunscript :在命令行环境下交互式执行一些简单的脚本或测试代码片段~

Java可执行命令之jrunscript 1️⃣ 概念2️⃣ 优势和缺点3️⃣ 使用3.1 语法格式3.2 启动 jrunscript 直接执行脚本3.3 可选参数&#xff1a;-l < language>3.4 可选参数&#xff1a;-e < script>3.5 可选参数&#xff1a;-f < script file>3.6 注意事项 4️…

大模型开发(十五):从0到1构建一个高度自动化的AI项目开发流程(上)

全文共5600余字&#xff0c;预计阅读时间约13~20分钟 | 满满干货(附全部代码)&#xff0c;建议收藏&#xff01; 本文目标&#xff1a;提出一种利用大语言模型(LLMs)加快项目的开发效率的解决思路&#xff0c;本文作为第一部分&#xff0c;主要集中在如何完整的执行引导Chat模…

VSCode新手快速下载、安装、使用

目录 下载 安装 1、许可协议 2、安装位置 3、开始菜单文件夹 4、附加任务 5、确认安装 6、完成 使用 1、汉化&#xff08;设置中文界面&#xff09; 2、设置 下载 进入VSCode官方页面&#xff0c;选择自己系统对应的下载链接VSCode默认提供的User Installer版本。但…