-什么是协方差?
就是衡量两个随机变量(X,YX,YX,Y)之间相关性的量,取多个两个量的样本,通过判断他们大小变化关系,判断这两个量是正相关还是负相关或无相关。
记做:Cov(X,Y)=E[(X−E(X))(Y−E(Y))]Cov(X,Y) = E[(X-E(X))(Y-E(Y))]Cov(X,Y)=E[(X−E(X))(Y−E(Y))],之所以要用期望去衡量协方差,是由于如果用枚举样本点的方式去衡量相关性的话,计算较为复杂。但期望却可以巧妙地描述出整体的中心所在,那么通过对期望的计算,我们就能判断出整体是正相关还是负相关。
-什么是相关系数?
相关系数就是衡量两个变量的相关程度的量,不光我们知道相关了,还要判断出有多相关。
记做:ρX,Y=Cov(X,Y)σxσy\rho_{X,Y} = \frac{Cov(X,Y)}{\sigma_{x}\sigma{y}}ρX,Y=σxσyCov(X,Y)
什么是中心极限定理?
此定理就是说我们可以无视随机变量的具体分布,从样本中随即抽样多组,每组多个样本,将每组样本平均值计算出来,会发现均值符合正态分布,虽然均值会根据分布特点集中于某个区间,但样本总体看来还是符合一种正态分布。
这个定理解释了在面对一个数量庞大,分布未知的分布时,我们不需要掌握此分布的全部参数也可以正确估计这个分布的统计参数。
样本均值和数学期望的区别
前者是统计量,后者是随机变量的加权取平均。
方差的三种表示形式
(1) σ2=E[(X−μ)2]\sigma^2=E[(X-\mu)^2]σ2=E[(X−μ)2]
用于具体分布已知的情况。
(2)S2=1n∑i=1n(Xi−μ)2S^2=\frac{1}{n}\sum_{i=1}^{n}(X_i-\mu)^2S2=n1∑i=1n(Xi−μ)2
用于具体分布不明,但知道期望和样本的情况。
(3)S2=1n−1∑i=1n(Xi−X‾)2S^2=\frac{1}{n-1}\sum_{i=1}^{n}(X_i-\overline{X})^2S2=n−11∑i=1n(Xi−X)2
用于只明确样本均值的情况。