Featured image of post 概率论与数理统计

概率论与数理统计

基本公式

依旧期末速通……

随机事件与概率

随机事件的关系与运算

关系 表示
包含 $B \subset A$
相等 $B = A$
$A \cup B$
$A \cap B = AB$
互斥 $AB = \varnothing$
对立 $\overline{A}$
$A-B$
运算 表示
交换律 $A \cap B = AB$,$AB = BA$
结合律 $(A \cap B) \cap C = A \cap (B \cap C)$,$AB = BA$
分配律 $(A \cap B) \cup C = (AC) \cup (BC)$,$(A \cup B) \cup C = (A \cup C) \cap (B \cup C)$
对偶律 $\overline{A \cup B} = \overline{A}\overline{B}$,$\overline{AB} = \overline{A} \cup \overline{B}$

概率及其性质

性质 表示
有限可加性 $\displaystyle P\left(\bigcup_{i=1}^{n} A_i \right)= \sum_{i=1}^{n} P(A_i)$
对立事件 $P\left(\overline{A}\right) = 1-P(A)$
减法公式 $P(A-B) = P(A\overline{B}) = P(A) - P(AB)$
单调性 若 $A \subset B$,则 $P(A) \leqslant P(B)$
容斥原理 对任意两个事件 $A,B$,有 $P(A \cup B) = P(A) + P(B) - P(AB)$

一般的,对于 $n$ 个事件 $A_i$,有

$$\begin{align*} P\left(\bigcup_{i=1}^{n} A_i \right) = \sum_{i=1}^{n} P(A_i) &- \sum_{1 \leqslant i < j \leqslant n} P(A_i A_j) \\ &+ \sum_{1 \leqslant i < j < k \leqslant n} P(A_i A_j A_k) - \cdots + (-1)^{n-1} P(A_1 A_2 \cdots A_n) \end{align*}$$

古典概型与几何概型

概型 计算
古典概型 $$P(A) = \frac{k}{n} = \frac{\text{事件}A\text{中所含样本点的个数}}{\text{样本空间}\varOmega\text{中所含样本点总数}}$$
几何概型 $$P(A) = \frac{A \text{的度量}}{\varOmega \text{的度量}}$$

条件概率与乘法公式

条件概率

$$P(B|A) = \frac{P(AB)}{P(A)}$$

性质:

  1. $P(\overline{B} |A) = 1 - P(B|A) $
  2. $P(B_1 \cup B_2 | A) = P(B_1 | A) + P(B_2 | A) - P(B_1 B_2 | A) $

乘法公式

$$ P(AB) = P(A) P(B|A) $$

$$P(A_1 A_2 \cdots A_n) = P(A_1) P(A_2|A_1) P(A_3|A_1 A_2) \cdots P(A_n|A_1 A_2 \cdots A_{n-1})$$

全概率公式

若 $A_1,A_2,\cdots A_n,B$ 是 $E$ 中的事件,且满足 $A_1 \cup A_2 \cup \cdots \cup A_n = \varOmega$,则

$$P(B) = \sum_{i=1}^{n} P(A_i) P(B|A_i)$$

案例:敏感性问题调查

步骤 要求
设计问题
  1. 你的生日是否在7月1日之前
  2. 要调查的问题
操作
  1. 被调查者在没有旁人的情况下,独自一人回答问题
  2. 在一个袋子中放入若干个红球和白球,被调查者从袋子中随机抽一个球,看过颜色后放回. 若抽到白球则回答问题1;若抽到红球则回答问题2
  3. 被调查者只回答“是”或“否”
分析结果 设共收到 $n$ 张答卷,其中有 $k$ 张答卷回答“是”;同时,在人数较多的场合中,任选一人其生日在7月1日之前的概率为 $0.5$;袋子中红球的比率为 $\alpha$,则有等式 $$\frac{k}{n} = p \cdot \alpha + 0.5 \cdot (1-\alpha)$$ 可知问题2回答“是”的概率 $$p=\frac{\dfrac{k}{n}-0.5(1-\alpha)}{\alpha}$$

贝叶斯公式

$$P(A_i |B) = \frac{P(A_i B)}{P(B)} = \frac{P(A_i)P(B|A_i)}{\displaystyle \sum_{i=1}^{n} P(A_i)P(B|A_i)}$$

事件的独立性

设 $n$ 个事件 $A_1,A_2,\cdots,A_n$,若对任意 $k=2,3,\cdots,n$ 和任意一组 $1 \leqslant i_1 < i_2 < \cdots < i_k \leqslant n$,都有

$$P(A_{i_1} A_{i_2} \cdots A_{i_k}) = P(A_{i_1}) P(A_{i_2}) \cdots P(A_{i_k})$$

则称事件 $A_1,A_2,\cdots,A_n$ 相互独立.

随机变量及其分布

概率分布函数

设 $X$ 是随机变量,对任意给定实数 $x \in (-\infty, +\infty)$,令

$$F(x) = P\{X \leqslant x\}$$

则称 $F(x)$ 为随机变量 $X$ 的概率分布函数.

分布函数 $F(x)$ 具有以下性质:

性质 表示
非负性 对任意实数 $x$,都有 $0 \leqslant F(x) \leqslant 1$,且 $\displaystyle F(-\infty) = \lim_{x \to -\infty} F(x) = 0$,$\displaystyle F(+\infty) = \lim_{x \to +\infty} F(x) = 1$
单调不减性 $\forall x_1 < x_2$,有 $F(x_1) \leqslant F(x_2)$
右连续性 $\forall a \in \textbf{R}$,有 $\displaystyle \lim_{x \to a^+} F(x) = F(a+0) = F(a)$
  1. 区间概率:$P\{x_1 < X \leqslant x_2\} = P\{X \leqslant x_2\} - P\{X \leqslant x_1\} = F(x_2) - F(x_1)$
  2. 样本点概率:$P\{X = a\} = F(a+0) - F(a-0)$

离散型随机变量的分布

概率分布律

设离散型随机变量所有可能取值为 $x_k,k=1,2,\cdots$,则称 $X$ 取各个可能值的概率

$$P\{X = x_k\} = p_k$$

为随机变量 $X$ 的概率分布律. 可用表格表示为

$X$ $x_1$ $x_2$ $\cdots$ $x_k$ $\cdots$
$P_X$ $p_1$ $p_2$ $\cdots$ $p_k$ $\cdots$

且有:$\displaystyle \sum_{i=0}^{\infty} p_k = 1$

常用分布

类型 概率分布律 记法
两点分布 $P\{X = 0\} = 1-p,P\{X = 1\} = p$ $X \sim B(1,p)$
二项分布 $\displaystyle P\{X=k\} = \mathrm{C}_{n}^{k} p^k (1-p)^{n-k},k=0,1,2,\cdots,n \quad (0<p<1)$ $X \sim B(n,p)$
泊松分布 $\displaystyle P\{X=k\} = \frac{\lambda^k \mathrm{e}^{-\lambda}}{k!},k=0,1,2,\cdots,n$ $X \sim P(\lambda)$
超几何分布 $\displaystyle P\{X=k\} = \frac{\mathrm{C}_M^k \mathrm{C}_{N-M}^{n-k}}{\mathrm{C}_{N}^{n}},k=0,1,2,\cdots,\text{min}\{n,M\}$ $X \sim H(N,M,n)$
几何分布 $P\{X=k\} = (1-p)^{k-1}p,k=0,1,2,\cdots$ $X \sim G(p)$

泊松定理

设 $\displaystyle p_n = \frac{\lambda}{n}$,$\lambda > 0$ 是常数,则对任一非负整数 $k$,有

$$\lim_{n \to \infty} \mathrm{C}_n^k p_n^k(1-p_n)^{n-k} = \frac{\lambda^k \mathrm{e}^{-\lambda}}{k!}$$

根据泊松定理,当 $n$ 很大且 $p$ 很小时,二项分布可以近似为泊松分布,此时有 $\lambda = np$,且

$$\mathrm{C}_n^k p_n^k(1-p_n)^{n-k} = \frac{\lambda^k \mathrm{e}^{-\lambda}}{k!}$$

几何分布的无记忆性

如果 $X \sim G(p)$,则对任意正整数 $m$,$n$,都有

$$P\{X>m+n \ |\ X>m\} = P\{X>n\}$$

连续型随机变量的分布

概率密度函数

设随机变量 $X$ 的分布函数为 $F(x)$,若存在非负函数 $f(x)$,使得对任意实数 $x \in \textbf{R}$,均有

$$F(x) = \int_{-\infty}^{x} f(t) \mathrm{d}t$$

则称随机变量 $X$ 为连续型随机变量,称 $f(x)$ 为概率密度函数.

常用分布

类型 概率密度函数 记法
均匀分布 $\displaystyle f(x) = \left\{ \begin{matrix} \displaystyle \frac{1}{b-a},& a \leqslant x \leqslant b \\ \\ 0,& 其他 \end{matrix} \right.$ $X \sim U(a,b)$
指数分布 $\displaystyle f(x) = \left\{ \begin{matrix} \lambda\mathrm{e}^{-\lambda x},& x \geqslant b \\ \\ 0,& 其他 \end{matrix} \right.$ $X \sim Exp(\lambda)$
正态分布 $\displaystyle f(x) = \frac{1}{\sqrt{2\pi} \sigma} \mathrm{e}^{-\frac{(x-\mu)^2}{2\sigma^2}},-\infty < x < \infty$ $X \sim N(\mu,\sigma^2)$

指数分布的性质

无记忆性:如果 $X \sim Exp(\lambda)$,则对任意 $s>0$,$t>0$,都有

$$P\{X>s+t \ |\ X>s\} = P\{X>t\}$$

正态分布的性质

  1. 正态分布的概率密度函数 $f(x)$ 以 $x=\mu$ 为对称轴,因此 $\displaystyle F(\mu) = \frac{1}{2},F(\mu-x) = 1-F(\mu+x)$.

  2. 特别地,称 $\mu=0,\sigma=1$ 的正态分布为标准正态分布,其概率密度函数记作 $\varphi(x)$,分布函数记作 $\varPhi(x)$. 则对任意正态分布 $N(\mu,\sigma^2)$,有

    $$P\{x_1 < X \leqslant x_2\} = F(x_2) - F(x_1) = \varPhi\left(\frac{x_2-\mu}{\sigma}\right) - \varPhi\left(\frac{x_1-\mu}{\sigma}\right) $$
  3. 若 $X \sim N(\mu, \sigma^2)$,令 $Y=aX+b$,则随机变量 $Y \sim N(a\mu+b,(a\sigma)^2)$.

随机变量函数的分布

离散型随机变量函数的分布

若 $y_k = g(x_k)$,且已知

$X$ $x_1$ $x_2$ $\cdots$ $x_k$ $\cdots$
$P_X$ $p_1$ $p_2$ $\cdots$ $p_k$ $\cdots$

则可直接写出 $Y$ 的概率分布律:

$Y$ $y_1=g(x_1)$ $y_2=g(x_2)$ $\cdots$ $y_k=g(x_k)$ $\cdots$
$P_Y$ $p_1$ $p_2$ $\cdots$ $p_k$ $\cdots$

连续型随机变量函数的分布

若 $X$ 是连续型随机变量,$y=g(x)$ 是单值实函数,则先求 $Y$ 的分布函数 $F_Y(y)$,再对 $F_Y(y)$ 求导得随机变量 $Y$ 的概率密度函数 $f_Y(y)$.

随机变量 $X$ 对应的概率密度函数为 $f(x)$,随机变量 $Y$ 满足 $Y = g(X)$,则可得

$$F_Y(y) = P\{Y \leqslant y\} = P\{g(X) \leqslant y\} = P\{a < X < b\}$$

其中 $a$,$b$ 是关于 $y$ 的函数.

多维随机变量及其分布

联合分布函数与边缘分布函数

联合分布函数

设 $(X,Y)$ 是二维随机变量,对于任意实数 $x,y \in \textbf{R}$,称二元函数

$$F(x,y) = P\{X \leqslant x,Y\leqslant y\}$$

为 $(X,Y)$ 的联合分布函数.

联合分布函数具有以下性质:

性质 内容
非负性 对任意 $(x,y) \in \textbf{R}^2$,有 $0 \leqslant F(x,y) \leqslant 1$;$F(-\infty,-\infty) = 0$,$F(+\infty,+\infty) = 1$
单调不减性 $F(x,y)$ 分别关于 $x$ 和 $y$ 单调不减
右连续性 $F(x,y)$ 分别关于 $x$ 和 $y$ 右连续
恒等式 $\forall x_1 < x_2,y_1 < y_2$,有 $$P\{ x_1 < X \leqslant x_2,y_1 < Y \leqslant y_2 \} = F(x_2,y_2) - F(x_1,y_2) - F(x_2,y_1) + F(x_1,y_1) \geqslant 0$$

边缘分布函数

  1. $X$ 的边缘分布函数 $\displaystyle F_X(x) = P\{X \leqslant x\} = F(x,+\infty) = \lim_{y \to +\infty} F(x,y)$
  2. $Y$ 的边缘分布函数 $\displaystyle F_Y(x) = P\{Y \leqslant y\} = F(+\infty,y) = \lim_{x \to +\infty} F(x,y)$

二维随机变量的独立性

设 $(X,Y)$ 是二维随机变量,联合分布函数为 $F(x,y)$,边缘分布函数分别为 $F_X(x),F_Y(y)$. 若对于任意 $(x,y) \in \textbf{R}^2$,都有

$$F(x,y) = F_X(x) F_Y(y)$$

则称随机变量 $X$ 和 $Y$ 相互独立.

两个随机变量相互独立等价于由 $X$ 表示的任一事件与由 $Y$ 表示的任一事件都相互独立.

二维离散型随机变量及其分布

联合概率分布律

设二维离散型随机变量 $(X,Y)$ 的所有可能取值为 $(x_i,y_j)$,则称

$$P\{X=x,\ Y=y\}=p_{ij}$$

为随机变量 $(X,Y)$ 的联合概率分布律,可用表格表示为:

$Y$ \ $X$ $x_1$ $x_2$ $\cdots$ $x_i$ $\cdots$
$y_1$ $p_{11}$ $p_{21}$ $\cdots$ $p_{i1}$ $\cdots$
$y_2$ $p_{12}$ $p_{22}$ $\cdots$ $p_{i2}$ $\cdots$
$\vdots$ $\vdots$ $\vdots$ $\vdots$ $\vdots$
$y_j$ $p_{1j}$ $p_{2j}$ $\cdots$ $p_{ij}$ $\cdots$
$\vdots$ $\vdots$ $\vdots$ $\vdots$ $\vdots$ $\vdots$

边缘概率分布律

随机变量 $X$ 的边缘概率分布律:$\displaystyle P\{X=x_i\} = \sum_{i=1}^{+\infty} p_{ij} = p_{i \cdot}$

随机变量 $Y$ 的边缘概率分布律:$\displaystyle P\{Y=y_j\} = \sum_{j=1}^{+\infty} p_{ij} = p_{\cdot j}$

可以表示在表格中:

$Y$ \ $X$ $x_1$ $x_2$ $\cdots$ $x_i$ $\cdots$ $p_Y$
$y_1$ $p_{11}$ $p_{21}$ $\cdots$ $p_{i1}$ $\cdots$ $p_{\cdot 1}$
$y_2$ $p_{12}$ $p_{22}$ $\cdots$ $p_{i2}$ $\cdots$ $p_{\cdot 2}$
$\vdots$ $\vdots$ $\vdots$ $\vdots$ $\vdots$ $\vdots$ $\vdots$
$y_j$ $p_{1j}$ $p_{2j}$ $\cdots$ $p_{ij}$ $\cdots$ $p_{\cdot j}$
$\vdots$ $\vdots$ $\vdots$ $\vdots$ $\vdots$ $\vdots$ $\vdots$
$p_X$ $p_{1 \cdot}$ $p_{2 \cdot}$ $\cdots$ $p_{i \cdot}$ $\cdots$

条件概率分布律

$$P\{X=x_i \ |\ Y=y_j\} = \frac{p_{ij}}{p_{\cdot j}}$$

独立性

对于二元离散型随机变量 $(X,Y)$,则 $X$ 与 $Y$ 相互独立等价于对任意的 $i,j = 1,2,\cdots,$ 都有

$$P\{X=x_i \ |\ Y=y_j\} = p_{i \cdot} p_{\cdot j}$$

二维连续型随机变量及其分布

联合概率密度函数

设二维随机变量 $(X,Y)$ 的联合分布函数为 $F(x,y)$,若存在非负实函数 $f(x,y)$,使得对于任意 $(x,y) \in \textbf{R}^2$,都有

$$F(x,y) = \int_{-\infty}^{x} \mathrm{d}s \int_{-\infty}^{y} f(s,t) \mathrm{d}t$$

则称 $(X,Y)$ 为二维连续型随机变量,并称 $f(x,y)$ 为 $(X,Y)$ 的联合概率密度函数.

联合概率密度函数具有以下性质:

  1. 非负性:对任意 $(x,y) \in \textbf{R}^2$,有 $f(x,y) \geqslant 0$
  2. 规范性:$\displaystyle F(x,y) = \int_{-\infty}^{+\infty} \mathrm{d}s \int_{-\infty}^{+\infty} f(s,t) \mathrm{d}t = 1$
  3. 可导性:$\displaystyle \frac{\partial^2 F(x,y)}{\partial x \partial y} = f(x,y)$

边缘概率密度函数

对于二维连续型随机变量 $(X,Y)$,联合概率密度函数 $f(x,y)$,边缘概率密度函数分别为 $f_X(x)$ 和 $f_Y(y)$,则有

$$f_X(x) = \int_{-\infty}^{+\infty} f(x,y) \mathrm{d}y $$

$$ f_Y(y) = \int_{-\infty}^{+\infty} f(x,y) \mathrm{d}x$$

常用分布

二维均匀分布

设 $(X,Y)$ 是二维连续型随机变量,$G$ 是平面上一有界区域,且联合概率密度函数满足

$$f(x,y) = \left\{ \begin{matrix} \displaystyle \frac{1}{S_G} & (x,y) \in G \\\\ 0 & 其他 \end{matrix} \right.$$

其中 $S_G$ 表示区域 $G$ 的面积.

二维正态分布

设 $(X,Y)$ 是二维连续型随机变量,且联合概率密度函数满足

$$f(x,y) = \frac{1}{2\pi \sigma_{1} \sigma_{2} \sqrt{1-\rho^2} } \cdot \mathrm{exp}\left\{ \frac{1}{2(1-\rho^2)} \left[ \left( \frac{x-\mu_{1}}{\sigma_{1}} \right)^2 - \frac{2\rho(x-\mu_{1})(y-\mu_{2})}{\sigma_{1}\sigma_{2}} + \left( \frac{y-\mu_{2}}{\sigma_{2}} \right)^2 \right] \right\}$$

二维正态分布的性质

  1. 二维正态分布的边缘分布仍是正态分布,反之未必成立.
  2. 二维正态随机变量的条件分布仍是正态分布.
  3. 二维随机变量 $(X,Y) \sim N(\mu_{1},\mu_{2}; \sigma_{1}^{2}, \sigma_{2}^{2}; \rho)$,则 $(X,Y)$ 相互独立的充要条件是 $\rho = 0$.

条件概率密度函数

设 $(X,Y)$ 为二维连续型随机变量,在条件 $Y=y$ 下,随机变量 $X$ 的条件分布函数为 $F_{X\ |\ Y} (x\ |\ y)$,条件概率密度函数为 $f_{X\ |\ Y} (x\ |\ y)$

$$f_{X\ |\ Y} = \frac{f(x,y)}{f_Y(y)} $$

$$ f_{Y\ |\ X} = \frac{f(x,y)}{f_X(x)}$$

随机变量的边缘密度函数只与该随机变量有关,而与另一个变量无关.

条件密度通常情况下与两个随机变量都有关系.

独立性

设 $(X,Y)$ 是二维连续型随机变量,联合概率密度函数为 $f(x,y)$,边缘密度函数分别为 $f_X(x)$ 和 $f_Y(y)$,则 $X$ 和 $Y$ 相互独立的等价于对任意的 $(x,y) \in \textbf{R}^2$,在平面上几乎处处成立

$$f(x,y) = f_X(x) f_Y(y)$$

易知,连续型随机变量 $(X,Y)$ 相互独立还等价于

$$f_{X\ |\ Y}(x\ |\ y) = f_X(x),x \in \textbf{R} \quad 或 \quad f_{Y\ |\ X}(y\ |\ x) = f_Y(y),y \in \textbf{R}$$

二维随机变量函数的分布

二维离散型随机变量函数的分布

设 $(X,Y)$ 为二维离散型随机变量,则由函数 $Z=g(X,Y)$ 确定的随机变量也是离散型随机变量.

求随机变量 $Z$ 的分布:

  1. 确定 $Z$ 的所有可能值.
  2. 逐个计算 $Z$ 取每个可能值的概率.

二维连续型随机变量函数的分布

常见的二维连续型随机变量函数

  • $Z=X+Y$
    设 $(X,Y)$ 的联合概率密度函数为 $f(x,y)$,$(x,y) \in \textbf{R}^2$,边缘密度函数分别为 $f_X(x)$,$f_Y(y)$. 对任意实数 $z$,随机变量 $Z$ 的概率密度函数 $$f_Z(z) = \int_{-\infty}^{+\infty} f(x,z-x) \mathrm{d}x $$ $$f_Z(z) = \int_{-\infty}^{+\infty} f(z-y,y) \mathrm{d}y $$

称上述两式为 $X$ 与 $Y$ 的卷积公式,记作 $f_Z = f_X * f_Y$

  • $M=\mathrm{max}\{X,Y\}$

    $$F_M(z) = P\{\mathrm{max}\{X,Y\} \leqslant z\} = P\{X \leqslant z, Y \leqslant z\} = F(z,z)$$

    若 $X$ 与 $Y$ 相互独立,则 $F_M(z) = F_X(z) F_Y(z)$

  • $N=\mathrm{min}\{X,Y\}$

    $$F_N(z) = P\{\mathrm{min}\{X,Y\} \leqslant z\} = 1-P\{X>z, Y>z\}$$

    若 $X$ 与 $Y$ 相互独立,则 $F_M(z) = 1-[1-F_X(z)] \cdot [1-F_Y(z)]$

随机变量的数字特征

数学期望

随机变量的数学期望

类型 概率分布 数学期望
离散型随机变量 概率分布律:$P\{X=x_k\}=p_k$,$k=1,2,\cdots$ $\displaystyle E(X) = \sum_{k=1}^{\infty} x_k p_k$
连续型随机变量 概率分布函数:$f(x)$ $\displaystyle E(X) = \int_{-\infty}^{+\infty} xf(x) \mathrm{d}x$

随机变量函数的数学期望

  • 设 $X$ 是随机变量,令 $Y=g(X)$
类型 概率分布 $E(Y)$
离散型随机变量 概率分布律:$P\{X=x_k\} = p_k$ $\displaystyle E(Y) = E[g(X)] = \sum_{k=1}^{\infty} g(x_k) P\{X=x_k\}$
连续型随机变量 概率密度函数:$f(x)$ $\displaystyle E(Y) = E[g(X)] = \int_{-\infty}^{+\infty} g(x)f(x) \mathrm{d}x$
  • 设 $(X,Y)$ 是二维随机变量,令 $Z=g(X,Y)$.
类型 概率分布 $E(Z)$
离散型随机变量 联合概率分布律:$P\{X=x_i,\ Y=y_j\} = p_{ij}$ $\displaystyle E(Z) = \sum_{i=1}^{\infty} \sum_{j=1}^{\infty} g(x_i,y_i) p_{ij}$
连续型随机变量 联合概率密度函数:$f(x,y)$ $\displaystyle E(Z) = \int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} g(x,y) f(x,y) \mathrm{d}x\mathrm{d}y$

数学期望的性质

  1. 设 $c$ 是常数,则 $E(c) = c$
  2. 若 $a$,$b$ 是常数,则 $E(aX+b) = aE(X)+b$
  3. $E(X+Y) = E(X)+E(Y)$
  4. 设 $X$,$Y$ 相互独立,则 $E(XY) = E(X)E(Y)$

方差

方差的定义

设随机变量 $X$ 的数学期望 $E(X)$ 存在,若随机变量 $[X-E(X)]^2$ 的数学期望 $E[X-E(X)]^2$ 存在,则记随机变量 $X$ 的方差

$$D(X) = \mathrm{Var}(X) = E[X-E(X)]^2 $$

方差的算术平方根记作标准差

$$\sigma(X) = \sqrt{D(X)}$$

将方差的定义式展开,可得:

$$D(X) = E(X^2)-[E(X)]^2$$

基本性质

  1. $D(c) = 0$
  2. $D(aX+b) = a^2 D(X)$
  3. 若随机变量 $X$ 与 $Y$ 独立,则 $D(X+Y) = D(X) + D(Y)$
  4. $D(X) = 0$ 的充要条件是 $P\{X=c\} = 1$
  5. 设实函数 $f(x) = E(X-x)^2$,即当 $x=E(X)$ 时,$f(x)$ 取最小值 $D(X)$,即 $D(X) \leqslant E(X-x)^2$

常用分布的数学期望与方差

分布 表示 期望 方差
$0-1$ 分布 $B(1,p)$ $p$ $p(1-p)$
二项分布 $B(n,p)$ $np$ $np(1-p)$
泊松分布 $P(\lambda)$ $\lambda$ $\lambda$
几何分布 $G(p)$ $\displaystyle \frac{1}{p}$ $\displaystyle \frac{1-p}{p^2}$
分布 表示 期望 方差
均匀分布 $U(a,b)$ $\displaystyle \frac{a+b}{2}$ $\displaystyle \frac{(b-a)^2}{12}$
指数分布 $Exp(\lambda)$ $\displaystyle \frac{1}{\lambda}$ $\displaystyle \frac{1}{\lambda^2}$
正态分布 $N(\mu,\sigma^2)$ $\mu$ $\sigma^2$

协方差与相关系数

协方差

设 $(X,Y)$ 是二维随机变量,则称

$$\mathrm{Cov}(X,Y) = E\{[X-E(X)] [Y-E(Y)]\}$$

为随机变量 $X$ 与 $Y$ 的协方差.

性质:

  1. $\mathrm{Cov}(X,Y) = E(XY)-E(X)E(Y)$
  2. $\mathrm{Cov}(X,X) = D(X)$
  3. $\mathrm{Cov}(X,Y) = \mathrm{Cov}(Y,X)$
  4. $\mathrm{Cov}(X+Y,Z) = \mathrm{Cov}(X,Z) + \mathrm{Cov}(Y,Z)$
  5. $\mathrm{Cov}(aX+b,cY+d) = ac\mathrm{Cov}(X,Y)$
  6. $D(X \pm Y) = D(X) + D(Y) \pm 2 \mathrm{Cov}(X,Y)$

相关系数

设 $(X,Y)$ 是二维随机变量,则称

$$\rho_{X,Y} = \frac{\mathrm{Cov}(X,Y)}{\sqrt{D(X)} \sqrt{D(Y)}}$$

为随机变量 $X$ 与 $Y$ 的相关系数.

性质:

  1. $ | \rho_{X,Y} \leqslant 1 |$
  2. $ | \rho_{X,Y} | = 1 $ 等价于 $X$ 与 $Y$ 以概率 $1$ 有线性关系

大数定律与中心极限定理

切比雪夫不等式

设随机变量 $X$ 具有数学期望 $E(X) = \mu$,方差 $D(X) = \sigma^2$,则对于任意正数 $\varepsilon$,有

$$P\{ |X - E(X)| \geqslant \varepsilon\} \leqslant \frac{D(X)}{\varepsilon^2}$$

大数定律

依概率收敛

设随机变量序列 $X_1, X_2 \cdots, X_n, \cdots$,若存在随机变量 $X$,使得对任意 $\varepsilon > 0$,恒有

$$\lim_{n \to \infty} P\{ |X_n -X| < \varepsilon \} = 1$$

则称序列 $X_1, X_2 \cdots, X_n, \cdots$ 依概率收敛于 $X$,记为 $X_n \xrightarrow{P} X$

大数定律

切比雪夫大数定律:设 $X_1, X_2 \cdots, X_n, \cdots$ 是一列两两不相关的随机变量序列,且方差有界(即存在常数 $C>0$,使得对于任意 $i$,都有 $D(X_i) \leqslant C$). 令 $\displaystyle Y_n = \frac{1}{n} \sum_{i=1}^{n} X_i$,则有

$$Y_n \xrightarrow{P} E(Y_n)$$

伯努利大数定律:在 $n$ 重伯努利试验中,设在每次试验中事件 $A$ 发生的概率均为 $p(0<p<1)$,$\mu_n$ 为 $n$ 重伯努利试验中事件 $A$ 发生的次数,则

$$ \frac{\mu_n}{n} \xrightarrow{P} p$$

辛钦大数定律:设 $X_1, X_2 \cdots, X_n, \cdots$ 是独立同分布的随机变量序列,且数学期望存在,即 $E(X_i) = \mu (i = 1,2,\cdots,n,\cdots)$,则

$$ \frac{1}{n} \sum_{i=1}^{n} X_i \xrightarrow{P} \mu $$

中心极限定理

设随机变量序列 $X_1, X_2 \cdots, X_n, \cdots$ 独立同分布,且 $E(X_i) = \mu$,$D(X_i) = \sigma^2 > 0$,则随机变量

$$Y_i = \frac{\displaystyle \sum_{i=0}^{n} X_i - n\mu}{\sqrt{n}\sigma}$$

的分布函数 $F_n(x)$ 满足

$$\lim_{n \to \infty} F_n(x) = \lim_{n \to \infty} P\{Y_n \leqslant x\} = \frac{1}{\sqrt{2\pi}} \int_{-\infty}^{x} \mathrm{e}^{-\frac{y^2}{2}} \mathrm{d}y,x \in \textbf{R}$$

该定理表明,当 $n \to \infty$ 时,随机变量 $Y_n$ 的分布将趋近于标准正态分布 $N(0,1)$. 即:当 $n$ 充分大时,独立同分布的 $n$ 个随机变量 $X_1, X_2 \cdots, X_n$ 之和 $\displaystyle S_n = \sum_{i=1}^{n} X_i$ 将近似地服从正态分布 $N(n\mu, n\sigma^2)$

设在独立重复试验序列中,事件 $A$ 发生的概率为 $p$,随机变量 $Y_n$ 表示事件 $A$ 在 $n$ 次试验中发生的次数,则对于任意实数 $x$,有

$$\lim_{n \to \infty} \left\{ \frac{Y_n - np}{\sqrt{np(1-p)}} \leqslant x \right\} = \frac{1}{\sqrt{2\pi}} \int_{-\infty}^{x} \mathrm{e}^{-\frac{y^2}{2}} \mathrm{d}y$$

或者表示为:

$$P\{ a < X < b \} = \varPhi\left( \frac{b-np}{\sqrt{np(1-p)}} \right) - \varPhi\left( \frac{a-np}{\sqrt{np(1-p)}} \right)$$

数理统计的基本概念与抽样分布

基本概念

总体与样本

概念 定义
总体 研究对象的某项数量指标的值的全体称为总体
个体 总体中的每个元素称为个体
样本 从一个总体 $X$ 中随机地抽取 $n$ 个个体组成的向量 $(X_1,X_2,\cdots,X_n)$ 称为总体 $X$ 的一个样本

随机样本的要求

  1. 独立性:$X_1,X_2,\cdots,X_n$ 是相互独立的随机变量;
  2. 代表性:样本的每个个体 $X_i$ 与总体 $X$ 具有相同的分布.

经验分布函数

设 $(X_1,X_2,\cdots,X_n)$ 是从总体 $X$ 中抽取的容量为 $n$ 的样本,$(x_1,x_2,\cdots,x_n)$ 是样本的观测值,将样本观测值从小到大排列得到 $x_{(1)} \leqslant x_{(2)} \leqslant \cdots \leqslant x_{(n)}$,对任意实数 $x$,称

$$F_n(x) = \frac{1}{n} \sum_{i=0}^{n} I_{\{x_{(i)} \leqslant x\}}$$

为总体 $X$ 的经验分布函数.

当样本容量 $n$ 足够大时,经验分布函数 $F_n(x)$ 是总体分布函数的一个良好近似.

统计量及其分布

统计量

样本矩 表示
样本均值 $\displaystyle \overline{X} = \frac{1}{n} \sum_{i=0}^{n} X_i$
样本方差 $\displaystyle S^2 = \frac{1}{n-1} \sum_{i=1}^{n} (X_i - \overline{X})^2$
样本标准差 $\displaystyle S = \sqrt{\frac{1}{n-1} \sum_{i=1}^{n} (X_i - \overline{X})^2 }$
样本的 $k$ 阶原点矩 $\displaystyle A_k = \frac{1}{n} \sum_{i=1}^{n} X_i^k$
样本的 $k$ 阶中心矩 $\displaystyle M_k = \frac{1}{n} \sum_{i=1}^{n} (X_i - \overline{X})^k$

统计中的常用分布

$\chi^2$ 分布 内容
定义 设随机变量 $X_1, X_2 \cdots, X_n, \cdots$ 相互独立,且均服从 $N(0,1)$ 分布,则随机变量 $$Y = X_1^2 + X_2^2 + \cdots + X_n^2$$ 服从自由度是 $n$ 的 $\chi^2$ 分布,记为 $Y \sim \chi_n^2$
性质 设随机变量 $ Y \sim \chi_n^2$,则 $E(Y) = n$,$D(Y) = 2n$
设随机变量 $Y_1 \sim \chi_m^2$,$Y_2 \sim \chi_n^2$,且 $Y_1$ 和 $Y_2$ 相互独立,则 $Y_1 + Y_2 \sim \chi_{m+n}^2$
$t$ 分布 内容
定义 设随机变量 $X \sim N(0,1)$,$Y \sim \chi_n^2$,且 $X$ 和 $Y$ 相互独立,则称随机变量 $$T = \frac{X}{\sqrt{Y/n}}$$ 服从自由度是 $n$ 的 $t$ 分布,记为 $T \sim t_n$
性质 $t$ 的概率密度函数 $f(x;n)$ 关于 $y$ 轴对称,且当 $n \to \infty$ 时,$t$ 分布趋于标准正态分布
$F$ 分布 内容
定义 设随机变量 $X \sim \chi_m^2$,$Y \sim \chi_n^2$,且 $X$ 和 $Y$ 相互独立,则称随机变量 $$F = \frac{X/m}{Y/n}$$ 服从第一自由度是 $m$,第二自由度是 $n$ 的 $F$ 分布,记作 $F \sim F_{m,n}$
性质 若 $F \sim F_{m,n}$,则 $\displaystyle \frac{1}{F} \sim F_{m,n}$
若 $T \sim t_n$,则 $T^2 \sim F_{1,n}$

抽样分布定理

设 $(X_1,X_2,\cdots,X_n)$ 是来自正态总体 $X \sim N(\mu,\sigma^2)$ 的样本,样本均值为 $\displaystyle \overline{X} = \frac{1}{n} \sum_{i=1}^{n} X_i$,样本方差为 $\displaystyle S^2=\frac{1}{n-1} \sum_{i=1}^{n} (X_i-\overline{X})^2$,则

  1. $\displaystyle \overline{X} \sim N(\mu,\frac{\sigma^2}{n})$

  2. $\displaystyle \frac{\sqrt{n}(\overline{X}-\mu)}{S} \sim t_{n-1}$

  3. $\displaystyle \frac{(n-1)S^2}{\sigma^2} \sim \chi_{n-1}^2$

  4. ${X}$ 与 $S^2$ 相互独立

抽样分布定理常用来构造一些已知分布的统计量.

参数估计

通过样本来估计总体的参数,称为参数估计.

参数的点估计

设总体 $X$ 的分布类型已知,但其中含有未知数 $\theta = (\theta_1, \cdots, \theta_k)$. 从样本出发构造适当的统计量 $\hat{\theta}_i = \hat{\theta}_i(X_1,X_2,\cdots,X_n)$ 作为参数 $\theta_i$ 的估计量,当取得样本观测值 $(x_1,x_2,\cdots,x_n)$ 后,就用 $\hat{\theta}_i = \hat{\theta}_i(x_1,x_2,\cdots,x_n)$ 作为未知参数 $\theta_i$ 的估计值.

矩估计法

设总体 $X$ 含有 $k$ 个未知参数 $\theta_1, \theta_2, \cdots, \theta_k$,且 $X$ 的 $m$ 阶原点矩 $\alpha_m = E(X^m)$ 存在,$m=1,2,\cdots,k$,,令

$$\left \{\begin{array}{c} \alpha_1(\theta_1, \cdots, \theta_k) = A_1 \\ \\ \alpha_2(\theta_1, \cdots, \theta_k) = A_2 \\\\ \cdots \ \cdots \ \cdots \ \cdots \\\\ \alpha_k(\theta_1, \cdots, \theta_k) = A_k \\ \end{array} \right. $$

解这个方程组,其解都是样本的函数,记为

$$\hat{\theta_i} = \hat{\theta_i}(X_1, X_2, \cdots, X_n),i=1,2,\cdots,k$$

当总体含有两个未知参数时,通常我们使用

$$\left \{ \begin{array}{c} \begin{align*} & E(\theta_1, \cdots, \theta_k) = \overline{X} \\ \\ & D(\theta_1, \cdots, \theta_k) = \frac{(n-1)S^2}{n} \end{align*} \end{array} \right. $$

求出参数.

最大似然估计法

设总体 $X$ 的概率分布为 $f(x;\theta)$,$\theta = (\theta_1,\theta_2,\cdots,\theta_k)$ 为未知参数,$(X_1,X_2,\cdots,X_n)$ 是从该总体中抽取的样本,则它们的联合概率分布为

$$L(x_1, x_2, \cdots, x_n;\theta) = \prod_{i=1}^{n} f(x_i,\theta)$$

将其设作 $\theta$ 的函数 $L(\theta)$ 称其为 $\theta$ 的似然函数.

对给定的样本值 $(x_1,x_2,\cdots,x_n)$,若存在 $\hat{\theta}$ 使得

$$L(\hat{\theta}) = \underset{\theta \in \mathrm{H}}{\mathrm{max}} L(\theta)$$

则称 $\hat{\theta}$ 是参数 $\theta$ 的最大似然估计值.

  1. 若 $L(\hat{\theta})$ 不单调,则可取 $l(\theta) = \ln L(\theta)$,对 $l(\theta)$ 求导可得到最大值点 $\hat{\theta}$.
  2. 若 $L(\hat{\theta})$ 单调递增,则 $\hat{\theta}$ 取端点处的值.

估计量的优良性准则

准则 定义
无偏性 设 $\hat{\theta}$ 是参数 $\theta$ 的估计量,若 $E(\hat{\theta}) = \theta$ 对一切 $\theta$ 均成立,则称 $\hat{\theta}$ 为 $\theta$ 的无偏估计量,记为 $\mathrm{UE}$
有效性 设 $\hat{\theta_1}$ 和 $\hat{\theta_2}$ 均为 $\theta$ 的无偏估计量,若 $D(\hat{\theta_1}) < D(\hat{\theta_2})$,则称 $\hat{\theta_1}$ 比 $\hat{\theta_2}$ 有效
相合估计 设 $\hat{\theta}_n = \hat{\theta}_n(X_1,X_2,\cdots,X_n)$ 是未知参数 $\theta$ 的估计序列,若 $\hat{\theta}_n$ 依概率收敛 于 $\theta$,则称 $\hat{\theta}_n$ 是 $\theta$ 的相合估计量或一致估计量

区间估计

基本概念

设 $\theta$ 为总体中的未知参数,$(X_1,X_2,\cdots,X_n)$ 是从总体中抽取的样本. 如果存在两个估计量 $\hat{\theta_1} = \hat{\theta}_1(X_1,X_2,\cdots,X_n)$ 和 $\hat{\theta}_2 = \hat{\theta_2}(X_1,X_2,\cdots,X_n)$,对于给定的 $\alpha (0<\alpha<1)$ 有

$$P\{\hat{\theta}_1 < \theta < \hat{\theta}_2\} \geqslant 1-\alpha$$

则称:

基本概念 内容
置信区间 区间 $(\hat{\theta}_1,\hat{\theta}_2)$
置信度 $1-\alpha$
置信下界 $\hat{\theta}_1$
置信上界 $\hat{\theta}_2$

构造置信区间的一般步骤:

  1. 构造样本 $(X_1,X_2,\cdots,X_n)$ 和待估参数 $\theta$ 的函数 $g(X_1,X_2,\cdots,X_n)$,要求除 $\theta$ 外,$g$ 不含任何其他未知参数,并且 $g$ 的分布完全已知(通常为标准正态分布、$\chi^2$ 分布、$t$ 分布、$F$ 分布等)且与 $\theta$ 无关;
  2. 对于给定的置信度 $1-\alpha$,由关系式 $$P\{a < g(X_1,X_2,\cdots,X_n,\theta) < b\} \geqslant 1-\alpha$$ 确定适当的常数 $a$,$b$;
  3. 上式等价于 $$P\{\hat{\theta}_1(X_1,X_2,\cdots,X_n) < g(X_1,X_2,\cdots,X_n,\theta) < \hat{\theta}_2(X_1,X_2,\cdots,X_n)\} \geqslant 1-\alpha$$ 于是 $(\theta_1,\theta_2)$ 就是 $\theta$ 的置信度至少为 $1-\alpha$ 的置信区间.

设 $X$ 是随机变量,$\alpha(0<\alpha<1)$ 是任意给定的正数,若存在 $x_{\alpha}$ 使得 $P\{X \geqslant x_{\alpha}\} = \alpha$,则称 $x_{\alpha}$ 为 $X$ (或它的概率分布)的 $\alpha$ 上侧分位数.

分布 上侧分位数的性质
正态分布 若 $X \sim N(0,1)$,若 $\alpha \leqslant 0.5$,则 $P\{X \leqslant x_{1-\alpha}\} = P\{X \geqslant x_{\alpha}\} = \alpha$,所以 $x_{\alpha} = -x_{\alpha}$
$t$ 分布 若 $T \sim t_{n}$,则有 $t_n(1-\alpha) = t_n(\alpha)$
$F$ 分布 若 $F \sim F_{m,n}$,则有 $\displaystyle F_{n,m}(1-\alpha)= \frac{1}{F_{m,n}(\alpha)}$

单个正态总体参数的置信区间

设总体 $X \sim N(\mu,\sigma^2)$,$(X_1,X_2,\cdots,X_n)$ 是取自总体 $X$ 的样本,对给定的置信度 $1-\alpha$,分别求参数 $\mu$ 和 $\sigma^2$ 的区间估计.

估计量 条件 枢轴量 置信区间
$\mu$ $\sigma^2$ 已知 $\displaystyle Z=\frac{\overline{X}-\mu}{\sigma /\sqrt{n}} \sim N(0,1) $ $\displaystyle \left(\overline{X} - z_{\frac{\alpha}{2}} \frac{\sigma}{\sqrt{n}},\ \overline{X} + z_{\frac{\alpha}{2}} \frac{\sigma}{\sqrt{n}} \right)$
$\mu$ $\sigma^2$ 未知 $\displaystyle T=\frac{\overline{X}-\mu}{S/\sqrt{n}} \sim t_{n-1}$ $\displaystyle \left(\overline{X}-t_{n-1}\left(\frac{\alpha}{2}\right) \frac{S}{\sqrt{n}},\ \overline{X}+t_{n-1}\left(\frac{\alpha}{2}\right) \frac{S}{\sqrt{n}} \right) $
$\sigma^2$ $\mu$ 未知 $\displaystyle \chi^2 = \frac{(n-1)S^2}{\sigma^2} \sim \chi_{n-1}^2$ $\displaystyle \left(\frac{(n-1)S^2}{\displaystyle \chi_{n-1}^2 \left(\frac{\alpha}{2}\right)}, \ \frac{(n-1)S^2}{\displaystyle \chi_{n-1}^2 \left(1-\frac{\alpha}{2}\right)} \right)$

两个正态总体参数的置信区间

估计量 条件 枢轴量 置信区间
$\mu_1 - \mu_2$ 方差已知 $\displaystyle Z = \frac{\overline{X}-\overline{Y}-(\mu_1-\mu_2)}{\displaystyle \sqrt{\frac{1}{m} \sigma_1^2 + \frac{1}{n} \sigma_2^2}} \sim N(0,1)$ $\displaystyle \left(\overline{X}-\overline{Y}-z_{\frac{\alpha}{2}} \sqrt{\frac{1}{m}\sigma_1^2 + \frac{1}{n}\sigma_2^2}, \ \overline{X}-\overline{Y}+z_{\frac{\alpha}{2}} \sqrt{\frac{1}{m}\sigma_1^2 + \frac{1}{n}\sigma_2^2} \right)$
$\mu_1 - \mu_2$ 方差未知但相等 $\displaystyle T = \frac{\overline{X}-\overline{Y}-(\mu_1-\mu_2)}{\displaystyle S_w\sqrt{\frac{1}{m} + \frac{1}{n}}} \sim t_{m+n-2}$ $\displaystyle \left(\overline{X}-\overline{Y}-\lambda, \ \overline{X}-\overline{Y}+\lambda\right)$
其中 $\displaystyle \lambda = t_{m+n-2}\left(\frac{\alpha}{2}\right)S_w \sqrt{\frac{1}{m}+\frac{1}{n}}$
$\displaystyle \frac{\sigma_1^2}{\sigma_2^2}$ 均值未知 $\displaystyle F = \frac{S_2^2}{S_1^2} \cdot \frac{\sigma_1^2}{\sigma_2^2}\sim F_{n-1,m-1}$ $\displaystyle \left(F_{n-1,m-1}\left(1-\frac{\alpha}{2}\right)\frac{S_1^2}{S_2^2}, \ F_{n-1,m-1}\left(\frac{\alpha}{2}\right)\frac{S_1^2}{S_2^2} \right)$

假设检验

假设检验是对总体的分布类型或分布类型中的未知参数提出假设,然后根据抽取的样本构造适当的统计量,对假设的真伪作出具有一定可靠性的判断.

基本概念

提出假设时,称:

定义 含义
$H_0$ 原假设零假设
$H_1$ 备择假设对立假设
小概率原理 小概率事件在一次试验中几乎不可能发生
检验统计量 检验假设的统计量
拒绝域 $W = \{|Z| \geqslant z_{\alpha/2}\}$:拒绝原假设 $H_0$ 的区间
接受域 $W = \{|Z| < z_{\alpha/2}\}$:接受原假设 $H_0$ 的区间

一般步骤

  1. 根据实际问题的需求,提出原假设 $H_0$ 和备择假设 $H_1$;
  2. 根据 $H_0$ 内容,选取合适的检验统计量;
  3. 对给定的显著性水平 $\alpha$,确定小概率事件(即拒绝域)$W$;
  4. 判断:若样本观测值落入拒绝域 $W$,则拒绝原假设 $H_0$,否则不拒绝原假设 $H_0$.

两类错误

第一类错误:当原假设 $H_0$ 为真时,样本观测值却落在了拒绝域,犯了“弃真”的错误. 可知犯第一类错误的最大概率为

$$P\{拒绝 H_0 \ |\ H_0 为真\} = \alpha$$

第二类错误:当原假设 $H_0$ 不真时,样本观测值却落在了接受域,犯了“采伪”的错误,记犯第二类错误的概率

$$P\{不拒绝 H_0 \ |\ H_0 不真\} = \beta$$

注意:

  1. 对检验结果来说,拒绝 $H_0$ 是有说服力的,接受 $H_0$ 是没有说服力的.
  2. 原假设 $H_0$ 和备择假设 $H_1$ 不是平等的.
  3. 在提出假设时,应当尽量使后果更严重的错误成为第一类错误.

正态总体的假设检验

单个正态总体

检验法 条件 原假设 备择假设 检验统计量 拒绝条件
$Z$ 检验 $\sigma^2 = \sigma_0^2$ $\mu = \mu_0$ $\mu \ne \mu_0$ $\displaystyle Z = \frac{\overline{X}-\mu_0}{\sigma_0 / \sqrt{n}}$ $\{|Z| \geqslant z_{\alpha / 2}\}$
$\mu \leqslant \mu_0$ $\mu > \mu_0$ $\{Z \geqslant z_{\alpha}\}$
$\mu \geqslant \mu_0$ $\mu < \mu_0$ $\{Z \leqslant -z_{\alpha}\}$
$t$ 检验 $\sigma$ 未知 $\mu = \mu_0$ $\mu \ne \mu_0$ $\displaystyle T = \frac{\overline{X}-\mu_0}{S/\sqrt{n}}$ $\{|T| \geqslant t_{n-1}(\alpha / 2)\}$
$\mu \leqslant \mu_0$ $\mu > \mu_0$ $\{T \geqslant t_{n-1}(\alpha)\}$
$\mu \geqslant \mu_0$ $\mu < \mu_0$ $\{T \leqslant -t_{n-1}(\alpha)\}$
$\chi^2$ 检验 $\mu = \mu_0$ $\sigma^2 = \sigma_0^2$ $\sigma^2 \ne \sigma_0^2$ $\displaystyle \chi^2 = \frac{\displaystyle \sum_{i=1}^n(X_i-\mu_0)^2}{\sigma_0^2}$ $\{\chi^2 \leqslant \chi_n^2\left(1-\alpha/2\right) \ 或\ \chi^2 \geqslant \chi_n^2(\alpha/2)\}$
$\sigma^2 \leqslant \sigma_0^2$ $\sigma^2 > \sigma_0^2$ $\{\chi^2 \geqslant \chi_n^2(\alpha)\}$
$\sigma^2 \geqslant \sigma_0^2$ $\sigma^2 < \sigma_0^2$ $\{\chi^2 \leqslant \chi_n^2(1-\alpha)\}$
$\chi^2$ 检验 $\mu$ 未知 $\sigma^2 = \sigma_0^2$ $\sigma^2 \ne \sigma_0^2$ $\displaystyle \chi^2 = \frac{(n-1)S^2}{\sigma_0^2}$ $\{\chi^2 \leqslant \chi_{n-1}^2\left(1-\alpha/2\right) \ 或\ \chi^2 \geqslant \chi_{n-1}^2(\alpha/2)\}$
$\sigma^2 \leqslant \sigma_0^2$ $\sigma^2 > \sigma_0^2$ $\{\chi^2 \geqslant \chi_{n-1}^2(\alpha)\}$
$\sigma^2 \geqslant \sigma_0^2$ $\sigma^2 < \sigma_0^2$ $\{\chi^2 \leqslant \chi_{n-1}^2(1-\alpha)\}$

两个正态总体

检验法 条件 原假设 备择假设 检验统计量 拒绝条件
$Z$ 检验 $\sigma_1^2$,$\sigma_2^2$ 已知 $\mu_1 = \mu_2$ $\mu_1 \ne \mu_2$ $\displaystyle Z = \frac{\overline{X}-\overline{Y}}{\displaystyle \sqrt{\frac{\sigma_1^2}{m} + \frac{\sigma_2^2}{n}}}$ $\{|Z| \geqslant z_{\alpha / 2}\}$
$\sigma_1^2$,$\sigma_2^2$ 未知 $\mu \leqslant \mu_0$ $\mu_1 > \mu_2$ $\{Z \geqslant z_{\alpha}\}$
$t$ 检验 $\sigma_1^2$,$\sigma_2^2$ 未知且$\sigma_1^2 = \sigma_2^2$ $\mu_1 = \mu_2$ $\mu_1 \ne \mu_2$ $\displaystyle T = \frac{\overline{X}-\overline{Y}}{\displaystyle S_w\sqrt{\frac{1}{m} + \frac{1}{n}}}$ $\{|T| \geqslant t_{m+n-2}(\alpha / 2)\}$
$\mu_1 \leqslant \mu_2$ $\mu_1 > \mu_2$ $\{T \geqslant t_{m+n-2}(\alpha)\}$
$t$ 检验 成对数据 $\mu_1 = \mu_2$ $\mu_1 \ne \mu_2$ $\displaystyle T = \frac{\overline{D}}{S_d/\sqrt{n}}$ $\{|T| \geqslant t_{n-1}(\alpha / 2)\}$
$\mu_1 \leqslant \mu_2$ $\mu_1 > \mu_2$ $\{T \geqslant t_{n-1}(\alpha)\}$
$F$ 检验 $\mu_1$。$\mu_2$ 未知 $\sigma_1^2 = \sigma_2^2$ $\sigma_1^2 \ne \sigma_2^2$ $\displaystyle F = \frac{S_1^2}{S_2^2}$ $\{F \leqslant F_{m-1,n-1}(1-\alpha/2) \\ 或\ F \geqslant F_{m-1,n-1}(\alpha/2)\}$
$\sigma_1^2 \leqslant \sigma_2^2$ $\sigma_1^2 > \sigma_2^2$ $\{F \geqslant F_{m-1,n-1}(\alpha)\}$
Licensed under CC BY-NC-SA 4.0
网站总访客数:Loading

使用 Hugo 构建
主题 StackJimmy 设计