第一章我们曾讨论过事件的独立性和试验的独立性, 这里我们讨论随机变量的独立性, 它是概率论中十分重要的概念.
定义 3.1.3 (独立随机变量)
设 为概率空间, 为其上的随机变量, 如果
则称 相互独立.
Link to original
实际应用问题中, 随机向量有离散型和连续型两类.
定义 3.1.4 (离散 连续 随机向量)
设 为概率空间, 为其上的随机向量.
Link to original
- 若 至多取可数多个不同的值, 则称之为离散型随机向量.
- 若存在非负函数 使得 的联合分布函数可以表示为 , \begin{align}F_{X_1, X_2, \cdots, X_n}(x_1, x_2, \cdots, x_n) &= \int_{-\infty}^{x_1} \mathrm{d}t_1 \int_{-\infty}^{x_2} \mathrm{d}t_2 \cdots \int_{-\infty}^{x_n} f_{X_1, X_2, \cdots, X_n}(t_1, t_2, \cdots, t_n) \, \mathrm{d}t_n.\end{align} 则称 为连续型随机向量, 并称 为它的分布密度函数.
关于这两类特殊随机向量的分布和独立性, 可以证明如下的定理 3.1.2.
定理 3.1.2 (随机变量的独立性条件与联合分布)
设 为概率空间, 为其上的随机变量.
(1) 若 都为离散型随机变量, 有分布列
则 相互独立的充分必要条件是
其中 取值于 .
对于任何区域 , 有
(2) 若 , 都为连续型随机变量, 联合分布密度函数为 , 边缘分布密度函数为 , 则 相互独立的充分必要条件是
对于任何区域 , 有
Link to original
下面我们分别讨论二维离散型和连续型随机向量的联合分布及边缘分布.