本文共 1264 字,大约阅读时间需要 4 分钟。
随机变量的概率分布是描述其特征的最完备方法。概率分布包含了随机变量的所有信息,全而大。与人类身体信息类似,姓名、性别、民族等信息就能基本描述一个人,而不需要列出血型、指甲长短等细节。同样,某些量代表随机变量的主要特征,这些量被称为随机变量的描述量。
期望是用概率值作为权重,加权平均所有可能取值的结果。数学上表示为:[ E(X) = \sum_i x_i p(x_i) ]如果某个取值的概率较大,该取值在最终结果中会占据较大的分量。期望常用字母μ表示,例如正态分布的期望也用μ表示。期望是一种估计未确定事件平均结果的方法。
方差衡量分布的离散程度,计算公式为:[ Var(X) = E[(X - \mu)^2] ]标准差是方差的平方根,通常用σ表示。正态分布的标准差正是其参数σ。
Chebyshev不等式用于描述随机变量偏离期望的程度。对于任意随机变量X,若期望为μ,方差为σ²,则满足:[ P(|X - \mu| > t) \leq \frac{\sigma^2}{t^2} ]该不等式对所有分布都成立,是一种普适的估计工具。
斜度描述数据分布的偏态程度,计算公式为:[ Skew(X) = E[(X - \mu)^3] ]正斜度表示数据右偏,负斜度表示左偏。
矩是数据分布的度量指标,分为中心矩和原点矩。中心矩是基于数据均值的矩,计算公式为:[ k阶中心矩 = E[(X - \mu)^k] ]原点矩则是直接计算随机变量的k次方的期望:[ k阶原点矩 = E[X^k] ]期望是原点矩的一阶。
矩生成函数是通过幂级数定义的函数,形式为:[ M(t) = \sum_{k=1}^{\infty} E[X^k] t^k ]该函数可以用来分析随机变量的分布特征。
协方差衡量两个随机变量之间的相关性,定义为:[ Cov(X, Y) = E[(X - \mu_X)(Y - \mu_Y)] ]协方差为正表示正相关,为负表示负相关。
相关系数是归一化后的协方差,计算公式为:[ \rho = \frac{Cov(X, Y)}{\sqrt{Var(X) Var(Y)}} ]相关系数范围在[-1, 1]之间,反映两个变量之间的线性关系强度。
概率论的核心是随机变量的分布。许多结论依赖于特定分布的性质,但一些普适性的结论如Chebyshev不等式和中心极限定律对所有分布都成立。
中心极限定律指出,独立同分布随机变量的样本均值会随着样本量的增加趋近于正态分布。该定律为统计学的基本理论之一。
转载地址:http://jdwr.baihongyu.com/