标准差是衡量一组数据离散程度的一种统计量,通常用符号 $\sigma$ 表示,计算公式为:
$\sigma = \sqrt{\frac{\sum_{i=1}^{n}(x_i-\bar{x})^2}{n}}$
其中,$x_i$ 表示第 $i$ 个数据点,$\bar{x}$ 表示所有数据点的平均数,$n$ 表示数据点的个数。
标准差表示一组数据与其平均值之间的差异程度,标准差越大,则数据的分布越分散;标准差越小,则数据的分布越集中。标准差的单位与原始数据的单位相同。