数学期望在算法中的应用
数学期望是概率论和统计学中的一个核心概念,主要用于描述所有数据的平均值或者是中心趋势。在计算机算法竞赛中,期望算法属于一个中高等难度的算法,在程序设计中发挥着至关重要的作用。在近些年的 CSP/ USACO 等国际知名算法竞赛中,期望和期望动态规划等算法常常被作为考试题目。因此,本文将详细讲述数学期望在算法中的应用。
为了降低本文的阅读门槛,本文会提供诸多例子来帮助读者来理解期望的定义和期望的实际应用。在文章的最后,我也会向大家提供相关的算法练习题。
随机变量的基本概念
在了解期望之前,务必要了解一下 随机变量 Random Variable 的定义。
随机变量是一个 函数,它将随机实验的每一个可能结果映射到一个数值。随机变量可以看作是随机现象的数学表达。
E.G. 1 投掷硬币
以投掷一枚硬币举例子:
* 有两个实验结果:正面 (H\mathtt{H}H)、反面 (T\mathtt{T}T)。
* 随机变量 XXX:定义为正面记作 111,反面记作 000。
E.G. 2 投掷骰子
在投掷骰子时:
* 有六个实验结果:1,2,3,4,5,61, 2, 3, 4, 5, 61,2,3,4,5,6。
* 随机变量 YYY:定义为投掷出的点数的值。
数学期望的基本概念
教科书上对于 期望 Expectation 的定义如下:
> 数学期望,简称期望,是对随机变量取值的加权平均,其权重为对应取值的概率。
一个更直观的说法是:期望值代表了大量重复实验中,随机变量取值的平均水平,是对随机现象的一种 集中趋势 的描述。
E.G. 3 考试评分
假设一门考试有五道选择题,得分规则如下:
1. 选择正确答案获得 444 分。
2. 选择错误答案扣除 111 分。
3. 未作答不增加也不扣除分数。
如果考生随机选择答案,每道题的概率为:
1. 做对这道题的概率为:14\dfrac{1}{4}41 。
2. 做错这道题的概率为:34\dfrac{3}{4}43 。
那么这场考试每道题的期望得分为:
E(X)=4×14+(−1)×34=1−0.75=0.25E(X) = 4\times \dfrac{1}{4} + (-1) \times \dfrac{3}{4} = 1- 0.75 = 0.25 E(X)=4×41 +(−1)×43 =1−0.75=0.25
这意味着,随机作答的长期平均得分是每道题 0.250.250.25 分。
E.G. 4 概率游戏 I\MATHRM{I}I
有一个掷骰子的游戏,规则是如果投掷出点数 666 得 101010 分,投掷出其余点数扣 222 分。那么:
* 投掷出 666 的概率是:16\dfrac{1}{6}61 。
* 投掷出其他点数的概率是:56\dfrac{5}{6}65 。
期望得分为:
E(X)=10×16+(−2)×56=106−106=0E(X) = 10\times\dfrac{1}{6} + (-2)\times \dfrac{5}{6} = \dfrac{10}{6} - \dfrac{10}{6} = 0 E(X)=10×61 +(−2)×65 =610 −610 =0
因此从长远来看(假如一直玩这个游戏的话),这个游戏是公平的,没有任何的得分优势。
通过这两个例子应该就能够很容易地理解期望在数学中的定义和作用了。
期望的线性叠加和独立性
期望是可以叠加的,假设有两个事件(两个事件可以是相互独立的,也可以是相互依赖的),两个事件的期望分别为 E(A)E(\Alpha)E(A) 和 E(B)E(\Beta)E(B),那么这两个事件的整体期望 E(A+B)E(\Alpha + \Beta)E(A+B) 可以直接被拆解成 E(A)+E(B)E(\Alpha) + E(\Beta)E(A)+E(B)。
这说明 期望的计算可以逐项分解并加权,无论这些随机变量是否独立。
E.G. 5 概率游戏 II\MATHRM{II}II
有一个概率游戏,分为两轮:
1. 第一轮:玩家投掷一个六面骰子,得分为骰子的点数。
2. 第二轮:玩家掷两个六面骰子,得分为两个点数之和。
目标:要求计算玩家的总期望得分。
对于这种题目,我们就可以利用期望的线性叠加来完成。以下是一些变量的定义:
1. 第一轮得分:随机变量 X1X_1X1 ,取值为 1,2,3,4,5,61, 2, 3, 4, 5, 61,2,3,4,5,6。
2. 第二轮得分:随机变量 X2X_2X2 ,为两个骰子的点数之和,取值为 2,3,⋯ ,11,122, 3, \cdots, 11, 122,3,⋯,11,12。
3. 总得分的随机变量 S=X1+X2S = X_1 + X_2S=X1 +X2 。
根据期望的线性叠加性质:
E(S)=E(X1)+E(X2)E(S) = E(X_1) + E(X_2) E(S)=E(X1 )+E(X2 )
我们可以分别计算两个随机变量的期望,并将结果相加就可以计算出整一个概率游戏的期望得分了。
经过计算(本文不再详细举例相同的期望得分计算过程,具体可以自己手动推导),两轮游戏的期望得分分别为:
1. 第一轮:E(X1)=216=3.5E(X_1) = \dfrac{21}{6} = 3.5E(X1 )=621 =3.5。
2. 第二轮:E(X2)=25236=7E(X_2) = \dfrac{252}{36} = 7E(X2 )=36252 =7。
那么总期望得分就是:
E(S)=E(X1)+E(X2)=3.5+7=10.5E(S) = E(X_1) + E(X_2) = 3.5 + 7 = 10.5 E(S)=E(X1 )+E(X2 )=3.5+7=10.5
也就是说,如果玩家无限地玩这个游戏,平均下来每一轮的得分大约为 10.510.510.5。
期望的基本算法题
期望在计算机的应用也非常的广泛,这里提供几个实际的算法题目来帮助读者加深对期望的理解。
E.G. 6 随机交换序列
题目描述
给定一个长度为 nnn 的序列,每个元素为 a1,a2,⋯ ,a−1,ana_1, a_2, \cdots, a_{-1}, a_{n}a1 ,a2 ,⋯,a−1 ,an 。每一步操作为选择两个不同位置的 iii 和 jjj,满足 1≤i,j≤n,i≠j1 \le i, j\le n, i \neq j1≤i,j≤n,i=j,并交换 aia_iai 和 aja_jaj 的值。假设进行无限次随机交换操作后,求每一个位置上的最终数字的期望值。
解题思路
在进行了无限次随机交换次数后,序列将趋于均匀的随机排列。由于所有的排列的概率都是相同的,那么每个位置上的元素的期望值应为序列的平均值。
数学证明
设序列的总和为 S=Σi=1naiS = \Sigma_{i=1}^{n}a_iS=Σi=1n ai ,平均值为 μ=Sn\mu = \dfrac{S}{n}μ=nS 。在进行无限次随机交换后,每个位置上的元素均可能是任意一个 aia_iai ,因此期望值均为 μ\muμ。
C++ 代码实现
本题的 C++ 代码实现如下:
E.G. 7 彩票中奖期望
题目描述
你正参加一个彩票游戏,每张彩票有两个号码,分别是红球和篮球。红球的号码范围从 111 到 RRR 中选择,篮球的号码从 111 到 BBB 中选择。每张彩票的中奖条件是红球和篮球都正确。已知你购买了 kkk 张不同的彩票,求中奖的期望次数。
解题思路
首先先求出每张彩票的中奖概率为 1R×1B=1RB\dfrac{1}{R} \times \dfrac{1}{B} = \dfrac{1}{RB}R1 ×B1 =RB1 。购买 kkk 张独立的彩票,每张彩票的中奖次数都是独立的,因此总的中奖次数的期望就是 k×1RBk \times \dfrac{1}{RB}k×RB1 。
C++ 代码实现
本题的 C++ 代码实现如下:
E.G. 8 期望步数达到目标
题目描述
在一个二维平面网格上,从起点 (0,0)(0, 0)(0,0) 开始,目标是到达终点 (n,m)(n, m)(n,m)。每一步,你可以选择向右或者向上移动。向右移动的概率为 ppp,向上移动的概率为 1−p1 - p1−p。求从起点到达终点的期望步数。
解题思路
相比较前面几道题目,这道题的难度有所提升。这是一个典型的动态规划与期望相结合的问题。我们设置 dpi,jdp_{i, j}dpi,j 表示从点 (i,j)(i, j)(i,j) 到达终点的期望步数。
状态转移方程:
* 如果当前坐标是终点,即 i=ni = ni=n 且 j=mj = mj=m 时,则 dpi,j=0dp_{i, j} = 0dpi,j =0,表示期望走 000 步就可以到达终点。
* 如果在边界移动(即 i=ni = ni=n 或 j=mj = mj=m 时),只能单向移动:
* dpi,j=1+dpi,j+1dp_{i, j} = 1 + dp_{i, j+1}dpi,j =1+dpi,j+1 (向右移动)
* dpi,j=1+dpi+1,jdp_{i, j} = 1 + dp_{i+1, j}dpi,j =1+dpi+1,j (向上移动)
* 其他情况:
* dpi,j=1+p×dpi,j+1+(1−p)×dpi+1,jdp_{i, j} = 1 + p \times dp_{i, j+1} + (1 - p) \times dp_{i+1, j}dpi,j =1+p×dpi,j+1 +(1−p)×dpi+1,j
计算顺序:从终点开始,逆序填充 dpdpdp 表格。
C++ 代码实现
本题的 C++ 代码实现如下:
E.G. 9 P1365 WJMZBMR打OSU! / EASY
解题思路
这也是一道经典的期望动态规划的例题,与前面的题目都相同,我们先定义 dpidp_idpi 表示以第 iii 个字符结尾的期望得分,用变量 len\mathtt{len}len 来表示连续的 o 字符出现的个数(且需要包含 stristr_istri 的回合)。根据字符串的三种字符分类进行讨论:
1. 当当前字符为 x 的时候:
说明本回合游戏失败,期望得分将不会增加,也不会减少(与 dpi−1dp_{i-1}dpi−1 相同)。与此同时,需要将 len\mathtt{len}len 归零,表示截至目前不存在连续的 o。
2. 当当前的字符为 o 的时候:
说明本回合游戏胜利,期望得分应该就是截止上一轮游戏的期望得分 dpi−1dp_{i-1}dpi−1 加上这轮游戏的期望得分 (len+1)2−len2(\mathtt{len} + 1)^2 - \mathtt{len}^2(len+1)2−len2(撤销长度为 len\mathtt{len}len 的连击得分,增加长度为 len+1\mathtt{len} + 1len+1 的期望得分。化简可得:dpi=dpi−1+2×len+1dp_i = dp_{i-1} + 2\times \mathtt{len} + 1dpi =dpi−1 +2×len+1。同时在更新完 dpdpdp
数组后将 len\mathtt{len}len 设置为 len+1\mathtt{len} + 1len+1。
3. 当当前字符为 ? 的时候:
我们需要同时考虑胜利或者失败两种情况((成功的期望 + 失败的期望) / 2):
dpi=dpi−1+((len+1)2−len2)+02=dpi−1+len+0.5dp_i = dp_{i-1} + \dfrac{((\mathtt{len} + 1)^2 - \mathtt{len}^2) + 0}{2} = dp_{i-1} + \mathtt{len} + 0.5 dpi =dpi−1 +2((len+1)2−len2)+0 =dpi−1 +len+0.5
与此同时需要把 len\mathtt{len}len 更新为 (len+1)+02=len+12\dfrac{(\mathtt{len} + 1) + 0}{2} = \dfrac{\mathtt{len} + 1}{2}2(len+1)+0 =2len+1 。
接下来直接遍历就好了。
C++ 代码实现
本题的 C++ 代码实现如下:
该算法的时间复杂度为 O(n)O(n)O(n),空间复杂度也是 O(n)O(n)O(n),但考虑到每一个 dpidp_idpi 永远只依赖自己上一个状态(dpi−1dp_{i-1}dpi−1 ),因此可以进一步把代码的空间复杂度降低到 O(1)O(1)O(1)。
E.G. 10 P1850 [NOIP2016 提高组] 换教室
这道题是 NOIP 2016 年比赛的原题,可以看出期望动态规划确实是一项重点。
解题思路
相同地,我们在一开始也需要定义 dpdpdp 状态。定义 dpi,j,kdp_{i, j, k}dpi,j,k 表示走到了第 iii 点,申请了 jjj 次换课,当前次 换/不换(1/0)\mathtt{换/不换}(1/0)换/不换(1/0) 的期望。代码用 mapa,bmap_{a, b}mapa,b 来表示地图中 aaa 和 bbb 两点的最短路(由于数据范围和需要求解多源最短路径的需求,这里使用 Floyd 算法来计算最短路径)。
状态转移:
* 未换课 (dpi,j,0dp_{i, j, 0}dpi,j,0 ):
* 情况 1:上一步也未换课:
dpi,j,0=dpi−1,j,0+map[c[i−1]][c[i]]dp_{i, j, 0} = dp_{i-1, j, 0} + \text{map}[c[i-1]][c[i]] dpi,j,0 =dpi−1,j,0 +map[c[i−1]][c[i]]
* 情况 2:上一步换课:
dpi,j,0=dpi−1,j,1+map[c[i−1]][c[i]]⋅(1−k[i−1])+map[d[i−1]][c[i]]⋅k[i−1]dp_{i, j, 0} = dp_{i-1, j, 1} + \text{map}[c[i-1]][c[i]] \cdot (1 - k[i-1]) + \text{map}[d[i-1]][c[i]] \cdot k[i-1] dpi,j,0 =dpi−1,j,1 +map[c[i−1]][c[i]]⋅(1−k[i−1])+map[d[i−1]][c[i]]⋅k[i−1]
* 换课 (dpi,j,1dp_{i, j, 1}dpi,j,1 ):
* 情况 1:上一步未换课:
dpi,j,1=dpi−1,j−1,0+map[c[i−1]][d[i]]⋅k[i]+map[c[i−1]][c[i]]⋅(1−k[i])dp_{i, j, 1} = dp_{i-1, j-1, 0} + \text{map}[c[i-1]][d[i]] \cdot k[i] + \text{map}[c[i-1]][c[i]] \cdot (1 - k[i]) dpi,j,1 =dpi−1,j−1,0 +map[c[i−1]][d[i]]⋅k[i]+map[c[i−1]][c[i]]⋅(1−k[i])
* 情况 2:上一步换课:
dpi,j,1=dpi−1,j−1,1+map[d[i−1]][d[i]]⋅k[i−1]⋅k[i]+map[d[i−1]][c[i]]⋅k[i−1]⋅(1−k[i])+map[c[i−1]][d[i]]⋅(1−k[i−1])⋅k[i]+map[c[i−1]][c[i]]⋅(1−k[i−1])⋅(1−k[i])dp_{i, j, 1} = dp_{i-1, j-1, 1} + \\ \text{map}[d[i-1]][d[i]] \cdot k[i-1] \cdot k[i] + \\ \text{map}[d[i-1]][c[i]] \cdot k[i-1] \cdot (1 -
k[i]) + \\ \text{map}[c[i-1]][d[i]] \cdot (1 - k[i-1]) \cdot k[i] + \\ \text{map}[c[i-1]][c[i]] \cdot (1 - k[i-1]) \cdot (1 - k[i]) dpi,j,1 =dpi−1,j−1,1 +map[d[i−1]][d[i]]⋅k[i−1]⋅k[i]+map[d[i−1]][c[i]]⋅k[i−1]⋅(1−k[i])+map[c[i−1]][d[i]]⋅(1−k[i−1])⋅k[i]+map[c[i−1]][c[i]]⋅(1−k[i−1])⋅(1−k[i])
C++ 代码实现
本题的 C++ 代码实现如下:
E.G. 11 P1654 OSU!
与【E.g. 9 [P1365 WJMZBMR打osu! / Easy]】类似,稍作修改即可。
解题思路
要求解 x3x^3x3 的期望,那么肯定需要维护 x2x^2x2 和 xxx 的期望才可以。
具体地:
1. a[i]a[i]a[i] 表示以第 iii 个位置为终点,xxx 的期望。
2. b[i]b[i]b[i] 表示以第 iii 个位置为终点,x2x^2x2 的期望。
3. dp[i]dp[i]dp[i] 表示以第 iii 个位置为终点,x3x^3x3 的期望。
递推公式:
* a[i]=(a[i−1]+1)∗p[i]a[i] = (a[i-1] + 1) * p[i]a[i]=(a[i−1]+1)∗p[i]
* a[i−1]a[i-1]a[i−1] 是上一轮的 xxx 的期望,加上当前位置的贡献 1⋅p[i]1 \cdot p[i]1⋅p[i]。
* b[i]=(b[i−1]+2⋅a[i−1]+1)⋅p[i]b[i] = (b[i-1] + 2 \cdot a[i-1] + 1) \cdot p[i]b[i]=(b[i−1]+2⋅a[i−1]+1)⋅p[i]
* 上一轮的 x2x^2x2 的期望加上新的贡献,其中包含 2⋅a[i−1]⋅12 \cdot a[i-1] \cdot 12⋅a[i−1]⋅1 和 121^212。
* dp[i]=dp[i−1]+(3⋅(a[i−1]+b[i−1])+1)⋅p[i]dp[i] = dp[i-1] + (3 \cdot (a[i-1] + b[i-1]) + 1) \cdot p[i]dp[i]=dp[i−1]+(3⋅(a[i−1]+b[i−1])+1)⋅p[i]
* 最后将所有 x3x^3x3 的期望累加到当前 dpdpdp 状态。
C++ 代码实现
本题的 C++ 代码实现如下:
常见问题与误区
误区一:期望值与实际值混淆
期望值代表随机变量的平均水平,但这并不意味着随机变量每次实验都恰好等于期望值。期望式大量实验后的平均结果,而非单次实验的确定结果。
误区二:忽略条件期望
在复杂问题中,忽视条件期望可能导致错误的期望计算,尤其是在存在依赖关系或多阶段决策的问题中。例如,在【E.g. 8 期望步数达到目标】中,如果忽略了当前位置的条件(当前坐标),会导致状态转移方程的错误,从而会计算出错误的期望步数。
参考文献
* GeeksforGeeks. "ML | Expectation-Maximization Algorithm." GeeksforGeeks, https://www.geeksforgeeks.org/ml-expectation-maximization-algorithm/.
* Bee, Chloe. "The EM Algorithm Explained." Medium, https://medium.com/@chloebee/the-em-algorithm-explained-52182dbb19d9.
* Williams, Richard. "The Expectation Maximization (EM) Algorithm." University of Notre Dame, https://www3.nd.edu/~rwilliam/stats1/x12.pdf.