上一节介绍了贝叶斯线性回归推断任务的推导过程,本节将介绍预测任务(Prediction)的推导过程
通过贝叶斯定理,关于后验分布P(W∣Data)\mathcal P(\mathcal W \mid Data)P(W∣Data)的推断结果表示如下:
P(W∣X)\mathcal P(\mathcal W \mid \mathcal X)P(W∣X)表示关于模型参数
W\mathcal WW的先验概率,与
X\mathcal XX无关,因而省略。
P(W∣Data)=P(Y∣W,X)⋅P(W∣X)P(Y∣X)∝P(Y∣W,X)⋅P(W)\begin{aligned} \mathcal P(\mathcal W \mid Data) & = \frac{\mathcal P(\mathcal Y \mid \mathcal W,\mathcal X) \cdot \mathcal P(\mathcal W \mid \mathcal X)}{\mathcal P(\mathcal Y \mid \mathcal X)} \\ & \propto \mathcal P(\mathcal Y \mid \mathcal W,\mathcal X) \cdot \mathcal P(\mathcal W) \end{aligned}P(W∣Data)=P(Y∣X)P(Y∣W,X)⋅P(W∣X)∝P(Y∣W,X)⋅P(W)
其中,根据线性回归模型,得知似然P(Y∣W,X)\mathcal P(\mathcal Y \mid \mathcal W,\mathcal X)P(Y∣W,X)服从均值为000,方差为σ2\sigma^2σ2的一维高斯分布:
该高斯分布维度和标签
y(i)(i=1,2,⋯,N)\mathcal y^{(i)}(i=1,2,\cdots,N)y(i)(i=1,2,⋯,N)的维度相同
需要注意的点:这个高斯分布是关于
Y\mathcal YY的条概率分布。
P(Y∣W,X)∼N(Y∣WTX+μ,σ2)μ=0\mathcal P(\mathcal Y \mid \mathcal W,\mathcal X) \sim \mathcal N(\mathcal Y \mid \mathcal W^T\mathcal X + \mu,\sigma^2) \quad \mu = 0P(Y∣W,X)∼N(Y∣WTX+μ,σ2)μ=0
P(W)\mathcal P(\mathcal W)P(W)是模型参数W\mathcal WW的先验概率分布,这里假设P(W)\mathcal P(\mathcal W)P(W)服从均值为0,协方差为Σprior\Sigma_{prior}Σprior的高斯分布:
同上,这里的高斯分布是
ppp维高斯分布,和
W\mathcal WW的维度相同。
P(W)∼N(0,Σprior)\mathcal P(\mathcal W) \sim \mathcal N(0,\Sigma_{prior})P(W)∼N(0,Σprior)
因而基于高斯分布的自共轭性质,后验分布P(W∣Data)\mathcal P(\mathcal W \mid Data)P(W∣Data)同样服从高斯分布。这里定义P(W∣Data)∼N(μW,ΣW)\mathcal P(\mathcal W \mid Data) \sim \mathcal N(\mu_{\mathcal W},\Sigma_{\mathcal W})P(W∣Data)∼N(μW,ΣW)并表示如下:
详见
指数族分布介绍中的指数族分布共轭性质。
P(W∣Data)\mathcal P(\mathcal W \mid Data)P(W∣Data)也可以写成
P(W∣X,Y)\mathcal P(\mathcal W \mid \mathcal X,\mathcal Y)P(W∣X,Y).
N(μW,ΣW)∝N(WTX,σ2)⋅N(0,Σprior)\mathcal N(\mu_{\mathcal W},\Sigma_{\mathcal W}) \propto \mathcal N(\mathcal W^T\mathcal X,\sigma^2) \cdot \mathcal N(0,\Sigma_{prior})N(μW,ΣW)∝N(WTX,σ2)⋅N(0,Σprior)
通过推断,得到μW,ΣW\mu_{\mathcal W},\Sigma_{\mathcal W}μW,ΣW表示如下:
{μW=1σ2(A−1XY)ΣW=A−1A=[1σ2XTX+Σprior−1]p×p\begin{cases} \mu_{\mathcal W} = \frac{1}{\sigma^2}\left(\mathcal A^{-1} \mathcal X\mathcal Y \right) \\ \Sigma_{\mathcal W} = \mathcal A^{-1} \\ \mathcal A = \left[\frac{1}{\sigma^2}\mathcal X^T\mathcal X + \Sigma_{prior}^{-1}\right]_{p \times p} \end{cases}⎩⎪⎨⎪⎧μW=σ21(A−1XY)ΣW=A−1A=[σ21XTX+Σprior−1]p×p
贝叶斯方法中,求解模型参数的概率分布只是一个中间步骤,最终目标是基于W\mathcal WW概率分布P(W∣X,Y)\mathcal P(\mathcal W \mid \mathcal X,\mathcal Y)P(W∣X,Y),给定 未知样本x^\hat xx^,对它的 标签y^\hat yy^ 进行预测。
观察一下,P(W∣X,Y)\mathcal P(\mathcal W \mid \mathcal X,\mathcal Y)P(W∣X,Y)已求解的条件下,未知样本x^\hat xx^标签的预测过程:
这里
xxx是’单个样本‘的宏观表示,
yyy是单个标签的宏观表示。
这种表示相当于给
W\mathcal WW乘了一个系数,相当于
x^TW{\hat x}^T \mathcal Wx^TW和
W\mathcal WW之间存在线性关系。根据
高斯分布的相关定理介绍,有:(常数
B\mathcal BB的方差是0)
这里将
x^T{\hat x}^Tx^T看作
A;B=0\mathcal A;\mathcal B = 0A;B=0:由于
[x^T]1×p[W]p×1[{\hat x}^T]_{1 \times p}[\mathcal W]_{p \times 1}[x^T]1×p[W]p×1本身是一个实数(一维向量),因而对应分布同样是一维高斯分布。该分布仅仅是’无高斯分布噪声‘(noise-free)的分布结果。
使用贝叶斯方法求解线性回归,它主要分为两大步骤:
这里先验概率分布
P(W)\mathcal P(\mathcal W)P(W)给定一个均值为0的高斯分布。
将训练好的(已求解的)
W\mathcal WW带入
x^\hat xx^进行预测。
至此,贝叶斯线性回归介绍结束。
相关参考:
机器学习-贝叶斯线性回归(4)-推导Prediction
机器学习-贝叶斯线性回归(4)-小结
上一篇:RS232和RS485
下一篇:zabbix基础环境部署