方差组分估计方法一之一般思路

这是我重新整理方差组分算法的博客,主要是关于 EM-REML 和 AI-REML 算法。这是第一篇博客,介绍估计方差组分的一般思路。

一般思路

我们采用似然方法,查找使得对数似然函数最大化的一组方差组分,这本身是一个优化问题,严格来说是一个有约束条件的优化问题,因为找到的方差组分需要在给定的参数空间内。

我们是要关注对数似然函数值本身,而不是其一阶导数,这里有两个原因,第一是使得似然函数一阶导数等于0的位点可能是局部最小值,局部最大值和鞍点,仅仅是查看一阶导数,我们无法区分这三者;第二是在迭代过程中,随着一阶导数趋于0,我们可以通过对数似然函数值查看其值是否也在不断变大,从而检查我们是不是收敛于一个局部最大值。

如果我们采用一阶导数进行方差组分估计,对于最简单的模型(应该指的是单性状模型),最大值可能在参数空间的边界线找到;对于随机效应之间存在协方差的模型,情况更加复杂,对数似然函数的表面可能会有局部最优解。

一般的解决思路是使用目标函数的一阶导数或者二阶导数从而进行迭代,而这些迭代方法均有共同的特征,首先他们必须提供一个初始值,然后使用这个初始值通过迭代得到下一组值,循环这个过程直到根据某种规则停止迭代,然后将最后一组值视为 ML 或 REML 估计值。

因此一个好的迭代方法应该至少具有三个特征:受到初始值影响小(指初始值的变化,不影响迭代方法收敛于全局最大值),每个迭代过程计算速度快,迭代次数短。但是可惜的是,没有一个已知的技术可以保证从任意的一个初始值均可以收敛到全局最大值(说明迭代方法均受到初始值的影响)。

基于导数的迭代方法

基于导数的迭代方法在数值分析文献中统称为导数方法(gradient methods)

方法基础

任何一个迭代方法的核心就是如何使用当前的参数估计值找到下一组估计值,实际上是需要做两个决定,往哪个方向走,以及走多远的问题,我们称为 step directionstep size

一个合理的方向选择是对数似然函数值增加最快的方向,一个合理的步长是使得似然函数值增加最大的长度。我们可以证明,似然函数增加最快的方向就是一阶导数向量指向的方向,我们称为梯度。按照这种方法进行迭代的方法称为最速上升法,但是不幸的是在实践中最速上升法效果很糟糕,需要很多次迭代才能收敛。

然而我们还是可以通过梯度来定义方向,通过我们会对梯度乘以一个矩阵 来适度修改方向,因此此时的方向为 。如果 表示第 次迭代的参数向量,那么我们可以得到迭代方程为:

在这个公式中, 是一个标量,表示第 步的步长。

Bard (1974) 证明只要 是正定矩阵并且没有收敛到全局最大值,那么均存在一个步长 使得似然值继续增加。

牛顿法

吴恩达老师对牛顿法的解释比较简单明了,放置如下:

假设存在一个函数 f(θ): R → R,你想找到一个θ值,使得 f(θ) = 0 。 我们可以用牛顿方法使用下式来不断更新 θ 值

后面这部分就相当于目前位置与切线和X轴交点的距离。

因此每一次就是迭代到切线与X轴的交点,画图如下

如果你要找某个函数的最大值或最小值,比如似然函数 L(θ) 。你需要计算一阶导数等于0的地方,因此你可以将上面的 f(θ) 替换为 L’(θ)

上面的 θ 只是单个数字,我们将其推广为一般化的向量。

这里 H 是 Hessian 矩阵,其元素为:

牛顿法的优点是迭代次数少,其缺点是需要计算二阶导数,每一轮迭代计算速度慢。

Marquardt (1963) 年提出了一种综合牛顿法和最速上升法的一种方法,公式如下

其中 是一个标量,如果 很小,那么就近似于牛顿法;如果 比较大,那么就接近最速上升法的方法。通常的建议是随着似然函数值的不断增加, 逐渐变小(越来越趋于牛顿法)。如果似然函数值没有增加,那么需要不断增加 的值,直到似然函数值增加。

scoring 法

为了减少计算二级导数的计算量,我们可以将 替换为信息矩阵的逆矩阵,即将黑塞矩阵替换为其期望,公式如下

超出参数空间的补救

如果在某次迭代中出现负数 (AI 矩阵不正定),Jennrich and Schluchter (1986) 建议使用 “step-halving” 方法,即将步长减半,如果下一次得到了合理的结果则继续往下迭代,不然则将步长继续减半。例如在 AI 算法,我们可以添加一个步长的参数 ,使得 。某软件就采用了控制步长的方式来避免 overshooting ,一开始 AI 算法的 值设为 0.1 ,随着每一步的迭代逐渐接近 1 。

另外一种补救方式是改成使用 EM 算法(初始值使用上一次 EM 算法的估计值)来获得更好的初始值。

还有一种情况是,如果AI 估计值其与上次的参数估计值差距过大(计算公式如下,我们称其为 convergence criterion),那么此时也可以更换使用 EM 算法。

参考文献

  1. Searle S R, Casella G, McCulloch C E. Variance components[M]. John Wiley & Sons, 2009.

  2. Ng A. CS229 Lecture notes[J]. CS229 Lecture notes, 2000.

  • 版权声明: 本博客所有文章除特别声明外,著作权归作者所有。转载请注明出处!
  • Copyrights © 2019-2023 Vincere Zhou
  • 访问人数: | 浏览次数:

请我喝杯茶吧~

支付宝
微信