CS229 Lesson 12 K-means算法

课程视频地址:http://open.163.com/special/opencourse/machinelearning.html

课程主页:http://cs229.stanford.edu/

更具体的资料链接:https://www.jianshu.com/p/0a6ef31ff77a

笔记参考自中文翻译版:https://github.com/Kivy-CN/Stanford-CS-229-CN

这一讲介绍了K-means算法,GMM模型以及EM算法。

$k$均值聚类算法

在聚类问题中,我们得到训练集$\{x^{(i)},…,x^{(m)}\}$,然后想把数据分成几个相关的“簇”。这里$x^{(i)}\in \mathbb R^n$,但是没有$y^{(i)}$。所以这是个非监督学习问题。

​ $k$均值聚类算法如下:

  • 1.随机初始化几个聚类中心$\mu_1,…,\mu_k \in \mathbb R^n$

  • 2.重复如下操作直到收敛:{

    • 对每个$i$,令

    • 对每个$j$,令

      }

​ 算法的内层循环重复两个步骤:(i)把每个训练样本$x^{(i)}$“分配”给距离最近的聚类中心(ii)将聚类中心$\mu_j$移动到所分配的样本点的中心。下图展示了$k$均值聚类算法的过程:

​ $k$均值聚类算法是否保证收敛呢?是的,至少从某种意义上说。特别地,我们定义如下损失函数(distortion function ):

因此,$J$衡量每个训练样本$x^{(i)}$和其聚类中心$\mu_{c^{(i)}}$距离的平方和。可以看出$k$均值聚类算法就是$J$坐标下降的过程。特别地,$k$均值聚类算法内层的循环重复对$J$进行最小化,先固定$\mu$,根据$c$来最小化$J$,再固定$c$,根据$\mu$来进行最小化。因此$J$一定单调递减,并且$J$的值一定收敛。

​ 损失函数$J$是一个非凸函数,所以$J$的坐标下降法无法保证收敛到全局最小值。换句话说,$k$均值聚类可能只是局部最优。尽管如此,$k$均值聚类通常效果很好并且给出很好的聚类。但是如果你担心陷入比较差的局部最小值,一种常用的方法是多次运行$k$均值聚类(对聚类中心$\mu_j$使用不同的随机初始值)。然后,从所有不同的聚类结果中选择提供最小损失函数的$J(c,u)​$的聚类。

高斯混合模型和EM算法

在这部分的讲义中,我们将使用EM(Expectation-Maximization)算法进行密度估计。

​ 假设我们像往常一样给定训练集$\{x^{(i)},…,x^{(m)}\}$。因为我们在讨论非监督学习,这些数据点没有标签。

​ 我们希望用特定的联合分布$p(x^{(i)},z^{(i)})=p(x^{(i)}|z^{(i)})p(z^{(i)})$来对数据进行建模。这里,$z^{(i)}\sim 多项分布(\phi)$(其中$\phi_j\ge 0, \sum_{j=1}^k \phi_j =1$,参数$\phi_j=p(z^{(i)}=j)$),$x^{(i)}| z^{(i)}=j \sim \mathcal N(\mu_j ,\Sigma_j)$。令$k$表示$z^{(i)}$可以取值的数量。因此,我们的模型假定每个$x^{(i)}$是按如下方式得到的:从$\{1,…,k\}$中随机选择$z^{(i)}$,然后$x^{(i)}$是从依赖$z^{(i)}$的$k$个高斯分布中得到的。这个模型被称为高斯混合模型。此外,注意到$z^{(i)}$是隐随机变量,这意味着他们是不可见的。这将使我们的估计问题更加困难。

​ 我们模型的参数是$\phi,\mu$和$\Sigma$。为了估计他们,我们可以把数据的似然函数按如下方式写出:

但是,如果我们将上述方程的导数置为$0$并尝试解出参数,我们将发现无法得到参数的最大似然估计的解析形式(closed form)。

​ 随机变量$z^{(i)}$表示每个$x^{(i)}$来自$k$个高斯分布中的哪个,注意到如果我们知道$z^{(i)}$是什么,上述最大似然问题将很简单。特别地,我们可以按如下方式写出最大似然函数

关于$\phi,\mu,\Sigma$求上式的最大值可以得到参数:

​ 事实上,我们发现如果$z^{(i)}$已知,那么最大似然估计几乎等同于我们已经讨论过的高斯判别分析模型中对参数的估计,除了$z^{(i)}$在此处扮演则分类标签的角色。

​ 但是,在我们的密度估计问题中,$z^{(i)}$是未知的。所以我们可以做什么?

​ EM算法是一个迭代算法,它有两个主要步骤。应用到我们的问题中,在E步骤中,它尝试去“猜”$z^{(i)}$的值。在M步骤中,它根据猜测的值更新模型的参数。因为在M步骤中我们假设第一步猜测的结果正确,最大化的过程就变得简单了。算法如下:

  • 重复直到收敛{

    • (E步骤)对每个$i,j$,令

    • (M步骤)更新参数:

  • }

​ 在E步骤中,我们利用$x^{(i)}$和现在的参数计算参数$z^{(i)}$的后验分布。即,利用贝叶斯法则,我们得到:

在E步骤中计算得到的$w_j^{(i)}$表示我们对值$z^{(i)}​$的“软”猜测。

​ 此外,你可以把M步骤的更新和$z^{(i)}$已知时的公式作对比。他们是类似的,除了将表示每个点来自哪个高斯分布的示性函数$1\{z^{(i)}=j\}$替换为$w_j^{(i)}$。

​ EM算法也让人联想起$k$均值聚类算法,除了我们使用”软”赋值$w_j^{(i)}$而不是“硬”赋值$c(i)$。类似$k$均值聚类,EM算法也容易导致局部最优,所以用多个不同的初始值初始化可能是个好办法。

​ 很明显EM算法对重复猜测$z^{(i)}$的解释很自然;但它是如何产生的,并且我们是否能保证它的某个特效,例如收敛性?在下一部分的讲义中,我们对EM算法做一个更一般的解读,这将使我们更容易应用到有隐变量的估计问题中并且保证收敛。

Part IX EM算法(The EM algorithm )

在之前的讲义中,我们讨论了如何将EM算法应用到高斯混合模型的拟合。在这部分讲义中,我们将给出EM算法更广阔的视角,并且将展示如何将它应用到一大类有隐变量的估计问题。我们将从Jeson不等式开始讨论,这是个非常有用的结论。

1.Jeson不等式

令$f$是一个定义域为实数的函数。注意到$f$是凸函数如果$f’’(x)\ge 0$(对每个$x\in \mathbb R$)。如果$f$的输入是向量,那么上述条件就变为$f$的hessian矩阵$H$是半正定($H\ge 0$)。如果对每个$x$,$f’’(x)> 0$,那么我们称$f$是严格凸的(在向量情形,相应的陈述是$H$为正定,写作$H>0$)。Jenson不等式可以陈述如下:

定理

令$f$为一个凸函数,$X$是一个随机变量,那么:

此外,如果$f$是一个严格凸函数,那么$\mathbb E[f(x)] = f(\mathbb E[X])$当且仅当$X= \mathbb E[X]$以概率$1$成立(即$X$是一个常数)

​ 为了解释定理,考虑下图:

​ 这里,$f$是实线所示的凸函数。此外,$X$是一个随机变量,有$0.5$的概率取$a$,$0.5$的概率取$b$。因此,$X$的期望是$a$和$b$的中点。

​ 我们还看到$f(a),f(b)$和$f(\mathbb E[X])$在$y$轴上标记出来。此外,$\mathbb E[f(X)]$的值是$f(a)$和$f(b)$中点的$y$坐标。从我们的例子中,我们可以看出如果$f$是凸的,那么一定有$\mathbb E[f(x)] \ge f(\mathbb E[X])$

注记

注意到如果$f$是(严格)凹的当且仅当$-f$是(严格)凸的(即$f’’(x)\le 0$或$H\le 0$)。Jenson不等式对凹函数也正确,但是不等号反方向。

2.EM算法

假设我们有一个估计问题,训练集有$m$个独立样本。我们希望拟合模型$p(x,z)$的参数,似然函数如下

但是,准确找到参数$\theta$的最大似然估计可能很难。这里$z^{(i)}$是隐变量;通常的情形是,如果$z^{(i)}$被观测到了,那么最大似然估计将会很简单。

​ 在这种情形下,EM算法给出一个处理最大似然估计的有效方法。准确地最大化$l(\theta)$可能很难,我们的策略是取而代之的构造一个$l$的下界(E步骤),然后优化下界(M步骤)。

​ 对每个$i$,令$Q_i$是关于$z$的某个分布($\sum_{z}Q_i(z)=1,Q_i(z)\ge 0$),考虑下式

最后一步利用了Jeson不等式。特别地,$f(x)=\log x$是一个凹函数,因为在它的定义域$x\in \mathbb R^+$上$f’’(x)=-\frac 1{x^2}<0$。此外,如下求和式

是因子$\Big[\frac {p(x^{(i)},z^{(i)};\theta)}{Q_i(z^{(i)})}\Big]$关于$z^{(i)}$的期望,$z^{(i)}$的分布是由$Q_i(z^{(i)})$确定的。根据Jeson不等式,我们有

其中$z^{(i)}\sim Q_i$表示期望是关于从分布$Q_i$抽取的$z^{(i)}$求的。这允许我们从公式$(2)$推导到公式$(3)$。

​ 现在,对任意分布$Q_i$,上述不等式给出一个$l(\theta)$的下界。关于$Q_i$由很多种选择,应该选择哪个呢?如果我们对参数$\theta$有一些猜测,很自然地想到选择使得下界尽可能紧的$\theta$。即,我们将使得在$\theta$处上述不等号取等号。(后面我们将看到,随着EM算法的迭代,$l(\theta)​$单调递增。)

​ 为了使对某个特定的$\theta $,下界更紧,我们需要涉及Jenson不等式的地方取等号。为了让这个条件成立,我们知道只要期望是关于“常”随机变量取的即可。即,我们需要:

对某个不依赖的$z^{(i)}$的常数$c$成立。这可以通过如下选择完成

事实上,既然我们已知$\sum_{i}Q_i(z^{(i)}) =1$,上式事实还告诉我们

因此,在给定$x^{(i)}$和$\theta$的条件下,我们只要将$Q_i$设置为$z^{(i)}$的后验分布即可。

​ 现在,对于这样$Q_i$的选择,上述不等式给出我们尝试最大化的对数似然$l$的下界。这是E步骤。在M步骤中,我们最大化上述下界来获得新的参数$\theta$。重复这两个步骤就给出了EM算法,叙述如下:

  • 重复直到收敛{

    • (E步骤)对每个$i$,令

    • (M步骤)令

    }

本文标题:CS229 Lesson 12 K-means算法

文章作者:Doraemonzzz

发布时间:2018年12月31日 - 19:50:00

最后更新:2019年03月29日 - 12:44:19

原始链接:http://doraemonzzz.com/2018/12/31/CS229 Lesson 12 K-means算法/

许可协议: 署名-非商业性使用-禁止演绎 4.0 国际 转载请保留原文链接及作者。