ESL II —— 3 —— Linear Classification Model

 

1.Linear Decision Boundaries

Intuition Instead of making an assumption on the form of the class densities, we make an assumption on the form of the boundaries that seperating classes.

对于离散分类问题来说, 我们总是能够把input space分成对应不同label的子空间.

这些子空间之间的边界可以是Rough的,也可以是smooth的.其中,有一类比较重要, 常见的,则是线型决策边界(linear decision boundaries)

如, 当我们fit一个线型模型来建模$k,l$的时候,有

因此, 对于类别以及之间的决策边界来说, 有:

这相当于有一个HyperPlane作为决策边界,属于的点在这个边界上方.

这种方法属于一种对每一类都建立一个判别函数,并选择最大的函数值作为分类结果的方法.

当然,我们的主题还是要寻求线型决策边界. 事实上, 我们只需要判别函数是线型的,或者此函数的单调变换是线型的即可.

2. Logit Tranformation

Logit变换就是上文中”判别函数的单调变换是线型” 的情况.

下面解释为何这么说.

如同我们已经知道的,逻辑回归的表达式对于2分类来说,有:

那么罗辑回归为什么要有这样一种形式呢? 原因在于由于Logit变换对于来说,是一个monotone的变换.正如前面所说的,如果一个判别函数的monotone的变换结果,是一个关于的线型方程, 那么原始的判别函数所得出的决策边界,也应是线型的.

那么,对于判别函数来说,不妨设有:

则,根据这个假设倒推得出的判别函数$P(G=1|X=x)$应具有线型决策边界.

接下来, 就很容易推出公式(1).

3. Linear Discriminant Analysis

同样对于判别函数来说,可以根据贝叶斯法则变换为:

如果,对于两类来说,我们假设每个类都的似然函数服从 多元正态分布(multivariate Gaussian distribution),即:

结合上述两式,线性判别分析(Linear Discriminant Analysis,LDA)假设所有的类服从的分布,具有相同的协方差矩阵.

可知相应的应为:

可以看出,这是一个关于的线性方程。也就是说,通过一些Constraints,LDA使得判别函数的单调变换是一个关于的线性方程。结合上文,我们知道LDA的决策边界应是线性的。

从公式(2)我们可以看出,对于每一类来说,有线性判别函数:

我们只需找到即可。这就是线性判别分析。

这里,对于来说,我们只需估计他的参数即可. 可采用如下方式进行估计(Full log-likelihood estimates):

4. Logistic Regression

如同第2部分Logit Transformation中所讲的那样,Logistic Regression仅仅是在判别函数的逻辑变换的基础上,假设变换后满足关于的线性关系。

下面主要叙述关于Logistic Regression目标函数的最优化过程。

逻辑回归模型主要通过最大化条件似然来最优化.那么我们的目标函数有如下形式:

where $p_k(x_i;\theta)=P(G=k|X=x_i;\theta)$.

那么,对于参数,二分类情况的条件似然函数如下:

对上式求导可有:

这是一个关于的非线性方程组.我们可以使用Newton-Raphson算法迭代近似求出:

where is Hessian Matrix or Second Derivative.

5. Logistic Regression or LDA?

从Logistic Regression 和LDA的出发点以及假设条件我们可以看出,两者最后的形式都有:

的形式,但是,两者得出这个结果的方式不同.

  • LR直接对于进行假设,Directly有上式的结果.
  • LDA则结合贝叶斯法则,通过对进行假设,然后得出与上式类似的形式的结果.

也就是说, LR对于模型的Assumption更少,适用范围也就更加广泛点.

同时,由于LDA对于的假设,模型参数得出的时候(如,MLE)需要结合一些离决策边界比较远的数据, 也就意味着,LDA对于一些Outliers是不够鲁棒的.

与此同时,LDA关于上述的假设(服从多元正态分布),意味着对于输入数据中,如果有离散的变量存在,理论上来说,会使得模型精确度下降(事实上没那么大区别),而LR则对于观测数据没有任何假设,更SaferRobust.

6. Seperating HyperPlanes

Intuition 本质上来说,无论是LDA或者是LR,都是在估计一个线性的决策边界(hyperplane)来将训练数据分离开来.

主要想法则是,构建一个线性的决策边界,使得尽可能地将数据分为不同的类别.

预备知识 Perceptron: 任何将输入的features经过线性变换输出一个sign的分类器,都称之为感知机.

关于Seperating HyperPlane, 有Rosenblatt’s Perceptron Learning Algorithm:

主要思想: 通过最小化错分数据点同决策边界的距离之和,来寻找一个合适的分割平面. i.e. 最小化:

Done!