哈工大2022机器学习实验二:逻辑回归

本实验要求利用逻辑回归(Logistic Regression),对生成的数据进行二分类。首先我们先回顾一下逻辑回归的基本原理:

逻辑回归

逻辑回归,又意译为对率回归(周志华《机器学习》),虽然它的名字中带“回归”,但它是一个分类模型。它的基本思想是直接估计条件概率

P

(

Y

X

)

P(Y|X)

P(YX)的表达式,即给定样本

X

=

x

X=x

X=x(这里

x

x

x是一个

d

d

d维列向量),其属于类别

Y

Y

Y的概率(这里研究的是二分类问题,

Y

Y

Y的取值只有

0

,

1

0,1

0,1

1

1

1表示正例,

0

0

0表示反例)。利用贝叶斯公式,可以得到给定样本,其为正例的概率

P

(

Y

=

1

X

=

x

)

=

P

(

X

=

x

Y

=

1

)

P

(

Y

=

1

)

P

(

X

=

x

)

=

P

(

X

=

x

Y

=

1

)

P

(

Y

=

1

)

P

(

X

=

x

Y

=

1

)

P

(

Y

=

1

)

+

P

(

X

=

x

Y

=

0

)

P

(

Y

=

0

)

=

1

1

+

P

(

X

=

x

Y

=

0

)

P

(

Y

=

0

)

P

(

X

=

x

Y

=

1

)

P

(

Y

=

1

)

begin{aligned}P(Y=1|X=x)&= frac {P(X=x|Y=1)P(Y=1)}{P(X=x)}\ &=frac{P(X=x|Y=1)P(Y=1)}{P(X=x|Y=1)P(Y=1)+P(X=x|Y=0)P(Y=0)}\ &=frac{1}{1+frac{P(X=x|Y=0)P(Y=0)}{P(X=x|Y=1)P(Y=1)}}\ end{aligned}

P(Y=1∣X=x)=P(X=x)P(X=xY=1)P(Y=1)=P(X=xY=1)P(Y=1)+P(X=xY=0)P(Y=0)P(X=xY=1)P(Y=1)=1+P(X=xY=1)P(Y=1)P(X=xY=0)P(Y=0)1
在这个式子中有两类式子需要我们已知:类别先验

P

(

Y

=

y

)

P(Y=y)

P(Y=y)和条件分布

P

(

X

Y

)

P(X|Y)

P(XY).这也是逻辑回归做出的最基本假设:

(1)类别先验服从伯努利分布

B

(

1

,

p

)

,

B(1,p),

B(1,p),即一个样本有

p

p

p的概率为正例。
(2)类内样本服从正态分布

N

(

μ

,

Σ

)

.

N(mu,Sigma).

N(μ,Σ).具体地说,正例样本服从

N

(

μ

1

,

Σ

1

)

N(mu_1,Sigma_1)

N(μ1,Σ1);反例样本服从

N

(

μ

0

,

Σ

0

)

N(mu_0,Sigma_0)

N(μ0,Σ0)。特别地,我们要求两类样本的协方差矩阵相同,即

Σ

1

=

Σ

0

=

Σ

.

Sigma_1=Sigma_0=Sigma.

Σ1=Σ0=Σ.之后我们就都用

Σ

Sigma

Σ这一个符号代表协方差矩阵。

(注:

n

n

n维正态分布

N

(

μ

,

Σ

)

N(mu,Sigma)

N(μ,Σ)的概率密度

p

(

x

)

=

1

(

2

π

)

n

/

2

Σ

1

/

2

exp

{

1

2

(

x

μ

)

T

Σ

1

(

x

μ

)

}

p(x)=frac{1}{(2pi)^{n/2}|Sigma|^{1/2}}exp{-frac12(x-mu)^TSigma^{-1}(x-mu)}

p(x)=(2π)n/2∣Σ1/21exp{21(xμ)TΣ1(xμ)}

顺着上面两条假设,我们可以继续推导。我们在这里用正态分布的概率密度来代替概率(这个推导在概率论中不是那么严谨,但概率密度的大小可以一定程度上反映样本分布在该点的概率大小。)

P

(

Y

=

1

X

=

x

)

=

1

1

+

P

(

X

=

x

Y

=

0

)

P

(

Y

=

0

)

P

(

X

=

x

Y

=

1

)

P

(

Y

=

1

)

=

1

1

+

exp

{

1

2

(

x

μ

0

)

T

Σ

1

(

x

μ

0

)

}

exp

{

1

2

(

x

μ

1

)

T

Σ

1

(

x

μ

1

)

}

p

1

p

=

1

1

+

exp

{

(

μ

0

μ

1

)

T

Σ

1

x

+

1

2

(

μ

1

T

Σ

1

μ

1

μ

0

T

Σ

1

μ

0

)

}

p

1

p

begin{aligned}P(Y=1|X=x)&=frac{1}{1+frac{P(X=x|Y=0)P(Y=0)}{P(X=x|Y=1)P(Y=1)}}\ &=frac{1}{1+frac{exp{-frac12(x-mu_0)^TSigma^{-1}(x-mu_0)}}{exp{-frac12(x-mu_1)^TSigma^{-1}(x-mu_1)}}cdotfrac{p}{1-p}}\ &=frac{1}{1+exp{(mu_0-mu_1)^TSigma^{-1}x+frac12(mu_1^TSigma^{-1}mu_1-mu_0^{T}Sigma^{-1}mu_0)}cdotfrac{p}{1-p}} end{aligned}

P(Y=1∣X=x)=1+P(X=xY=1)P(Y=1)P(X=xY=0)P(Y=0)1=1+exp{21(xμ1)TΣ1(xμ1)}exp{21(xμ0)TΣ1(xμ0)}1pp1=1+exp{(μ0μ1)TΣ1x+21(μ1TΣ1μ1μ0TΣ1μ0)}1pp1
上式2~3行就是把两个指数相除,把项展开整理了一下。我们把结果中的

p

1

p

frac{p}{1-p}

1pp也改写成指数形式:

p

1

p

=

exp

ln

(

p

1

p

)

frac{p}{1-p}=exp ln(frac{p}{1-p})

1pp=expln(1pp)
再整理一下

P

(

Y

=

1

X

=

x

)

,

P(Y=1|X=x),

P(Y=1∣X=x),得到

P

(

Y

=

1

X

=

x

)

=

1

1

+

exp

{

(

μ

0

μ

1

)

T

Σ

1

x

+

1

2

(

μ

1

T

Σ

1

μ

1

μ

0

T

Σ

1

μ

0

)

+

ln

p

1

p

}

P(Y=1|X=x)=frac{1}{1+exp{(mu_0-mu_1)^TSigma^{-1}x+frac12(mu_1^TSigma^{-1}mu_1-mu_0^{T}Sigma^{-1}mu_0)+lnfrac{p}{1-p}}}

P(Y=1∣X=x)=1+exp{(μ0μ1)TΣ1x+21(μ1TΣ1μ1μ0TΣ1μ0)+ln1pp}1
这时我们设

w

=

(

Σ

1

)

T

(

μ

0

μ

1

)

=

(

w

1

,

w

2

,

.

.

.

,

w

d

)

T

R

d

×

1

,

b

=

1

2

(

μ

1

T

Σ

1

μ

1

μ

0

T

Σ

1

μ

0

)

+

ln

p

1

p

R

,

w=(Sigma^{-1})^T(mu_0-mu_1)=(w_1,w_2,...,w_d)^T in mathbb{R}^{dtimes 1},\ b=frac12(mu_1^TSigma^{-1}mu_1-mu_0^{T}Sigma^{-1}mu_0)+lnfrac{p}{1-p}in mathbb R,

w=(Σ1)T(μ0μ1)=(w1,w2,...,wd)TRd×1,b=21(μ1TΣ1μ1μ0TΣ1μ0)+ln1ppR,
就得到了逻辑回归最经典的形式

P

(

Y

=

1

X

=

x

)

=

1

1

+

exp

(

w

T

x

+

b

)

.

P(Y=1|X=x)=frac{1}{1+exp(w^Tx+b)}.

P(Y=1∣X=x)=1+exp(wTx+b)1.
很多地方会把正例的条件概率写为

P

(

Y

=

1

X

=

x

)

=

exp

(

w

T

x

+

b

)

1

+

exp

(

w

T

x

+

b

)

=

1

1

+

exp

(

(

w

T

x

+

b

)

)

,

P(Y=1|X=x)=frac{exp(w^Tx+b)}{1+exp(w^Tx+b)}=frac{1}{1+exp(-(w^Tx+b))},

P(Y=1∣X=x)=1+exp(wTx+b)exp(wTx+b)=1+exp((wTx+b))1,
这两种写法实质上表示是等价的,只要把第一个式子上下同乘

exp

(

w

T

x

b

)

exp(-w^Tx-b)

exp(wTxb),再用

w

=

w

,

b

=

b

w'=-w,b'=-b

w=w,b=b代换即可。为了后面推导的形式简便,我们采用第二种。(即分子上也带

exp

exp

exp的写法,这也是为什么Sigmoid函数

f

(

z

)

=

1

1

+

e

z

f(z)=frac{1}{1+e^{-z}}

f(z)=1+ez1被用在这里)

整理一下我们得到的结论:假设正反两类样本(

d

d

d维)满足:

(1)类别先验服从伯努利分布

B

(

1

,

p

)

,

B(1,p),

B(1,p),即一个样本有

p

p

p的概率为正例;
(2)正例样本服从

N

(

μ

1

,

Σ

)

N(mu_1,Sigma)

N(μ1,Σ);反例样本服从

N

(

μ

0

,

Σ

)

N(mu_0,Sigma)

N(μ0,Σ)

那么我们可以得到,给定样本

X

=

x

=

(

x

1

,

x

2

,

.

.

.

,

x

d

)

T

,

X=x=(x_1,x_2,...,x_d)^T,

X=x=(x1,x2,...,xd)T,其属于正反两类的概率形如

P

(

Y

=

1

X

=

x

)

=

exp

(

w

T

x

+

b

)

1

+

exp

(

w

T

x

+

b

)

,

P(Y=1|X=x)=frac{exp(w^Tx+b)}{1+exp(w^Tx+b)},

P(Y=1∣X=x)=1+exp(wTx+b)exp(wTx+b),

P

(

Y

=

0

X

=

x

)

=

1

1

+

exp

(

w

T

x

+

b

)

.

P(Y=0|X=x)=frac{1}{1+exp(w^Tx+b)}.

P(Y=0∣X=x)=1+exp(wTx+b)1.
容易得到,

P

(

Y

=

1

X

=

x

)

>

P

(

Y

=

0

X

=

x

)

P(Y=1|X=x)>P(Y=0|X=x)

P(Y=1∣X=x)>P(Y=0∣X=x)的条件为

exp

(

w

T

x

+

b

)

>

1

exp(w^Tx+b)>1

exp(wTx+b)>1

w

T

x

+

b

>

0.

w^Tx+b>0.

wTx+b>0.因此我们的分界面是线性的,即

w

T

x

+

b

=

0.

w^Tx+b=0.

wTx+b=0.

因此,逻辑回归的任务就是在数据集

X

,

Y

X,Y

X,Y

Y

Y

Y为每个样本对应的类别)上学习参数

w

w

w

b

b

b,使其得到的概率与数据集最吻合。为了进行学习,我们采用最大似然估计:

w

,

b

=

arg max

w

,

b

i

=

1

N

P

(

X

=

x

i

,

Y

=

y

i

)

=

arg max

w

,

b

i

=

1

N

P

(

Y

=

y

i

X

=

x

i

)

P

(

X

=

x

i

)

begin{aligned} w,b&=argmax_{w,b}prodlimits_{i=1}^{N}P(X=x_i,Y=y_i)\ &=argmax_{w,b}prodlimits_{i=1}^{N}P(Y=y_i|X=x_i)P(X=x_i) end{aligned}

w,b=w,bargmaxi=1NP(X=xi,Y=yi)=w,bargmaxi=1NP(Y=yiX=xi)P(X=xi)
由于

P

(

X

=

x

i

)

P(X=x_i)

P(X=xi)与参数形式无关,可以去掉,即

w

,

b

=

arg max

w

,

b

i

=

1

N

P

(

Y

=

y

i

X

=

x

i

)

w,b=argmax_{w,b}prodlimits_{i=1}^{N}P(Y=y_i|X=x_i)

w,b=w,bargmaxi=1NP(Y=yiX=xi)
为了推导形式简洁,我们把

P

(

Y

=

y

i

X

=

x

i

)

P(Y=y_i|X=x_i)

P(Y=yiX=xi)记为

P

(

Y

=

y

i

X

=

x

i

)

=

y

i

P

(

Y

=

1

X

=

x

i

)

+

(

1

y

i

)

P

(

Y

=

0

X

=

x

i

)

=

y

i

exp

(

w

T

x

+

b

)

+

1

y

i

1

+

exp

(

w

T

x

+

b

)

begin{aligned} P(Y=y_i|X=x_i)&=y_iP(Y=1|X=x_i)+(1-y_i)P(Y=0|X=x_i)\ &=frac{y_iexp(w^Tx+b)+1-y_i}{1+exp(w^Tx+b)} end{aligned}

P(Y=yiX=xi)=yiP(Y=1∣X=xi)+(1yi)P(Y=0∣X=xi)=1+exp(wTx+b)yiexp(wTx+b)+1yi
很容易验证,这个式子与我们得到的结论等价(

y

i

=

1

y_i=1

yi=1时,后一项不起作用;

y

i

=

0

y_i=0

yi=0时,前一项不起作用)。继续推导,得

w

,

b

=

arg max

w

,

b

i

=

1

N

y

i

exp

(

w

T

x

+

b

)

+

1

y

i

1

+

exp

(

w

T

x

+

b

)

=

arg max

w

,

b

i

=

1

N

ln

y

i

exp

(

w

T

x

+

b

)

+

1

y

i

1

+

exp

(

w

T

x

+

b

)

(

取对数不改变最值点

)

=

arg max

w

,

b

i

=

1

N

[

ln

(

y

i

exp

(

w

T

x

+

b

)

+

1

y

i

)

ln

(

1

+

exp

(

w

T

x

+

b

)

)

]

=

arg max

w

,

b

i

=

1

N

[

y

i

(

w

T

x

+

b

)

ln

(

1

+

exp

(

w

T

x

+

b

)

)

]

(

观察第一项与上一项等价,分

y

i

=

0

,

1

讨论

)

=

arg min

w

,

b

i

=

1

N

[

y

i

(

w

T

x

+

b

)

+

l

n

(

1

+

exp

(

w

T

x

+

b

)

)

]

(

取相反数

,

变为

arg min

)

.

begin{aligned}w,b&=argmax_{w,b}prodlimits_{i=1}^{N}frac{y_iexp(w^Tx+b)+1-y_i}{1+exp(w^Tx+b)}\ &=argmax_{w,b}sumlimits_{i=1}^Nlnfrac{y_iexp(w^Tx+b)+1-y_i}{1+exp(w^Tx+b)}(取对数不改变最值点)\ &=argmax_{w,b}sumlimits_{i=1}^N[ln(y_iexp(w^Tx+b)+1-y_i)-ln(1+exp(w^Tx+b))]\ &=argmax_{w,b}sumlimits_{i=1}^N[y_i(w^Tx+b)-ln(1+exp(w^Tx+b))](观察第一项与上一项等价,分y_i=0,1讨论)\ &=argmin_{w,b}sumlimits_{i=1}^N[-y_i(w^Tx+b)+ln(1+exp(w^Tx+b))](取相反数,变为argmin). end{aligned}

w,b=w,bargmaxi=1N1+exp(wTx+b)yiexp(wTx+b)+1yi=w,bargmaxi=1Nln1+exp(wTx+b)yiexp(wTx+b)+1yi(取对数不改变最值点)=w,bargmaxi=1N[ln(yiexp(wTx+b)+1yi)ln(1+exp(wTx+b))]=w,bargmaxi=1N[yi(wTx+b)ln(1+exp(wTx+b))](观察第一项与上一项等价,分yi=0,1讨论)=w,bargmini=1N[yi(wTx+b)+ln(1+exp(wTx+b))](取相反数,变为argmin).
因此,学习

w

,

b

w,b

w,b的任务就变为了最小化关于

w

,

b

w,b

w,b的损失函数(其实就是负对数似然)

l

=

i

=

1

N

[

y

i

(

w

T

x

+

b

)

+

l

n

(

1

+

exp

(

w

T

x

+

b

)

)

]

l=sumlimits_{i=1}^N[-y_i(w^Tx+b)+ln(1+exp(w^Tx+b))]

l=i=1N[yi(wTx+b)+ln(1+exp(wTx+b))]
为了让整体形式更简洁,我们重新设

x

=

(

1

,

x

1

,

x

2

,

.

.

.

,

x

d

)

T

,

β

=

(

b

,

w

1

,

w

2

,

.

.

.

,

w

d

)

T

,

x=(1,x_1,x_2,...,x_d)^T,beta=(b,w_1,w_2,...,w_d)^T,

x=(1,x1,x2,...,xd)T,β=(b,w1,w2,...,wd)T,损失函数变为

l

=

i

=

1

N

[

y

i

β

T

x

+

l

n

(

1

+

e

β

T

x

)

]

.

l=sumlimits_{i=1}^N[-y_ibeta^Tx+ln(1+e^{beta^Tx})].

l=i=1N[yiβTx+ln(1+eβTx)].
该优化问题可以用梯度下降法/牛顿迭代法求解,只需求

l

l

l关于

β

beta

β的偏导数,每次迭代减去该梯度

×

times

×学习率:

l

β

=

i

=

1

N

x

i

(

y

i

exp

(

β

T

x

)

1

+

exp

(

β

T

x

)

)

frac{partial l}{partial beta}=-sumlimits_{i=1}^Nx_i(y_i-frac{exp(beta^Tx)}{1+exp(beta^Tx)})

βl=i=1Nxi(yi1+exp(βTx)exp(βTx))

代码部分

下面我们来实现该过程。本次实验仍然采用python numpy库:

import numpy as np
import matplotlib.pyplot as plt

获取数据集

这次我们需要的数据集应当服从正态分布(见前面的讨论)。我们传入两类样本的均值和协方差,同时可以设置前面提到的类别先验

p

p

p(在代码中为pi),我这里默认设为0.3。此外,为了探究两类样本不满足协方差相同时的结果,我们也留一个可选参数cov2作为反例样本的协方差。

'''
获取二分类问题数据集,两类数据均服从正态分布
- N 数据集大小,默认为100
- pi 正例的比例,默认为0.3
- mean 两类样本的均值,为2 * d 维矩阵,d为正态分布维数
- 例: [[1, 1], [3, 3]]表示正例样本均值为(1, 1), 反例样本为(3, 3)
- cov 协方差矩阵,为d * d维矩阵
- 例: [[1, 0], [0, 1]]
- cov2 用于测试不满足Logistic回归假设(不是朴素贝叶斯假设)时结果。若不传入该参数,两类样本协方差相同;否则cov2代表第二类样本的协方差。
'''
def get_dataset(mean, cov, N = 100, pi = 0.3, cov2 = None):
    mean = np.array(mean, dtype = 'float')
    cov = np.array(cov, dtype = 'float')
    assert mean.shape[0] == 2 and mean.shape[1] == cov.shape[0] and cov.shape[0] == cov.shape[1], '参数不合法!'
    positive = int(N *pi)
    negative = N - positive
    pdata = np.random.multivariate_normal(mean[0], cov, positive)
    ndata = np.random.multivariate_normal(mean[1], cov if cov2 is None else cov2, negative)
    return np.concatenate([pdata, ndata]), np.concatenate([np.ones(positive), np.zeros(negative)])

代码中np.concatenate用于把正例和反例拼接起来。最后返回的数据应该类似于(data, target),其中data形如

X

=

(

x

11

 

 

x

1

d

x

21

 

 

x

2

d

             

x

N

1

 

 

x

N

d

)

,

X=begin{pmatrix}x_{11} cdots x_{1d}\ x_{21} cdots x_{2d}\ vdots vdots\ x_{N1} cdots x_{Nd} end{pmatrix},

X=

x11  x1dx21  x2d             xN1  xNd

,

N

p

Np

Np行的样本(如

N

=

100

,

p

=

0.3

N=100,p=0.3

N=100,p=0.3,那么就是前

30

%

=

30

30%=30

30%=30行)是正例,其余样本为反例。target形如

Y

=

(

y

1

y

2

y

N

)

.

Y=begin{pmatrix}y_1\y_2\vdots\y_Nend{pmatrix}.

Y=

y1y2yN

.
其中前

N

p

Np

Np行为

1

1

1,剩余行为

0

0

0.

梯度下降法

梯度下降法与上一篇博客基本类似。

'''
梯度下降法优化损失函数。
- data 数据集
- target 数据的标签,与数据集一一对应
- max_iteration 最大迭代次数,默认为10000
- lr 学习率,默认为0.05
'''
def GD(data, target, max_iteration = 10000, lr = 0.05):
	# 判断收敛的阈值
    epsilon = 1e-8
    # 意义如上文所述
    N, d = data.shape
    # 意义如上文所述,随机初始化后开始梯度下降
    beta = np.random.randn(d + 1)
    # 因为我们在前面加了一列1
    X = np.concatenate([np.ones((N, 1)), data], axis = 1)

    for i in range(max_iteration):
        term1 = -np.sum(X * target.reshape(N, 1), axis = 0)
        term2 = np.sum((1 / (np.e ** -np.dot(beta, X.T) + 1)).reshape(N, 1) * X, axis = 0)
        grad = term1 + term2
        if np.linalg.norm(grad) < epsilon:
            break
        beta -= lr * grad
    return beta

代码中的梯度(grad = term1 + term2)看上去非常难以理解,一般我们不会故意这么写,但numpy库中内置的函数往往比for循环快很多,所以我们尽可能用内置函数进行矩阵运算。稍微解释一下:我们之前算出来的梯度为

l

β

=

i

=

1

N

x

i

(

y

i

exp

(

β

T

x

i

)

1

+

exp

(

β

T

x

i

)

)

.

frac{partial l}{partial beta}=-sumlimits_{i=1}^Nx_i(y_i-frac{exp(beta^Tx_i)}{1+exp(beta^Tx_i)}).

βl=i=1Nxi(yi1+exp(βTxi)exp(βTxi)).
我们把式子拆成两项:第一项是

i

=

1

N

x

i

y

i

,

-sumlimits_{i=1}^Nx_iy_i,

i=1Nxiyi,其中

x

i

x_i

xi是向量(注意我们补了一列

1

1

1),

y

i

{

0

,

1

}

y_iin{0,1}

yi{0,1};而数据集

X

=

(

x

1

x

2

x

N

)

,

Y

=

(

y

1

y

2

y

N

)

.

X=begin{pmatrix}x_1\x_2\vdots\x_Nend{pmatrix},Y=begin{pmatrix}y_1\y_2\vdots\y_Nend{pmatrix}.

X=

x1x2xN

,Y=

y1y2yN

.
利用numpy*运算将对应行相乘,但在这之前我们需要把

Y

Y

Y变成一个二维数组(利用reshape(N,1)),最后需要对相乘结果按行相加,这在numpy中用np.sum(A, axis=0)表示,这就是代码中term1的来历。

我们再看第二项

i

=

1

N

x

i

exp

(

β

T

x

i

)

1

+

exp

(

β

T

x

i

)

sumlimits_{i=1}^Nx_ifrac{exp(beta^Tx_i)}{1+exp(beta^Tx_i)}

i=1Nxi1+exp(βTxi)exp(βTxi)
(1)首先我们计算

exp

(

β

T

x

)

exp(beta^Tx)

exp(βTx),可以直接用np.dot表示为np.dot(beta, X.T)

(2)然后构造

exp

(

β

T

x

i

)

1

+

exp

(

β

T

x

i

)

frac{exp(beta^Tx_i)}{1+exp(beta^Tx_i)}

1+exp(βTxi)exp(βTxi)这一项,为了防止重复运算我们把它变形成

1

1

+

exp

(

β

T

x

i

)

frac{1}{1+exp(-beta^Tx_i)}

1+exp(βTxi)1,代码中对应1 / (np.e ** -np.dot(beta, X.T) + 1)。注意这个结果是一个

N

N

N维向量,每一维对应一个

x

i

x_i

xi的结果。

(3)之后我们只需要故技重施,把第

i

i

i个分量与

x

i

x_i

xi对应相乘并相加即可,对应到代码中即np.sum((1 / (np.e ** -np.dot(beta, X.T) + 1)).reshape(N, 1) * X, axis = 0).

接下来我们写一个主函数验证结果。为了便于可视化,我们采用

2

2

2维变量,当然为了升高维度只需要调整get_dataset的协方差矩阵维数和均值维数即可(注意形状要对上:均值维数为

2

×

d

,

2times d,

2×d,协方差矩阵维数为

d

×

d

dtimes d

d×d)。主函数如下:

if __name__ == '__main__':
    mean = [[1, 1], [4, 4]]
    cov = np.diag([1, 1])

    data, target = get_dataset(mean, cov)

    beta = GD(data, target, max_iteration = 100000)

    for (x, y), label in zip(data, target):
        plt.scatter(x, y, c = 'red' if label else 'black')

    x = np.linspace(-1, 4)
    '''
    由于beta(d=2)形如(beta[0], beta[1], beta[2]),
    在二维空间中表示分界面为w^T*x+b=0,当x=(1, x, y)时(这里x, y指横纵坐标)
    分界面为beta[0]+beta[1]x+beta[2]y=0,或写成标准一次函数形式
    y=(-beta[1]x -beta[0]) / beta[2].
    '''
    y = (-beta[1] * x - beta[0]) / beta[2]

    plt.plot(x, y)
    plt.show()

其中一次结果如下:
在这里插入图片描述

过拟合&正则项

在训练模型过程中,为了防止模型复杂度过高,就像在最小二乘法中一样,我们也可以加入正则项

λ

w

2

=

λ

w

T

w

lambda||w||^2=lambda w^Tw

λ∣∣w2=λwTw来约束

w

w

w的模长。修改后的梯度下降法只需要加入正则项的梯度即可:

l

β

=

i

=

1

N

x

i

(

y

i

exp

(

β

T

x

i

)

1

+

exp

(

β

T

x

i

)

)

+

2

λ

w

.

frac{partial l}{partial beta}=-sumlimits_{i=1}^Nx_i(y_i-frac{exp(beta^Tx_i)}{1+exp(beta^Tx_i)})+2lambda w.

βl=i=1Nxi(yi1+exp(βTxi)exp(βTxi))+2λw.
其中的系数

2

2

2可以忽略(可以通过调节

λ

lambda

λ得到同样的效果)。修改后的梯度下降法:

'''
梯度下降法优化损失函数。
- data 数据集
- target 数据的标签,与数据集一一对应
- max_iteration 最大迭代次数,默认为1000
- lr 学习率,默认为0.05
- l 正则项系数,默认不加正则项
'''
def GD(data, target, max_iteration = 10000, lr = 0.05, l = 0):
    epsilon = 1e-8
    N, d = data.shape
    beta = np.random.randn(d + 1)
    X = np.concatenate([np.ones((N, 1)), data], axis = 1)

    for i in range(max_iteration):
        term1 = -np.sum(X * target.reshape(N, 1), axis = 0)
        term2 = np.sum((1 / (np.e ** -np.dot(beta, X.T) + 1)).reshape(N, 1) * X, axis = 0)
        regularize = l * beta
        grad = term1 + term2 + regularize
        if np.linalg.norm(grad) < epsilon:
            break
        beta -= lr * grad
    return beta

我们再写两个辅助函数,来检验一下加入正则项后的效果:

# 根据模型beta预测x所属的类, 返回1(正例), 或0(反例)。
def predict(beta, x):
    return 1 if np.dot(beta[1:], x) + beta[0] > 0 else 0
# 评估整个数据集上的效果
def evaluate(beta, data, target):
    cnt = 0
    for x, y in zip(data, target):
        if predict(beta, x) == int(y):
            cnt += 1
    print(f'模型参数: {beta}')
    print(f'模型复杂度(模长): {np.linalg.norm(beta)}')
    print(f'预测准确率: {cnt / len(target)}')

下面是几次的运行结果:

模型参数: [-0.78524378 -3.34318712 -1.86253962] # 未正则化
模型复杂度(模长): 3.906732871506824
预测准确率: 0.95
模型参数: [-0.52418376 -2.10771474 -1.37132344] # 正则化
模型复杂度(模长): 2.56861013046
预测准确率: 0.95
----------------------------------------------
模型参数: [-0.73382186 -5.31193987 -5.03064085] # 未正则化
模型复杂度(模长): 7.352723791057766
预测准确率: 0.96
模型参数: [-0.5065628  -1.75035625 -2.09991419] # 正则化
模型复杂度(模长): 2.7802863999234253
预测准确率: 0.96
----------------------------------------------
模型参数: [-0.44133903 -3.04645754 -2.45359287] # 未正则化
模型复杂度(模长): 3.936470713612132
预测准确率: 0.95
模型参数: [-0.39689499 -1.91437456 -1.63920354] # 正则化
模型复杂度(模长): 2.5513415720325567
预测准确率: 0.96

可以看到正则化显著地降低了模型复杂度(即参数模长)。我们也可以从另一个场景来理解过拟合,这个场景更类似于上次实验中的最小二乘法。我们通过之前的推导,得到了逻辑回归得到的分界面是一个线性分界面(

w

T

x

+

b

=

0

w^Tx+b=0

wTx+b=0)。那么它只能得到(对于原变量的)线性分界面吗?如果我们拿到了如下的数据:
在这里插入图片描述
这个数据是用

y

=

2

x

2

y=2x^2

y=2x2为分界面的。我们能不能用逻辑回归对其进行分类呢?我们如果不做任何处理,得到的分界面形如

a

x

+

b

y

+

c

=

0

ax+by+c=0

ax+by+c=0
这时显然是无法正确分类的。但如果我们主动对数据进行升维,把原来的单个数据

(

x

,

y

)

(x,y)

(x,y)变为

(

x

,

y

,

x

2

)

(x,y,x^2)

(x,y,x2),再应用逻辑回归,得到的分界面当然就形如

a

x

+

b

y

+

c

x

2

+

d

=

0

ax+by+cx^2+d=0

ax+by+cx2+d=0
这说明逻辑回归可以有与二次函数相同的表示能力。我们对这个数据集应用上述思想,得到结果
在这里插入图片描述
满足了我们的要求。这部分的额外代码如下:

def get_dataset_quad(N = 100, pi = 0.3):
    positive = int(N *pi)
    negative = N - positive
    data, target = [], []
    for i in range(positive):
        x = np.random.rand() * 2 - 1
        data.append([x, 2 * x * x + np.random.rand() * 2])
        target.append(1)
    for i in range(negative):
        x = np.random.rand() * 2 - 1
        data.append([x, 2 * x * x - np.random.rand() * 2])
        target.append(0)
    return np.array(data), np.array(target)
    
if __name__ == '__main__':
    mean = [[-1, -1], [1, 1]]
    cov = np.diag([1, 1])

    data, target = get_dataset()
    data = np.concatenate([data, (data[:, 0] ** 2).reshape(data.shape[0], 1)], axis = 1)

    beta = GD(data, target, lr = 0.01, max_iteration = 100000)

    for (x, y, x_2), label in zip(data, target):
        plt.scatter(x, y, c = 'red' if label else 'black')
    
    x = np.linspace(-1, 1)
    y = (-beta[3] * x * x - beta[1] * x - beta[0]) / beta[2]

    plt.plot(x, y)
    plt.show()

上面的例子使我们想到,如果我们拿到一组

d

d

d维数据就对它进行升维,比如把

(

x

1

,

x

2

,

.

.

.

,

x

d

)

(x_1,x_2,...,x_d)

(x1,x2,...,xd)升维成

(

x

1

,

x

2

,

.

.

.

,

x

d

,

x

1

2

,

x

2

2

,

.

.

.

,

x

d

2

)

(x_1,x_2,...,x_d,x_1^2,x_2^2,...,x_d^2)

(x1,x2,...,xd,x12,x22,...,xd2)甚至更高次的函数,那逻辑回归的表示能力不就可以更强大吗?但此时就会遭遇过拟合问题,比如我们对上述的正态分布应用该思想,把

(

x

,

y

)

(x,y)

(x,y)升维成

(

x

,

y

,

x

2

)

(x,y,x^2)

(x,y,x2),得到结果如下:
在这里插入图片描述
我们发现,原本的线性分类面被刻画成了二次函数,凭空增加了模型的复杂度,这是不合适的。因此,我们也可以通过加入正则项来“抑制”模型的表示能力,上图中橙色线就是正则项系数

λ

=

2

lambda=2

λ=2时的情况,可以明显地看出它更接近一条直线。得到上图的代码如下:

if __name__ == '__main__':
    mean = [[-1, -1], [1, 1]]
    cov = np.diag([1, 1])

    data, target = get_dataset(mean, cov)

    data = np.concatenate([data, (data[:, 0] ** 2).reshape(data.shape[0], 1)], axis = 1)

    beta1 = GD(data, target, lr = 0.01, max_iteration = 100000)
    beta2 = GD(data, target, lr = 0.01, max_iteration = 100000, l = 2)

    for (x, y, x_2), label in zip(data, target):
        plt.scatter(x, y, c = 'red' if label else 'black')
    
    x = np.linspace(-3, 3)
    y1 = (-beta1[3] * x * x - beta1[1] * x - beta1[0]) / beta1[2]
    y2 = (-beta2[3] * x * x - beta2[1] * x - beta2[0]) / beta2[2]
    

    plt.plot(x, y1, label = 'GD')
    plt.plot(x, y2, label = 'GD(lambda: 2)')

    plt.legend()
    plt.show()

最后我们再来讨论一下不满足朴素贝叶斯基本假设的情况。朴素贝叶斯假设各变量相互独立,即

Σ

Sigma

Σ为对角阵的情况。然而我们之前的假设并没有假设变量相互独立,所以违反该假设不应该影响我们模型的分类效果(

Σ

Sigma

Σ应当是对称、半正定的,这是多元正态分布的要求)。我们简单地测试一下:

if __name__ == '__main__':
    mean = [[-1, -1], [1, 1]]
    cov = [[1.3, 1], [1, 0.8]]


    data, target = get_dataset(mean, cov)

    beta = GD(data, target, lr = 0.01, max_iteration = 100000)

    for (x, y), label in zip(data, target):
        plt.scatter(x, y, c = 'red' if label else 'black')
    
    x = np.linspace(-3, 3)
    y = (-beta[1] * x - beta[0]) / beta[2]
    

    plt.plot(x, y)

    plt.show()

在这里插入图片描述
理论上,非对角的协方差矩阵让多个变量有了相关性,这种相关性体现在图像上就是对原来的图像进行了旋转,应当不影响分类问题的结果(我们只需要把分界面对应旋转即可)。

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
THE END
分享
二维码
< <上一篇
下一篇>>