在机器学习中,线性回归(Linear regression)是指利用最小二乘法对一个或多个自变量和因变量之间关系进行建模的一种回归分析方法。
线性回归初识
在有监督的机器学习中,根据样本中$label$是离散值还是连续值,将学习问题分为分类问题和回归问题。线性回归主要是根据样本数据的线性加权拟合出一条直线,使得拟合的直线能逼近真实值。线性回归建模后得到的预测值用数学表达式表示为:
注意:线性指的是参数是线性的,样本数据可以是非线性的。
线性回归目标函数
几个概念
中心极限定理
实际问题中,很多随机现象可以看做是众多因素的独立影响的综合反映,往往近似服从正太分布。
最大似然估计
最大似然估计就是利用已知的样本的结果,在使用某个模型的基础之上,反推导致这样结果的参数值。
最小二乘目标函数推导
预测值和真实值之间关系表达式可以表示为如下(其中$\varepsilon^{(i)}$代表的是残差项):
假设数据集中有$m$个样本都是独立同分布的,即假设真实值只和自己样本数据有关,$\varepsilon^{(i)}$服从一定的分布,由于残差项产生的原因可能是由于建模过程中忽略了细微的特征,根据中心极限定理,残差项应该服从正常状态的分布:高斯分布(均值为0,方差为$\sigma^2$)
已知$\varepsilon$服从正太分布,正太分布的参数是移植的,根据最大似然估计,反推$\theta$.
$\varepsilon$服从正太分布,用概率表示为:
似然函数表示为:
对数似然函数表示为:
在上述数学式字当中,$\sigma$是常数,要想求得$l(\theta)$取得最大,则$\frac12\sum_{i=1}^m(y^{(i)}-\theta^Tx^{(i)})^2$需要取得最小值,因此得出最小二乘法的目标函数。
在线性回归中,可以得出损失函数,即所谓的目标函数是:
目标函数计算
线性回归目标函数:
用矩阵形式表示为:
我们的目标是计算在$\theta$取何值时,目标函数$J(\theta)$取得最小值。对于凸函数来说,可以将求最小值问题转化为求驻点问题,对$\theta$求偏导,求等于目标函数的梯度:
求驻点,若$X^TX$可逆,得:
若$X^TX$不可逆或者是防止过拟合加入$\lambda$扰动可得:
补充:
$X^TX$是半正定的,对于任意的非零向量$u$:
加入扰动因子之后,$X^TX+\lambda I$是正定的,正定一定可逆。
修正目标函数:Ridge&LASSO
有的时候,为了使目标函数尽可能的小,利用数据的高阶组合来达到这样的目的,但是这样导致的后果就是系数的值很大,过拟合,为了避免出现过拟合情况,会引入惩罚项因子$\lambda$。
Ridge
Ridge是在优化过程的目标函数中使用L2 penalty,旨在把系数变小一些,但并非完全为0。通俗点理解,就是给原先的目标函数加一个约束条件,让各个系数的平方和小于某一个数(即规定范围为一个圆),求带有约束条件的极小值问题一般用拉格朗日乘子法。最终体现在数学表达式上,就是:
对目标函数求梯度,即可得到之前,加入扰动因子所得到的对$\theta$的估计:
LASSO
LASSO是在优化过程的目标函数中使用L1 penalty。LASSO不同于Ridge,它给原先求得的目标函数加的约束条件,是让各个系数的绝对值小于某一个数(范围是一个菱形),因为约束域有棱有角,所以有些系数会变为0,实现了特征选择的能力。其数学表达式可以为:
Elastic Net
在实际工程上,Ridge在一些评价标准上优于LASSO,但是没有特征选择能力,因此,有人引入Elastic Net,用来折中LASSO和Ridge。数学表达式:
问题1:采用L1 penalty,如何处理梯度呢?
参数和超参数
参数($\theta$)估计:可以根据训练样本求得$\theta$,得到模型。
超参数($\lambda$)选择:超参数就是参数的参数,给了超参数,参数可以求出来,超参数是无法根据样本求得的,人为可以选定候选集。根据超参数候选集,可以得出候选参数,进而可以在验证集上根据某种机器学习的评价指标,比如上一个博客所提到的SSE挑选效果较好的参数所对应的超参数,最终得到模型的参数和超参数。
交叉验证:拿十折交叉验证来说,就是将训练集分为10份,九份用来训练,一份用来验证,每一份样本都会有一次当做验证数据,最终取平均值,来看效果。
梯度下降算法
高维空间中的矩阵逆运算是复杂的,作为机器学习系列的博客,参数可以采用梯度下降算法来不断求得。
算法流程:
- 随机初始化$\theta$
- 沿着梯度方向(在某点增长最快的方向)的负方向不断迭代,使得更新后的目标函数$J(\theta)$更小,$\theta$的更新公式:其中$\alpha$是学习率。
采用梯度下降算法求1-100的平方根,点击代码下载。批量梯度下降
在这个算法中,每次更新需要用到所有的训练样本。更新公式可以表示为:随机梯度下降
在这个算法中,每次更新只用到一个训练样本。更新公式: 随机梯度下降和批量梯度下降都有各自的优缺点,在训练速度方面,随机梯度下降更快,在准确度方面,随机梯度下降导致解很有可能不是最优。因此一个比较这种的方法是mini-batch梯度下降。mini-batch梯度下降
在这个算法中,选用一部分样本的平均梯度作为更新方向。更新公式:LinearModel python版应用代码
更多详细代码请参考个人github代码仓库
https://github.com/MichelleYang2017/BlogCodeLinearRegression 代码
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50import pandas as pd
import matplotlib as mpl
import matplotlib.pyplot as plt
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LinearRegression
import numpy as np
if __name__=='__main__':
filepath='./Data/Advertising.csv'
data=pd.read_csv(filepath)#读取数据
X=data[['TV','Radio','Newspaper']]
y=data['Sales']
#用来显示正常中文标签
mpl.rcParams['font.sans-serif']=['simHei']
#用来显示正常负号
mpl.rcParams['axes.unicode_minus']=False
X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.2,random_state=1)
# print(X_train.shape,X_test.shape)
'''
fit_intercept是否有截距
normalize:是否将数据归一化,减去均值/L2
copy_X:当True时,X将会被copied,否则将X将会被覆写。
n_jobs:默认值为1,指定训练时用的CPU资源。
'''
#LinearRegression(fit_intercept=True,normalize=False,copy_X=True,n_jobs=1)
model=LinearRegression()
#用训练数据拟合模型
model.fit(X_train,y_train)
#输出模型的相关因子和截距
print(model.coef_,model.intercept_)
print(model.get_params())#查看模型的参数
y_hat=model.predict(X_test)
mse=np.average((y_hat-y_test)**2)
rmse=np.sqrt(mse)
print('mse:',mse)
print('rmse',rmse)
print("Train R2=:",model.score(X_train,y_train))#返回R^2
print("Test R2=:",model.score(X_test,y_test))
plt.figure(facecolor='w')
t=np.arange(len(X_test))
plt.plot(t,y_test,'r-',label='真实数据',lw=2)
plt.plot(t,y_hat,'g-',lw=2,label='预测数据')
plt.legend(loc='upper right')
plt.title('线性回归预测销量',fontsize=18)
plt.grid(b=True,ls=':')
plt.show()
Lasso/Ridge代码
1 | import pandas as pd |
补充
矩阵对向量求偏导:
A为$m×n$的矩阵,$\vec x$为$n×1$的列向量,则$A\vec x$为m×1的列向量,记做$\vec y$=$A\vec x$
思考:$\frac{\partial \vec y}{\partial \vec x}=?$首先考虑矩阵$A$先对$x_1$求偏导得到第一行,以此类推一直得到得到第$m$行,因而,
结论推广:
$\frac{\partial A\vec x}{\partial x}=A^T$ $\frac{\partial A\vec x}{\partial x^T}=A$ $\frac{\partial {\vec x}^T A}{\partial x}=A$标量对向量的导数
$A$为$n×n$的对称阵($A^T=A$),$\vec x$为$n×1$的列向量,记做$y$=$A\vec x$,则推导:
则得到如下结论,其中一项可以看做是对第i行的求偏导,一项可以看做是对i列的求偏导:
标量对方阵求导数:
$A$为$n×n$的矩阵,$|A|$为$A$的行列式,计算$\frac{\partial |A|}{A}$.
计算:根据行列式的计算公式,对于$\forall 1\le i\le n$,$|A|=\sum_{j=0}^na_{ij}(-1)^{i+j}M_{ij}$,其中,$M_{ij}$是$a_{ij}$的代数余子式。
则有:并且$A·A*=|A|·I$,从而:$\frac{\partial |A|}{\partial A}=(A^*)^T=|A|(A^{-1})^T$
附录
代表的是样本的特征
代表的是第$n$个样本的$label$,可离散可连续
代表的某个样本中第$i$个数据的参数参考资料
邹博.机器学习
三种梯度下降方式比较
L1 L2范数最优化过程-知乎