快捷搜索:  汽车  科技

多重线性回归自变量筛选标准:回归预测RANSAC残差图

多重线性回归自变量筛选标准:回归预测RANSAC残差图数据集下载地址:https://archive.ics.uci.edu/ml/machine-learning-databases/housing/housing.data7、随机森林回归4、如何来评价回归模型5、多项式回归6、决策树回归

在本篇文章中,主要是介绍利用波士顿房价数据来掌握回归预测分析的一些方法。通过本篇文章你可以学习到:

1、可视化数据集的重要特征

2、估计回归模型的系数

3、使用RANSAC拟合高鲁棒性回归模型

4、如何来评价回归模型

5、多项式回归

6、决策树回归

7、随机森林回归

数据集下载地址:https://archive.ics.uci.edu/ml/machine-learning-databases/housing/housing.data

数据特征说明:https://archive.ics.uci.edu/ml/machine-learning-databases/housing/housing.names

多重线性回归自变量筛选标准:回归预测RANSAC残差图(1)

掌握数据的基本情况

多重线性回归自变量筛选标准:回归预测RANSAC残差图(2)

多重线性回归自变量筛选标准:回归预测RANSAC残差图(3)

通过绘制特征的散点图,我们可以发现变量之间的关系。对角线是变量的直方图,可以看出特征的分布情况。通过medv(房价)的直方图可以发现,房价服从正态分布,但是在大于40的部分包含了几个异常值。通过rm(房间数)和medv(房价)的散点图,第四行第五列,呈线性分布。而其他的三个变量与mdv(房价)呈一个非线性分布。

注意:训练一个线性回归模型并不需要自变量或者因变量呈正态分布,正态假设仅适用于某些统计检验和假设检验。

2、系数矩阵

除了通过变量之间的散点图来寻找变量之间的关系,还可以通过变量之间的相关系数来发现变量的关系。相关系数矩阵,常用的有皮尔逊相关系数(Pearson product-moment correlation coefficient,Pearson's r)的方阵,通过它可以来衡量两个特征之间的线性关系。皮尔逊相关系数的取值在[-1 1]范围内,如果r=1,表示两个变量呈正相关,r=0表示两个变量没有关系,r=-1表示两个变量呈负相关。其实,相关系数矩阵就是标准化的协方差矩阵。

多重线性回归自变量筛选标准:回归预测RANSAC残差图(4)

多重线性回归自变量筛选标准:回归预测RANSAC残差图(5)

通过相关系数矩阵可以发现,lstat与medv的相关性最大(-0.74),其次就是rm与medv的相关性最大。通过之前的散点图,也可以说明这一点。

二、常用的线性回归算法

分析rm与medv的线性关系

1、线性回归

多重线性回归自变量筛选标准:回归预测RANSAC残差图(6)

多重线性回归自变量筛选标准:回归预测RANSAC残差图(7)

通过rm与medv数据之间的关系,来拟合一条直线。通过rm与medv的点集可以发现,在周围存在着很多的异常值,异常值对于线性回归模型具有很严重的影响。下面通过RANSAC算法,清除异常值。

2、RANSAC拟合高鲁棒性回归

RANSAC(Random Sample Consenus),它是根据一组包含异常数据的样本数据集,计算出数据的数学模型参数,得到有效样本数据的算法。使用数据的一个子集(内点 Ran)来进行回归模型的拟合。

RANSAC算法的工作流程如下:

1、从数据集中随机抽取样本构建内点集合拟合模型。

2、使用剩余的数据对上一步得到的模型进行测试,并将落在预定公差范围内的样本点增加到内点集合中。

3、使用全部的内点集合数据再次进行模型的拟合。

4、使用内点集合来估计模型的误差。

5、如果模型性能达到了用户设定的特定阈值或者迭代的次数达到了预定的次数,则算法终止,否则重复从第一步开始。

多重线性回归自变量筛选标准:回归预测RANSAC残差图(8)

多重线性回归自变量筛选标准:回归预测RANSAC残差图(9)

三、线性回归模型性能的评估

1、残差图

通过绘制残差图能够直观的发现真实值与预测值之间的差异或垂直距离,通过真实值与预测值之间的差异来对回归模型进行评估。残差图可以作为图形分析方法,可以对回归模型进行评估、获取模型的异常值,同时还可以检查模型是否是线性的,以及误差是否随机分布。

多重线性回归自变量筛选标准:回归预测RANSAC残差图(10)

多重线性回归自变量筛选标准:回归预测RANSAC残差图(11)

最好的模型预测结果的残差为0,在实际应用中,这种情况是不可能发生的。但是,对于一个好的模型,我们期望误差是随机分布的,同时残差也是在y=0水平线附近波动。通过残差图也可以发现异常值,偏离y=0比较远的点。

2、均方误差(MSE)

均方误差(Mean Squared Error,MSE):真实值与预测值差的平方和的平均值,计算公式如下

多重线性回归自变量筛选标准:回归预测RANSAC残差图(12)

多重线性回归自变量筛选标准:回归预测RANSAC残差图(13)

除了均方误差之外,还可以通过绝对值误差来衡量模型的性能。

3、决定系数R^2

在某些情况下决定系数(coefficient of determination)R^2非常重要,可以将其看成一个MSE标准化版本,R^2是模型捕获响应方差的分数。对于训练集来说,R^2的取值范围为[0 1],对于测试集来说,R^2取值可能为负。如果R^2越接近与1表明其模型的性能越好。R^2计算公式如下:

多重线性回归自变量筛选标准:回归预测RANSAC残差图(14)

多重线性回归自变量筛选标准:回归预测RANSAC残差图(15)

四、非线性回归

1、多项式回归

对于不满足线性回归,可以通过加入多项式来使用多项式回归。

多重线性回归自变量筛选标准:回归预测RANSAC残差图(16)

前面通过散点图绘制了四个特征与房价之前关系,发现lstat与房价之间呈现一个非线性关系,我们分别使用线性回归于多项式回归来拟合lstat与房价之间的线性关系,对比R^2的变化。

多重线性回归自变量筛选标准:回归预测RANSAC残差图(17)

多重线性回归自变量筛选标准:回归预测RANSAC残差图(18)

2、特征转换

对于这种非线性回归除了使用多项式回归还可以使用log回归。对于lstat与medv之间的关系,可以先将lstat进行log对数转换,medv进行平方根转换之后再使用线性回归。

多重线性回归自变量筛选标准:回归预测RANSAC残差图(19)

多重线性回归自变量筛选标准:回归预测RANSAC残差图(20)

通过上图可以发现,将特征转换之后由原来的非线性关系变成了线性关系,而且R^2比多项回归的结果还要好。

3、随机森林

随机森林是一种集成算法,它是通过组合多颗决策树。能够降低模型的方差,与单颗决策树相比,随机森林通常具有更好的泛化性能。它对数据集中的异常值不敏感,不需要过多的参数调优。

多重线性回归自变量筛选标准:回归预测RANSAC残差图(21)

猜您喜欢: