其他分享
首页 > 其他分享> > R语言实战应用精讲50篇(二)-多重线性回归系列之稳健回归

R语言实战应用精讲50篇(二)-多重线性回归系列之稳健回归

作者:互联网

前言

线性回归的参数估计主要采用的是最小二乘法(又称最小平方法),该法是将使观测值与模型预测值之差的平方达到最小的值作为参数估计值。如果数据存在异常点或者异方差,最小二乘法估计会存在偏差,常用的处理策略就是改用稳健回归(Robust Regression)。

稳健回归就是采用更为稳健的参数估计方法来拟合模型,所谓稳健就是数据的波动对参数估计影响不大,比如不受异常值影响,或删除某一观测后对结果影响不大。稳健估计的方法有很多,主要有这么几类:最小绝对值回归(也称最小一乘法回归,lAV),最小中位数二乘法(LMS)、最小截尾二乘法(LTS)、M估计、S估计、MM估计,这些方法在R的软件包{robustbase}均有提供。在这些方法中既能保证高的估计效率,崩溃点又可以接受的是MM法。

R中提供了大量的稳健估计方法,可参见介绍https://CRAN.R-project.org/view=Robust

常用函数

在线性回归的稳健估计中,能实现高效率高崩溃点估计的常用函数有rlm{MASS}lmrob{robustbase}lmRob{robust},但因具体算法有差异,结果也会不同。

lmrob() (robustbase) and lmRob() (robust) where the former uses the latest of the fast-S algorithms and heteroscedasticity and

标签:回归,最小,50,估计,robustbase,精讲,稳健,乘法
来源: https://blog.csdn.net/wenyusuran/article/details/115076498