其他分享
首页 > 其他分享> > 机器学习:模型评估与选择

机器学习:模型评估与选择

作者:互联网

模型评估与选择

1、经验误差与过拟合

错误率:分类错误的样本数占样本总数的比例。

精度=1-错误率。

误差:学习器的实际预测输出与样本的真实输出之间的差异。

训练误差/经验误差:学习器在训练集上的误差。

泛化误差:在新样本上的误差。

2、评估方法

⭐留出法:直接将数据集划分为两个互斥的集合。

⭐交叉验证法:先将数据集划分为k个大小相似的互斥子集(从数据集中分层采样得到)。每用k-1个子集的并集作为训练集,余下的子集作为测试集,从而进行k次训练和测试,最终返回k个测试结果的均值。k最常用的取值是10。

自助法:给定包含m个样本的数据集D,又放回的重复抽样m次,得到与原始数据集大小相同的样本数据集D'

验证集:模型评估与选择中用于评估测试的数据集。(同一算法不同模型对比)

测试集:对比不同算法的泛化性能。(不同算法对比)

3、性能度量

在回归任务中,即预测连续值的问题,最常用的性能度量是“均方误差”(mean squared error)

在分类任务中,即预测离散值的问题,最常用的是错误率和精度.

3.1 查全率、查准率

错误率和精度虽然常用,但不能满足所有的需求,例如:在推荐系统中,我们只关心推送给用户的内容用户是否感兴趣(即查准率/精确率),或者说所有用户感兴趣的内容我们推送出来了多少(即查全率/召回率)。因此,使用查准/查全率更适合描述这类问题。

3.2 ROC和AUC

“P-R曲线”正是描述查准/查全率变化的曲线,

ROC曲线与P-R曲线十分类似,都是按照排序的顺序逐一按照正例预测,不同的是ROC曲线以“真正例率”(True Positive Rate,简称TPR)为横轴,纵轴为“假正例率”(False Positive Rate,简称FPR),ROC偏重研究基于测试样本评估值的排序好坏。

4、 方差与偏差

以回归任务为例子:

偏差:期望输出与真是标记的差别。刻画了学习算法本身的拟合能力。

方差:同样训练集的变动造成学习性能的变化。刻画了数据扰动所造成的影响。

噪声:当前任务上任何学习算法所能达到的期望泛化误差的下限。刻画的学习本身的难度。

泛化误差可分解为偏差、方差和噪声之和。

标签:误差,机器,错误率,模型,样本,查全率,测试,数据,评估
来源: https://www.cnblogs.com/caolanying/p/16363392.html