记录篇:【百面机器学习】第一章.特征工程---特征归一化
作者:互联网
为什么需要对数值类型的特征做归一化?
为了消除数据特征之间的量纲影响,我们需要对特征进行归一化的处理,使得不同指标之间具有可比性。
例如:分析一个人的身高和体重对健康的影响,如果使用米(m)和千克(kg)作为单位,那么身高特征会在1.6~1.8m的数值范围内,体重特征会在50~100kg的范围内,分析出来的结果显然会倾向于数值差别比较大的体重特征。想要得到更为准确的结果,就需要进行特征归一处理,使各指标处于同一数值量级,以便进行分析。
分析与解答 对数值类型的特征做归一化可以将所有的特征都统一到一个大致相同的数值区间内。最常用的方法主要有以下两种。 ( 1 )线性函数归一化( Min-Max Scaling )。它对原始数据进行线性变换,使结果映射到[0, 1] 的范围,实现对原始数据的等比缩放。 ( 2 )零均值归一化( Z-Score Normalization )。它会将原始数据映射到均值为0、标准差为 1 的分布上。 为什么需要对数值型特征做归一化呢? 我们不妨借助随机梯度下降的实例来 说明归一化的重要性。假设有两种数值型特征,x 1 的取值范围为 [0, 10] , x 2 的取值范围为[0, 3] ,在学习速率相同的情况下,x 1 的更新速度会大于 x 2 ,需要较多的迭代才能找到 最优解。如果将x 1 和 x 2归一化到相同的数值区间后,x 1 和 x 2 的更新速度变得更为一致,容易更快地通过梯度下降找到最优解。 当然,数据归一化并不是万能的。在实际应用中,通过梯度下降法求解的模 型通常是需要归一化的,包括线性回归、逻辑回归、支持向量机、神经网络等模型。但对于决策树模型则并不适用,以C4.5 为例,决策树在进行节点分裂时主要 依据数据集D 关于特征 x 的信息增益比 ,而信息增益比跟特征是否经过归一化是无关的,因为归一化并不会改变样本在特征x 上的信息增益。标签:特征,梯度,数值,---,增益,归一化,百面,原始数据 来源: https://blog.csdn.net/weixin_48592695/article/details/121480062