其他分享
首页 > 其他分享> > 【每日一更】<吴恩达-机器学习>逻辑回归 - 分类问题

【每日一更】<吴恩达-机器学习>逻辑回归 - 分类问题

作者:互联网

目录

一、Logistic Regression - Classification:

二、 Hypothesis Regresentation - 假设陈述:

三、Decision boundary - 决策边界:

四、Cost Function - 损失函数:


一、Logistic Regression - Classification:

        logistic回归虽然带着回归两字却和线性回归有很大的区别,线性回归主要用于预测问题,其输出值为连续变量,而logistic回归主要用于分类问题,其输出值为离散值。logistic回归可以用于多元分类问题,也可以用于二元分类问题,但二元分类更为常用。因此本文只介绍二元分类的应用。

先来看一些logistic回归的基本东西,logistic回归的假设函数为:,因为 .因此

        其中称为S型函数(sigmoid function)或者逻辑函数(logistic function),其函数图像如图所示:

从函数图像中很容易观察出 ,即 。

        使用线性回归对于分类问题存在着一定的问题!线性回归用来解决分类问题时,稳定性差。当样本分布比较复杂时,线性回归无法做到准确的分类。


二、 Hypothesis Regresentation - 假设陈述:

        sigmoid函数也叫Logistic函数,用于隐层神经元输出,取值范围为(0,1),它可以将一个实数映射到(0,1)的区间,可以用来做二分类。 

        举个例子:对于肿瘤数据集,假设其中一个特征为肿瘤的尺寸,结果为{恶性,良性}。假设  即肿瘤为恶性的概率为0.7,因此 ,即在给定的条件下y=1的概率。对于二元分类问题, 。 


三、Decision boundary - 决策边界:

        所谓决策边界就是能够把样本正确分类的一条边界,主要有线性决策边界(linear decision boundaries)和非线性决策边界(non-linear decision boundaries)。注意:决策边界是假设函数的属性,由参数决定,而不是由数据集的特征决定。


四、Cost Function - 损失函数:

这里提出了一个问题:如何去选择参数 \theta ?

标签:吴恩达,机器,函数,回归,分类,逻辑,logistic,线性,边界
来源: https://blog.csdn.net/weixin_52058417/article/details/121983242