其他分享
首页 > 其他分享> > 《机器学习》 西瓜书习题 第 2 章

《机器学习》 西瓜书习题 第 2 章

作者:互联网

习题

  如果划分要保证正例和反例一样多的话, 那么划分方式数量 \(n\) 有
\[\begin{aligned} n &= C^{500\times35\%}_{500}\times C_{500}^{500\times 35\%}\\ &=(C^{175}_{500})^{2} \end{aligned}\]
  如果不考虑的话则有
\[n = C^{500\times 70\%}_{500}=C^{350}_{500}\]


   \(10\) 折交叉验证, 我们认为划分是随意的, 那么根据对称性可知, 对于每个子集来说正例更多的概率为 \(\frac{1}{2}\) , 反例也是一样, 所以预测测试集相当于随机预测, 即错误率为 \(50\%\) .
  而留一法要么选择一个正例作为测试集, 要么选择一个反例, 无论是哪一种, 总会预测与测试集相反的结果, 即正确率为 \(0\%\) .
  这告诉我们留一法并不一定比交叉验证法更 '好' . 而要看具体情况选择要划分为几个子集 (即几折交叉验证, 而留一法只是交叉验证法的特例, 即子集数等于样本数, 每个子集包含一个样本) .


  \(F1\) 值和 \(BEP\) 并没有必然联系, 很容易就可以找出一个反例.


根据表
\(2.1\) 分类结果混淆矩阵
|预测结果
真实情况|正例|反例|
|:-:|:-:|:-:|
|正例|\(TP\) (真正例)|\(FN\) (假反例)|
|反例|\(FP\) (假正例)|\(TN\) (假反例)|
则有
\[\begin{aligned} TPR = \frac{TP}{TP+TN}\\ FPR = \frac{FP}{FP + FN}\\ P = \frac{TP}{TP + FP}\\ R = \frac{TP}{TP + FN} \end{aligned}\]


\[\begin{aligned} \ell_{rank} = \frac{1}{m^+m^-}\sum_{\boldsymbol{x}^+\in D^+}\sum_{\boldsymbol{x}^-\in D^-}\Big(\mathbb{I}\big(f(\boldsymbol{x^+}) < f(\boldsymbol{x^-})\big)+\frac{1}{2}\mathbb{I}\big(f(\boldsymbol{x^+})=f(\boldsymbol{x^-})\big)\Big)\\ (2.21) \end{aligned}\]

标签:西瓜,机器,boldsymbol,反例,TP,frac,习题,aligned,500
来源: https://www.cnblogs.com/cloud--/p/12122258.html