首页 > 其他分享> > ML知识整理 ML知识整理 2021-11-28 13:32:04 作者:互联网 CE:Categorical Cross Entropy 多目录交叉熵 BCE:Binary Cross Entropy 二分类交叉熵 在二分类中:类型为1时,越靠近1,loss值越小;同理0也如此 MSE:均方误差 ,均方误差(MSE)是各数据偏离真实值 差值的平方和 的平均数 标签:误差,交叉,ML,知识,Cross,均方,Entropy,整理,MSE 来源: https://www.cnblogs.com/lhx9527/p/15614856.html