其他分享
首页 > 其他分享> > ML知识整理

ML知识整理

作者:互联网

CE:Categorical Cross Entropy 多目录交叉熵 BCE:Binary Cross Entropy 二分类交叉熵


在二分类中:类型为1时,越靠近1,loss值越小;同理0也如此

MSE:均方误差 ,均方误差(MSE)是各数据偏离真实值 差值的平方和 的平均数

标签:误差,交叉,ML,知识,Cross,均方,Entropy,整理,MSE
来源: https://www.cnblogs.com/lhx9527/p/15614856.html