首页 > TAG信息列表 > nll

2021-03-21

pytorch四种loss函数 cross_entropy vs nll_loss cross_entropy vs nll_loss 适用于k分类问题 >>> labels = torch.tensor([1, 0, 2], dtype=torch.long) >>> logits = torch.tensor([[2.5, -0.5, 0.1], ... [-1.1, 2.5, 0.0], ...

一些需要注意的细节

1.离散采样不可导问题,使用gumbel采样方式将不可导部分拉出计算图 细节做法https://www.cnblogs.com/initial-h/p/9468974.html 2.关于NLLloss和cross entropy loss 的关系和区别 cross中是计算概率模型输出的概率p和真实的分布之间的交叉熵,NLL是直接求负对数似然,如果交叉熵的使用

NLL_Loss

先放上官方用法 torch.nn.functional.nll_loss(input, target, weight=None, size_average=None, ignore_index=-100, reduce=None, reduction='mean') 一般只赋值前两个张量就可以了。