0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

深度学习的19种损失函数你了解吗?带你详细了解

Dbwd_Imgtec 来源:未知 作者:CSDN mingo_敏 2019-09-14 10:34 次阅读

损失函数通过torch.nn包实现

基本用法

criterion = LossCriterion() #构造函数有自己的参数loss = criterion(x, y) #调用标准时也有参数19种损失函数

1. L1范数损失 L1Loss

计算 output 和 target 之差的绝对值。

torch.nn.L1Loss(reduction='mean')参数:

reduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss的和。默认:mean。

2.均方误差损失 MSELoss

计算 output 和 target 之差的均方差。

torch.nn.MSELoss(reduction='mean')参数:

reduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss的和。默认:mean。

3. 交叉熵损失 CrossEntropyLoss

当训练有 C 个类别的分类问题时很有效. 可选参数 weight 必须是一个1维 Tensor, 权重将被分配给各个类别. 对于不平衡的训练集非常有效。

在多分类任务中,经常采用 softmax 激活函数+交叉熵损失函数,因为交叉熵描述了两个概率分布的差异,然而神经网络输出的是向量,并不是概率分布的形式。所以需要 softmax激活函数将一个向量进行“归一化”成概率分布的形式,再采用交叉熵损失函数计算 loss。

torch.nn.CrossEntropyLoss(weight=None,ignore_index=-100, reduction='mean')参数:

weight (Tensor, optional) – 自定义的每个类别的权重. 必须是一个长度为 C 的 Tensor ignore_index (int, optional) – 设置一个目标值, 该目标值会被忽略, 从而不会影响到 输入的梯度。 reduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss的和。默认:mean。

4. KL 散度损失 KLDivLoss

计算 input 和 target 之间的 KL 散度。KL 散度可用于衡量不同的连续分布之间的距离, 在连续的输出分布的空间上(离散采样)上进行直接回归时 很有效.

torch.nn.KLDivLoss(reduction='mean')参数:

reduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss的和。默认:mean。

5. 二进制交叉熵损失 BCELoss二分类任务时的交叉熵计算函数。用于测量重构的误差, 例如自动编码机. 注意目标的值 t[i] 的范围为0到1之间.

torch.nn.BCELoss(weight=None, reduction='mean')参数:

weight (Tensor, optional) – 自定义的每个 batch 元素的 loss 的权重. 必须是一个长度为 “nbatch” 的 的 Tensor

6. BCEWithLogitsLoss

BCEWithLogitsLoss损失函数把 Sigmoid 层集成到了 BCELoss 类中。该版比用一个简单的 Sigmoid 层和 BCELoss 在数值上更稳定,因为把这两个操作合并为一个层之后, 可以利用 log-sum-exp 的 技巧来实现数值稳定。

torch.nn.BCEWithLogitsLoss(weight=None, reduction='mean', pos_weight=None)参数:

weight (Tensor, optional) – 自定义的每个 batch 元素的 loss 的权重. 必须是一个长度 为 “nbatch” 的 Tensor

7. MarginRankingLoss

torch.nn.MarginRankingLoss(margin=0.0,reduction='mean')对于 mini-batch(小批量) 中每个实例的损失函数如下:

参数:

margin:默认值0

8. HingeEmbeddingLoss

torch.nn.HingeEmbeddingLoss(margin=1.0, reduction='mean')对于 mini-batch(小批量) 中每个实例的损失函数如下:


参数:

margin:默认值1

9. 多标签分类损失 MultiLabelMarginLoss

torch.nn.MultiLabelMarginLoss(reduction='mean')对于mini-batch(小批量) 中的每个样本按如下公式计算损失:

10 平滑版L1损失 SmoothL1Loss

也被称为 Huber 损失函数。

torch.nn.SmoothL1Loss(reduction='mean')


其中

11. 2分类的logistic损失 SoftMarginLoss

torch.nn.SoftMarginLoss(reduction='mean')

12. 多标签 one-versus-all 损失 MultiLabelSoftMarginLoss

torch.nn.MultiLabelSoftMarginLoss(weight=None, reduction='mean')

13. cosine 损失 CosineEmbeddingLoss

torch.nn.CosineEmbeddingLoss(margin=0.0, reduction='mean')


参数:

margin:默认值0

14. 多类别分类的hinge损失 MultiMarginLoss

torch.nn.MultiMarginLoss(p=1, margin=1.0, weight=None, reduction='mean')


参数:

p=1或者2 默认值:1
margin:默认值1

15. 三元组损失 TripletMarginLoss

和孪生网络相似,具体例子:给一个A,然后再给B、C,看看B、C谁和A更像。

torch.nn.TripletMarginLoss(margin=1.0, p=2.0, eps=1e-06, swap=False, reduction='mean')
其中:

16. 连接时序分类损失 CTCLoss

CTC连接时序分类损失,可以对没有对齐的数据进行自动对齐,主要用在没有事先对齐的序列化数据训练上。比如语音识别、ocr识别等等。

torch.nn.CTCLoss(blank=0, reduction='mean')参数:

reduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss的和。默认:mean。

17. 负对数似然损失 NLLLoss负对数似然损失. 用于训练 C 个类别的分类问题.

torch.nn.NLLLoss(weight=None, ignore_index=-100, reduction='mean')参数:

weight (Tensor, optional) – 自定义的每个类别的权重. 必须是一个长度为 C 的 Tensor ignore_index (int, optional) – 设置一个目标值, 该目标值会被忽略, 从而不会影响到 输入的梯度.

18.NLLLoss2d

对于图片输入的负对数似然损失. 它计算每个像素的负对数似然损失.

torch.nn.NLLLoss2d(weight=None, ignore_index=-100, reduction='mean')参数:

weight (Tensor, optional) – 自定义的每个类别的权重. 必须是一个长度为 C 的 Tensor reduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss的和。默认:mean。

19. PoissonNLLLoss目标值为泊松分布的负对数似然损失

torch.nn.PoissonNLLLoss(log_input=True, full=False, eps=1e-08, reduction='mean')参数:

log_input (bool, optional) – 如果设置为 True , loss 将会按照公 式 exp(input) - target * input 来计算, 如果设置为 False , loss 将会按照 input - target * log(input+eps) 计算. full (bool, optional) – 是否计算全部的 loss, i. e. 加上 Stirling 近似项 target * log(target) - target + 0.5 * log(2 * pi * target). eps (float, optional) – 默认值: 1e-8

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 函数
    +关注

    关注

    3

    文章

    3866

    浏览量

    61308
  • 深度学习
    +关注

    关注

    73

    文章

    5236

    浏览量

    119899

原文标题:深度学习19种损失函数,你认识几个?

文章出处:【微信号:Imgtec,微信公众号:Imagination Tech】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    ThinkPad T41拆解:带你全面了解ThinkPad

    ThinkPad T41拆解:带你全面了解ThinkPad,这个很详细哦。
    发表于 07-18 17:00 8.5w次阅读
    ThinkPad T41拆解:<b class='flag-5'>带你</b>全面<b class='flag-5'>了解</b>ThinkPad

    详细了解回调函数

    下面我们先介绍预备知识 typedef的用法和函数指针的学习
    发表于 08-06 08:01

    详细了解下ups的相关计算

    关于ups方面的计算有很多,ups无论是接空开,还是连接电缆,以及选择电池,都可能需要计算它的电流或功率等,那么今天我们来详细了解下ups的相关计算。一、UPS电源及电流一、高频ups与工频ups
    发表于 11-16 09:08

    详细了解一下STM32F1的具体电路参数

    最近笔者在使用STM32时,需要详细了解一下F1的具体电路参数。于是查看其官方数据手册,结果记录如下。绝对最大额度值一般工作条件表中的FT指5V 耐压。可以在引脚定义表格中看到。I/O端口特性(逻辑电平)在最后一个表格中还可以看到STMF103芯片内部的上/下拉电阻的阻值为40k。...
    发表于 01-18 07:07

    带你深入了解光耦

    电子发烧友网带你深入了解光耦相关知识,讲述光耦的作用,光耦原理及各种光耦型号和替代型号,让大家全面了解光电耦合器
    发表于 03-16 16:43
    <b class='flag-5'>带你</b>深入<b class='flag-5'>了解</b>光耦

    通过 iftop、 nethogs 和 vnstat 详细了解你的网络连接状态

    通过 iftop、 nethogs 和 vnstat 详细了解你的网络连接状态。
    的头像 发表于 01-27 21:10 2.1w次阅读
    通过 iftop、 nethogs 和 vnstat <b class='flag-5'>详细了解</b>你的网络连接状态

    TI官网的中文详细概述带你了解TI官网用处

    本文的主要内容介绍的是TI的官网中文详细概述带你了解TI官网用处
    发表于 04-23 15:39 43次下载
    TI官网的中文<b class='flag-5'>详细</b>概述<b class='flag-5'>带你</b><b class='flag-5'>了解</b>TI官网用处

    深度学习是什么?了解深度学习难吗?让你快速了解深度学习的视频讲解

    深度学习是什么?了解深度学习难吗?让你快速了解深度
    发表于 08-23 14:36 16次下载

    快速了解神经网络与深度学习的教程资料免费下载

    本文档的详细介绍的是快速了解神经网络与深度学习的教程资料免费下载主要内容包括了:机器学习概述,线性模型,前馈神经网络,卷积神经网络,循环神经
    发表于 02-11 08:00 25次下载
    快速<b class='flag-5'>了解</b>神经网络与<b class='flag-5'>深度</b><b class='flag-5'>学习</b>的教程资料免费下载

    了解IC内部结构吗本文带你深入了解

    本文档的主要内容详细介绍的是IC内部结构 你了解IC内部结构吗本文带你深入了解
    的头像 发表于 03-09 11:33 1.1w次阅读
    你<b class='flag-5'>了解</b>IC内部结构吗本文<b class='flag-5'>带你</b>深入<b class='flag-5'>了解</b>

    深度学习到底是什么卷积神经网络的结构你了解

    在很多人眼里,深度学习是一个非常神奇的技术,是人工智能的未来,是机器学习的圣杯。今天大恒图像带您一起揭开他神秘的面纱,了解什么才是深度
    的头像 发表于 04-20 09:36 3153次阅读

    机器学习深度学习中分类与回归常用的几种损失函数

    本文将介绍机器学习深度学习中分类与回归常用的几种损失函数,包括均方差损失 Mean Squar
    的头像 发表于 10-09 16:36 5908次阅读
    机器<b class='flag-5'>学习</b>和<b class='flag-5'>深度</b><b class='flag-5'>学习</b>中分类与回归常用的几种<b class='flag-5'>损失</b><b class='flag-5'>函数</b>

    带你深入了解示波器

    带你深入了解示波器
    发表于 02-07 14:26 18次下载

    物联网是什么,一文带你了解物联网

    一篇文章带你了解物联网
    的头像 发表于 03-23 14:16 3353次阅读

    一文详细了解OpenHarmony新图形框架

    3月30日,OpenHarmony v3.1 Release版本正式发布了。此版本为大家带来了全新的图形框架,实现了UI框架显示、多窗口、流畅动画等基础能力,夯实了OpenHarmony系统能力基座。下面就带大家详细了解新图形框架。
    的头像 发表于 04-27 13:21 1668次阅读
    一文<b class='flag-5'>详细了解</b>OpenHarmony新图形框架