0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

训练深度学习神经网络的常用5个损失函数

颖脉Imgtec 2022-10-19 11:17 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

作者:Onepagecode

来源:DeepHub IMBA


神经网络在训练时的优化首先是对模型的当前状态进行误差估计,然后为了减少下一次评估的误差,需要使用一个能够表示错误函数对权重进行更新,这个函数被称为损失函数。

损失函数的选择与神经网络模型从示例中学习的特定预测建模问题(例如分类或回归)有关。在本文中我们将介绍常用的一些损失函数,包括:

回归模型的均方误差损失

二元分类模型的交叉熵和hinge 损失


回归模型的损失函数

回归预测模型主要是用来预测连续的数值。所以我们将使用 scikit-learn的 make_regression() 函数来生成一些模拟数据,并使用这些数据构建回归模型。我们将生成 20 个输入特征:其中 10 个特征将是有意义的,但 10 个与问题无关。并且随机生成 1,000 个示例。并且指定随机种子,所以无论何时运行代码都会生成相同的 1,000 个示例。5df19158-4f29-11ed-b116-dac502259ad0.png将实值输入和输出变量缩放到一个合理的范围通常可以提高神经网络的性能。所以我们要对对数据进行标准化处理。StandardScaler也可以在scikit-learn库中找到,为了简化问题我们将在将所有数据分割为训练集和测试集之前对其进行缩放。5e12361a-4f29-11ed-b116-dac502259ad0.png然后平均分割训练和验证集5e3ed18e-4f29-11ed-b116-dac502259ad0.png为了介绍不同的损失函数,我们将开发一个小型多层感知器(MLP)模型。根据问题定义,有20个特征作为输入,经过我们的模型。需要要预测的一个实值,所以输出层将有一个节点。5e6693a4-4f29-11ed-b116-dac502259ad0.png我们使用SGD进行优化,并且学习率为0.01,动量为0.9,两者都是合理的默认值。训练将进行100个轮,测试集将在每个阶段结束时进行评估,并且绘制学习曲线。5e70881e-4f29-11ed-b116-dac502259ad0.png模型完成后就可以进行损失函数的介绍:MSE回归问题最常使用的是均方误差损失(MSE)。当目标变量的分布为高斯分布时,它是最大似然推理下的首选损失函数。所以只有当你有一个更好的理由时,才应该改变为其他损失函数。如果在 Keras 中编译模型时将“mse”或“mean_squared_error”指定为损失函数,则使用均方误差损失函数。5e9fa84c-4f29-11ed-b116-dac502259ad0.png下面的代码是上述回归问题的完整示例。5eb33b32-4f29-11ed-b116-dac502259ad0.png在运行示例的第一步中,打印了模型的训练和测试数据集的均方误差,因为保留了3位小数,所以显示为0.0005edce3e2-4f29-11ed-b116-dac502259ad0.png从下图中可以看出,模型收敛速度相当快,训练和测试性能保持不变。根据模型的性能和收敛特性,均方误差是回归问题的一个很好的选择。5ef0f26a-4f29-11ed-b116-dac502259ad0.pngMSLE在具有广泛值的回归问题中,可能不希望在预测大值时像均方误差那样对模型进行惩罚。所以可以通过首先计算每个预测值的自然对数来计算均方误差。这种损失称为 MSLE,或均方对数误差。当预测值出现较大差异时,它具有放松惩罚效果的效果。当模型直接预测未缩放的数量时,它可能是更合适的损失度量。keras中使用“mean_squared_logarithmic_error”作为损失函数5f07dc64-4f29-11ed-b116-dac502259ad0.png在下面的示例是使用MSLE损失函数的完整代码。5f1d3136-4f29-11ed-b116-dac502259ad0.png该模型在训练和测试数据集上的MSE都略差。这是由于目标变量的分布是一个标准的高斯分布,说明我们的这个损失函数可能不是很适合这个问题。5f5c738c-4f29-11ed-b116-dac502259ad0.png下图显示各训练轮次的对比MSE收敛得很好,但MSE可能过拟合了,因为它从20轮开始下降变得变换并且开始上升。5f656212-4f29-11ed-b116-dac502259ad0.pngMAE根据回归问题,目标变量的分布可能主要是高斯分布,但可能包含异常值,例如 远离平均值的大值或小值。在这种情况下,平均绝对误差或 MAE 损失是一个合适的损失函数,因为它对异常值更稳健。考虑到实际值与预测值的绝对差值,计算为平均值。使用“mean_absolute_error”损失函数5f830dee-4f29-11ed-b116-dac502259ad0.png这是使用MAE的完整代码5f95f08a-4f29-11ed-b116-dac502259ad0.png结果如下5fa379b2-4f29-11ed-b116-dac502259ad0.png下图可以看到,MAE确实收敛了但它有一个颠簸的过程。MAE在这种情况下也不是很适合,因为目标变量是一个没有大离群值的高斯函数。

5fba86ca-4f29-11ed-b116-dac502259ad0.png


二元分类的损失函数

二元分类问题是预测建模问题中两个标签中的一个。这个问题被定义为预测第一个或第二个类的值为0或1,一般情况下通常被实现为预测属于类值1的的概率。我们也是使用sklearn生成数据这里使用圆问题,它有一个二维平面,有两个同心圆,其中外圆上的点属于类0,内圆上的点属于类1。为了使学习更具挑战性,我们还在样本中加入了统计噪声。样本量为1000,并加入10%的统计噪声。5fc7dba4-4f29-11ed-b116-dac502259ad0.png数据集的散点图可以帮助我们理解正在建模的问题。下面列出的是一个完整的示例。5fe50ba2-4f29-11ed-b116-dac502259ad0.png散点图如下,其中输入变量确定点的位置,颜色为类值。0是蓝色的,1是橙色的。601accd8-4f29-11ed-b116-dac502259ad0.png这里还是一半用于训练,一半用于测试,5e3ed18e-4f29-11ed-b116-dac502259ad0.png我们还是定义一个简单的MLP模型,604993f6-4f29-11ed-b116-dac502259ad0.png使用SGD优化,学习率为0.01,动量为0.99。605664c8-4f29-11ed-b116-dac502259ad0.png模型训练200轮进行拟合,并根据损失和准确性评估模型的性能。60658fc0-4f29-11ed-b116-dac502259ad0.pngBCEBCE是用于解决的二元分类问题默认损失函数。在最大似然推理框架下,它是首选损失函数。对于第1类的预测,交叉熵计算一个分数,该分数总结了实际和预测概率分布之间的平均差异。在编译Keras模型时,可以指定binary_crossentropy作为损失函数。606ff712-4f29-11ed-b116-dac502259ad0.png为了预测类1的概率,输出层必须包含一个节点和一个' sigmoid '激活。6098ee42-4f29-11ed-b116-dac502259ad0.png下面是完整的代码:60ab2efe-4f29-11ed-b116-dac502259ad0.png该模型对问题的学习相对较好,在测试数据集上的准确率为83%,准确率为85%。分数之间存在一定程度的重叠,表明模型既不是过拟合也不是欠拟合。下图中所示,训练效果很好。由于概率分布之间的误差是连续的,损失图是平滑的,而精度线图显示出凹凸不平,因为训练和测试集中的例子只能被预测为正确或不正确,提供的颗粒信息较少。60bf23be-4f29-11ed-b116-dac502259ad0.pngHinge支持向量机 (SVM) 模型使用Hinge 损失函数作为交叉熵的替代来解决二元分类问题。目标值在是集合 [-1, 1] ,旨在与二进制分类一起使用。如果实际类别值和预测类别值的符号不同,则Hinge会得到更大的误差。在二元分类问题上它有时比交叉熵更好。作为第一步,我们必须将目标变量的值修改为集合 {-1, 1}。60d4bb8e-4f29-11ed-b116-dac502259ad0.pngkeras中它被称为' hinge '。60dd3d0e-4f29-11ed-b116-dac502259ad0.png在网络的输出层中,必须使用tanh激活函数的单个节点以输出介于 -1 和 1 之间的单个值。60e71054-4f29-11ed-b116-dac502259ad0.png下面是完整代码:60f7dde4-4f29-11ed-b116-dac502259ad0.png比交叉熵略差的性能,在训练和测试集上的准确性不到80%。6169b6ee-4f29-11ed-b116-dac502259ad0.png下图可以看出,模型已经收敛,分类精度图表明也已经收敛。61758118-4f29-11ed-b116-dac502259ad0.png可以看到这个问题还是BCE比较好,这里可能的原因就是因为我们有一些噪声点导致的。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 深度学习
    +关注

    关注

    73

    文章

    5591

    浏览量

    123959
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    激活函数ReLU的理解与总结

    的深层神经网络的激活函数是一非常活跃的研究领域。目前神经网络常用的激活函数-ReLU(rec
    发表于 10-31 06:16

    NMSIS神经网络库使用介绍

    :   神经网络卷积函数   神经网络激活函数   全连接层函数   神经网络池化
    发表于 10-29 06:08

    在Ubuntu20.04系统中训练神经网络模型的一些经验

    , batch_size=512, epochs=20)总结 这个核心算法中的卷积神经网络结构和训练过程,是用来对MNIST手写数字图像进行分类的。模型将图像作为输入,通过卷积和池化层提取图像的特征,然后通过全连接层进行分类预测。训练
    发表于 10-22 07:03

    如何在机器视觉中部署深度学习神经网络

    图 1:基于深度学习的目标检测可定位已训练的目标类别,并通过矩形框(边界框)对其进行标识。 在讨论人工智能(AI)或深度学习时,经常会出现“
    的头像 发表于 09-10 17:38 723次阅读
    如何在机器视觉中部署<b class='flag-5'>深度</b><b class='flag-5'>学习</b><b class='flag-5'>神经网络</b>

    无刷电机小波神经网络转子位置检测方法的研究

    摘要:论文通过对无刷电机数学模型的推导,得出转角:与三相相电压之间存在映射关系,因此构建了一以三相相电压为输人,转角为输出的小波神经网络来实现转角预测,并采用改进遗传算法来训练网络
    发表于 06-25 13:06

    BP神经网络的调参技巧与建议

    BP神经网络的调参是一复杂且关键的过程,涉及多个超参数的优化和调整。以下是一些主要的调参技巧与建议: 一、学习率(Learning Rate) 重要性 :学习率是BP
    的头像 发表于 02-12 16:38 1496次阅读

    如何优化BP神经网络学习

    优化BP神经网络学习率是提高模型训练效率和性能的关键步骤。以下是一些优化BP神经网络学习率的方法: 一、理解
    的头像 发表于 02-12 15:51 1463次阅读

    BP神经网络的实现步骤详解

    的层数、每层神经元的数量以及激活函数。 初始化权重和偏置 : 随机初始化输入层与隐藏层、隐藏层与隐藏层、隐藏层与输出层之间的连接权重,以及各层的偏置项。这些权重和偏置在训练过程中会逐渐调整。 设置
    的头像 发表于 02-12 15:50 1153次阅读

    BP神经网络的优缺点分析

    BP神经网络(Back Propagation Neural Network)作为一种常用的机器学习模型,具有显著的优点,同时也存在一些不容忽视的缺点。以下是对BP神经网络优缺点的分析
    的头像 发表于 02-12 15:36 1629次阅读

    什么是BP神经网络的反向传播算法

    BP神经网络的反向传播算法(Backpropagation Algorithm)是一种用于训练神经网络的有效方法。以下是关于BP神经网络的反向传播算法的介绍: 一、基本概念 反向传播算
    的头像 发表于 02-12 15:18 1319次阅读

    BP神经网络深度学习的关系

    ),是一种多层前馈神经网络,它通过反向传播算法进行训练。BP神经网络由输入层、一或多个隐藏层和输出层组成,通过逐层递减的方式调整网络权重,
    的头像 发表于 02-12 15:15 1379次阅读

    BP神经网络在图像识别中的应用

    传播神经网络(Back Propagation Neural Network),是一种多层前馈神经网络,主要通过反向传播算法进行学习。它通常包括输入层、一或多个隐藏层和输出层。BP
    的头像 发表于 02-12 15:12 1209次阅读

    如何训练BP神经网络模型

    BP(Back Propagation)神经网络是一种经典的人工神经网络模型,其训练过程主要分为两阶段:前向传播和反向传播。以下是训练BP
    的头像 发表于 02-12 15:10 1483次阅读

    深度学习入门:简单神经网络的构建与实现

    深度学习中,神经网络是核心模型。今天我们用 Python 和 NumPy 构建一简单的神经网络神经
    的头像 发表于 01-23 13:52 860次阅读

    人工神经网络的原理和多种神经网络架构方法

    所拟合的数学模型的形式受到大脑中神经元的连接和行为的启发,最初是为了研究大脑功能而设计的。然而,数据科学中常用神经网络作为大脑模型已经过时,现在它们只是能够在某些应用中提供最先进性能的机器
    的头像 发表于 01-09 10:24 2293次阅读
    人工<b class='flag-5'>神经网络</b>的原理和多种<b class='flag-5'>神经网络</b>架构方法