0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

为什么SAM可以实现更好的泛化?如何在Pytorch中实现SAM?

深度学习自然语言处理 来源:AI公园 作者:Sean Benhur J 2021-04-03 14:48 次阅读

导读 使用SAM(锐度感知最小化),优化到损失的最平坦的最小值的地方,增强泛化能力。

动机来自先前的工作,在此基础上,我们提出了一种新的、有效的方法来同时减小损失值和损失的锐度。具体来说,在我们的处理过程中,进行锐度感知最小化(SAM),在领域内寻找具有均匀的低损失值的参数。这个公式产生了一个最小-最大优化问题,在这个问题上梯度下降可以有效地执行。我们提出的实证结果表明,SAM在各种基准数据集上都改善了的模型泛化。

深度学习中,我们使用SGD/Adam等优化算法在我们的模型中实现收敛,从而找到全局最小值,即训练数据集中损失较低的点。但等几种研究表明,许多网络可以很容易地记住训练数据并有能力随时overfit,为了防止这个问题,增强泛化能力,谷歌研究人员发表了一篇新论文叫做Sharpness Awareness Minimization,在CIFAR10上以及其他的数据集上达到了最先进的结果。

在本文中,我们将看看为什么SAM可以实现更好的泛化,以及我们如何在Pytorch中实现SAM。

SAM的原理是什么?

在梯度下降或任何其他优化算法中,我们的目标是找到一个具有低损失值的参数。但是,与其他常规的优化方法相比,SAM实现了更好的泛化,它将重点放在领域内寻找具有均匀的低损失值的参数(而不是只有参数本身具有低损失值)上。

由于计算邻域参数而不是计算单个参数,损失超平面比其他优化方法更平坦,这反过来增强了模型的泛化。

(左))用SGD训练的ResNet收敛到的一个尖锐的最小值。(右)用SAM训练的相同的ResNet收敛到的一个平坦的最小值。

注意:SAM不是一个新的优化器,它与其他常见的优化器一起使用,比如SGD/Adam。

在Pytorch中实现SAM

在Pytorch中实现SAM非常简单和直接

import torch

class SAM(torch.optim.Optimizer):

def __init__(self, params, base_optimizer, rho=0.05, **kwargs):

assert rho 》= 0.0, f“Invalid rho, should be non-negative: {rho}”

defaults = dict(rho=rho, **kwargs)

super(SAM, self).__init__(params, defaults)

self.base_optimizer = base_optimizer(self.param_groups, **kwargs)

self.param_groups = self.base_optimizer.param_groups

@torch.no_grad()

def first_step(self, zero_grad=False):

grad_norm = self._grad_norm()

for group in self.param_groups:

scale = group[“rho”] / (grad_norm + 1e-12)

for p in group[“params”]:

if p.grad is None: continue

e_w = p.grad * scale.to(p)

p.add_(e_w) # climb to the local maximum “w + e(w)”

self.state[p][“e_w”] = e_w

if zero_grad: self.zero_grad()

@torch.no_grad()

def second_step(self, zero_grad=False):

for group in self.param_groups:

for p in group[“params”]:

if p.grad is None: continue

p.sub_(self.state[p][“e_w”]) # get back to “w” from “w + e(w)”

self.base_optimizer.step() # do the actual “sharpness-aware” update

if zero_grad: self.zero_grad()

def _grad_norm(self):

shared_device = self.param_groups[0][“params”][0].device # put everything on the same device, in case of model parallelism

norm = torch.norm(

torch.stack([

p.grad.norm(p=2).to(shared_device)

for group in self.param_groups for p in group[“params”]

if p.grad is not None

]),

p=2

return norm

代码取自非官方的Pytorch实现。

代码解释:

首先,我们从Pytorch继承优化器类来创建一个优化器,尽管SAM不是一个新的优化器,而是在需要继承该类的每一步更新梯度(在基础优化器的帮助下)。

该类接受模型参数、基本优化器和rho, rho是计算最大损失的邻域大小。

在进行下一步之前,让我们先看看文中提到的伪代码,它将帮助我们在没有数学的情况下理解上述代码。

bf4472f8-92a2-11eb-8b86-12bb97331649.jpg

正如我们在计算第一次反向传递后的伪代码中看到的,我们计算epsilon并将其添加到参数中,这些步骤是在上述python代码的方法first_step中实现的。

现在在计算了第一步之后,我们必须回到之前的权重来计算基础优化器的实际步骤,这些步骤在函数second_step中实现。

函数_grad_norm用于返回矩阵向量的norm,即伪代码的第10行

在构建这个类后,你可以简单地使用它为你的深度学习项目通过以下的训练函数片段。

from sam import SAM

。。.

model = YourModel()

base_optimizer = torch.optim.SGD # define an optimizer for the “sharpness-aware” update

optimizer = SAM(model.parameters(), base_optimizer, lr=0.1, momentum=0.9)

。。.

for input, output in data:

# first forward-backward pass

loss = loss_function(output, model(input)) # use this loss for any training statistics

loss.backward()

optimizer.first_step(zero_grad=True)

# second forward-backward pass

loss_function(output, model(input)).backward() # make sure to do a full forward pass

optimizer.second_step(zero_grad=True)

。。.

总结

虽然SAM的泛化效果较好,但是这种方法的主要缺点是,由于前后两次计算锐度感知梯度,需要花费两倍的训练时间。除此之外,SAM还在最近发布的NFNETS上证明了它的效果,这是ImageNet目前的最高水平,在未来,我们可以期待越来越多的论文利用这一技术来实现更好的泛化。

英文原文:https://pub.towardsai.net/we-dont-need-to-worry-about-overfitting-anymore-9fb31a154c81
编辑:lyn

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • SAM
    SAM
    +关注

    关注

    0

    文章

    107

    浏览量

    33361
  • 深度学习
    +关注

    关注

    73

    文章

    5237

    浏览量

    119907
  • pytorch
    +关注

    关注

    2

    文章

    761

    浏览量

    12831

原文标题:【过拟合】再也不用担心过拟合的问题了

文章出处:【微信号:zenRRan,微信公众号:深度学习自然语言处理】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    一种新的分割模型Stable-SAM

    SAM、HQ-SAM、Stable-SAM在提供次优提示时的性能比较,Stable-SAM明显优于其他算法。这里也推荐工坊推出的新课程《如何将深度学习模型部署到实际工程中?
    的头像 发表于 12-29 14:35 295次阅读
    一种新的分割模型Stable-<b class='flag-5'>SAM</b>

    利用 MPLAB® Harmony v3 TCP/IP协议栈在SAM E54 MCU 上实现文件传输协议

    电子发烧友网站提供《利用 MPLAB® Harmony v3 TCP/IP协议栈在SAM E54 MCU 上实现文件传输协议.pdf》资料免费下载
    发表于 12-18 11:03 0次下载
    利用 MPLAB® Harmony v3 TCP/IP协议栈在<b class='flag-5'>SAM</b> E54 MCU 上<b class='flag-5'>实现</b>文件传输协议

    LIO-SAM框架是什么

    LIO-SAM的全称是:Tightly-coupled Lidar Inertial Odometry via Smoothing and Mapping,从全称上可以看出,该算法是一个紧耦合的雷达
    的头像 发表于 11-24 17:08 367次阅读
    LIO-<b class='flag-5'>SAM</b>框架是什么

    3d激光SLAMLIO-SAM框架介绍

    LIO-SAM的全称是:Tightly-coupled Lidar Inertial Odometry via Smoothing and Mapping 从全称上可以看出,该算法是一个紧耦合的雷达
    的头像 发表于 11-22 15:04 356次阅读
    3d激光SLAMLIO-<b class='flag-5'>SAM</b>框架介绍

    SAM C2x/D2x/L2x Cortex-M0+器件迁移到SAM D5x/E5x Cortex-M4 器件

    电子发烧友网站提供《从SAM C2x/D2x/L2x Cortex-M0+器件迁移到SAM D5x/E5x Cortex-M4 器件.pdf》资料免费下载
    发表于 09-25 10:10 0次下载
    从<b class='flag-5'>SAM</b> C2x/D2x/L2x Cortex-M0+器件迁移到<b class='flag-5'>SAM</b> D5x/E5x Cortex-M4 器件

    针对SAM L10/SAM L11的UART自举程序

    电子发烧友网站提供《针对SAM L10/SAM L11的UART自举程序.pdf》资料免费下载
    发表于 09-25 10:01 2次下载
    针对<b class='flag-5'>SAM</b> L10/<b class='flag-5'>SAM</b> L11的UART自举程序

    何在Cortex-M0+单片机中自定义ASFv3 SAM-BA自举程序

    电子发烧友网站提供《如何在Cortex-M0+单片机中自定义ASFv3 SAM-BA自举程序.pdf》资料免费下载
    发表于 09-25 09:39 0次下载
    如<b class='flag-5'>何在</b>Cortex-M0+单片机中自定义ASFv3 <b class='flag-5'>SAM</b>-BA自举程序

    利用MPLAB Harmony v3在SAM E54单片机(MCU)上实现双存储区自举程序

    电子发烧友网站提供《利用MPLAB Harmony v3在SAM E54单片机(MCU)上实现双存储区自举程序.pdf》资料免费下载
    发表于 09-20 14:53 0次下载
    利用MPLAB Harmony v3在<b class='flag-5'>SAM</b> E54单片机(MCU)上<b class='flag-5'>实现</b>双存储区自举程序

    构建一个移动端友好的SAM方案MobileSAM

    导读 本文提出一种"解耦蒸馏"方案对SAM的ViT-H解码器进行蒸馏,同时所得轻量级编码器可与SAM的解码器"无缝兼容" 。在推理速度方面,MobileSAM处理一张图像仅需10ms
    的头像 发表于 06-30 10:59 739次阅读
    构建一个移动端友好的<b class='flag-5'>SAM</b>方案MobileSAM

    YOLOv8最新版本支持SAM分割一切

    分割任何模型 (Segment Anything Model - SAM) 是一种突破性的图像分割模型,可实现具有实时性能的快速分割。
    的头像 发表于 06-18 11:42 1137次阅读
    YOLOv8最新版本支持<b class='flag-5'>SAM</b>分割一切

    SAM 到底是什么

    的有这么强大吗?让我们一起通过本文了解详情! SAM 是一个由 Meta AI 实验室推出的强大人工智能图像分割应用,可以自动识别哪些图像像素属于一个对象,并且对图像中各个对象进行自动风格处理,可广泛用于分析科学图像、编辑照片等。 SA
    的头像 发表于 06-12 10:46 2902次阅读
    <b class='flag-5'>SAM</b> 到底是什么

    第一篇综述!分割一切模型(SAM)的全面调研

    SAM 是一个提示型模型,其在 1100 万张图像上训练了超过 10 亿个掩码,实现了强大的零样本泛化。许多研究人员认为「这是 CV 的 GPT-3 时刻,因为 SAM 已经学会了物体是什么的一般
    的头像 发表于 05-24 14:36 630次阅读
    第一篇综述!分割一切模型(<b class='flag-5'>SAM</b>)的全面调研

    SAM分割模型是什么?

    SAM是一类处理图像分割任务的通用模型。与以往只能处理某种特定类型图片的图像分割模型不同,SAM可以处理所有类型的图像。
    的头像 发表于 05-20 09:30 1561次阅读

    是否有为SAM创建主密钥的行业标准方法?

    你好... 我正在开发的产品中使用 SAMAV3 模块...... - 我希望 SAM 的主密钥对于每个 PCB 都是唯一的。 - 我希望 CPU 固件 Hex 文件不包含 SAM 的 Mater
    发表于 05-18 14:53

    求分享用于SAM Sollution促销的SW小程序

    由于运输 SAM 要求高性能,客户希望在做出决定之前看到一些预测试。我们与唯冠 DFAE 合作开发 SW 小程序。SAM的这个小程序可以按照客户算法进行办理和充值交易。 交易时
    发表于 05-08 08:28