0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

BN算法和过程

gVTR_Unf 来源: 机器学习炼丹术 作者:机器学习炼丹术 2020-09-07 16:35 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

1 BN的优点

这里简单的介绍一下BN,在之前的文章中已经详细的介绍了BN算法和过程。

BN于2015年由 Google 提出,Google在ICML论文中描述的非常清晰,即在每次SGD时,通过mini-batch来对相应的activation做规范化操作,使得结果(输出信号各个维度)的均值为0,方差为1。最后的“scale and shift”操作则是为了训练所需而“刻意”加入的BN能够有可能还原最初的输入,从而保证数据中有用信息的留存。

【BN的好处】

BN使得网络中每层输入数据的分布相对稳定,加速模型学习速度;

BN使得模型对网络中的参数不那么敏感,简化调参过程,使得网络学习更加稳定;

BN允许网络使用饱和性激活函数(例如sigmoid,tanh等),缓解梯度消失问题;

BN具有一定的正则化效果。

2 BN的缺点

2.1 受限于Batch size

BN 沿着 batch 维度进行归一化,其受限于 Batch Size,当 Batch Size 很小时,BN 会得到不准确的统计估计,会导致模型误差明显增加

【一般每块 GPU 上 Batch Size =32 最合适。】

但对于目标检测,语义分割,视频场景等,输入图像尺寸比较大,而限于GPU显卡的显存限制,导致无法设置较大的 Batch Size,如 经典的Faster-RCNN、Mask R-CNN 网络中,由于图像的分辨率较大,Batch Size 只能是 1 或 2.

2.2 训练集与测试集的分布

BN处理训练集的时候,采用的均值和方差是整个训练集的计算出来的均值和方差(这一部分没有看懂的话,可能需要去看一下BN算法的详解)

所以测试和训练的数据分布如果存在差异,那么就会导致训练和测试之间存在不一致现象(Inconsistency)。

3 Group Normalzation

Group Normalization(GN)是由2018年3月份何恺明团队提出,GN优化了BN在比较小的mini-batch情况下表现不太好的劣势。

Group Normalization(GN) 则是提出的一种 BN 的替代方法,其是首先将 Channels 划分为多个 groups,再计算每个 group 内的均值和方法,以进行归一化。GB的计算与Batch Size无关,因此对于高精度图片小BatchSize的情况也是非常稳定的,

下图是比较BN和GN在Batch Size越来越小的变化中,模型错误率变化的对比图:

因此在实验的时候,可以在尝试使用GN来代替BN哦~

其实不难发现,GN和LN是存在一定的关系的。

上图中有四种Normalization的方法。就先从最简单的Instance Normalization开始分析:

IN:仅仅对每一个图片的每一个通道最归一化。也就是说,对【H,W】维度做归一化。假设一个特征图有10个通道,那么就会得到10个均值和10个方差;要是一个batch有5个样本,每个样本有10个通道,那么IN总共会计算出50个均值方差;

LN:对一个特征图的所有通道做归一化。5个10通道的特征图,LN会给出5个均值方差;

GN:这个是介于LN和IN之间的一种方法。假设Group分成2个,那么10个通道就会被分成5和5两组。然后5个10通道特征图会计算出10个均值方差。

BN:这个就是对Batch维度进行计算。所以假设5个100通道的特征图的话,就会计算出100个均值方差。5个batch中每一个通道就会计算出来一个均值方差。

在GN的论文中,给出了GN推荐的group Number:

第一个表格展示GN的group Number不断减小,退化成LN的过程。其实,分组32个group效果最好;

第二个表格展示GN的每一组的channel数目不断减小,退化成IN的过程。每一组16个channel的效果最好,我个人在项目中也会有优先尝试16个通道为一组的这种参数设置。

4 PyTorch实现GN

importnumpyasnp importtorch importtorch.nnasnn classGroupNorm(nn.Module): def__init__(self,num_features,num_groups=32,eps=1e-5): super(GroupNorm,self).__init__() self.weight=nn.Parameter(torch.ones(1,num_features,1,1)) self.bias=nn.Parameter(torch.zeros(1,num_features,1,1)) self.num_groups=num_groups self.eps=eps defforward(self,x): N,C,H,W=x.size() G=self.num_groups assertC%G==0 x=x.view(N,G,-1) mean=x.mean(-1,keepdim=True) var=x.var(-1,keepdim=True) x=(x-mean)/(var+self.eps).sqrt() x=x.view(N,C,H,W)

当然,你要是想问PyTorch是否已经集成了GN?那必然的。下面的代码比较了PyTorch集成的GN和我们手算的GN的结果。

importtorch importtorch.nnasnn x=torch.randn([2,10,3,3])+1 #Torch集成的方法 m=torch.nn.GroupNorm(num_channels=10,num_groups=2) #先计算前面五个通道的均值 firstDimenMean=torch.Tensor.mean(x[0,0:5]) #先计算前面五个通道的方差 firstDimenVar=torch.Tensor.var(x[0,0:5],False) #减去均值乘方差 y2=((x[0][0][0][1]-firstDimenMean)/(torch.pow(firstDimenVar+m.eps,0.5)))*m.weight[0]+m.bias[0] print(y2) y1=m(x) print(m.weight) print(m.bias) print(y1[0,0,0,1])

输出结果:

tensor(0.4595,grad_fn=) Parametercontaining: tensor([1.,1.,1.,1.,1.,1.,1.,1.,1.,1.],requires_grad=True) Parametercontaining: tensor([0.,0.,0.,0.,0.,0.,0.,0.,0.,0.],requires_grad=True) tensor(0.4595,grad_fn=)

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • Google
    +关注

    关注

    5

    文章

    1801

    浏览量

    60263
  • 图像
    +关注

    关注

    2

    文章

    1095

    浏览量

    42154
  • pytorch
    +关注

    关注

    2

    文章

    813

    浏览量

    14696

原文标题:小白学图像 | Group Normalization详解+PyTorch代码

文章出处:【微信号:Unfinished_coder,微信公众号:机器视觉CV】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    用于单片机几种C语言算法

    : 数字滤波无需其他的硬件成本,只有一个计算过程,可靠性高,不存在阻抗匹配问题。尤其是数字滤波可以对频率很低的信号进行滤波,这是模拟滤波器做不到的。 数字滤波使用软件算法实现,多输入通道可共用一个滤波程序
    发表于 11-27 06:00

    SM4算法实现分享(一)算法原理

    SM4分组加密算法采用的是非线性迭代结构,以字为单位进行加密、解密运算,每次迭代称为一轮变换,每轮变换包括S盒变换、非线性变换、线性变换、合成变换。加解密算法与密钥扩展都是采用32轮非线性迭代结构
    发表于 10-30 08:10

    Camellia算法的实现(基于开源蜂鸟E203协处理器)

    FL函数和FL-1函数的运算过程,运算过程与上面的F函数类似,拆分成基本运算就是异或,移位和与运算等。 本文主要解释了Camellia算法的原理,以及实现过程,下一篇文档将会介绍Cam
    发表于 10-30 07:04

    如何使用恢复算法来实现开平方运算

    本文主要描述如何使用恢复算法来实现开平方运算。 简介 开平方的恢复算法其实与除法的恢复算法十分相似。首先我们假设X为输入的操作数(它应该为正数),而他的平方根可以表示为Qn=0.q1q2q3
    发表于 10-24 13:33

    国密系列算法简介及SM4算法原理介绍

    一、 国密系列算法简介 国家商用密码算法(简称国密/商密算法),是由我国国家密码管理局制定并公布的密码算法标准。其分类1所示: 图1 国家商用密码
    发表于 10-24 08:25

    加密算法的应用

    保证信息传输过程中的安全性。只有经过特定的解密算法才能还原出原始的明文。因此,加密算法是一种保护信息安全的手段。 3. 加密算法的分类 根据加密
    发表于 10-24 08:03

    AES和SM4算法的可重构分析

    相似的实现过程,可以进行可重构设计。同时,这两种算法在加解密过程中会频繁使用寄存器来存储数据 二、可重构S盒设计思路 在GF下,AES的S盒输出公式为 Z=M(X^-1)+V, SM4的S盒公式
    发表于 10-23 07:26

    e203除法器算法改进(一)

    的除法运算大多使用SRT-4算法进行设计。以下是我们针对除法器进行改进的算法。 前导零预处理 为了加快除法的运算过程,通常采用前导零预处理的方法对除数以及被除数预处理。在处理期间必须保证结果的正确性
    发表于 10-22 07:13

    AI的核心操控:从算法到硬件的协同进化

           人工智能(AI)的核心操控涉及算法、算力和数据三大要素的深度融合,其技术本质是通过硬件与软件的协同优化实现对复杂任务的自主决策与执行。这一过程依赖多层技术栈的精密配合,从底层的芯片架构
    的头像 发表于 09-08 17:51 768次阅读

    DFT算法与FFT算法的优劣分析

    一概述 在谐波分析仪中,我们常常提到的两个词语,就是DFT算法与FFT算法,那么一款功率分析仪/谐波分析仪采用DFT算法或者FFT算法,用户往往关注的是能否达到所要分析谐波次数的目的,
    的头像 发表于 08-04 09:30 889次阅读

    基于FPGA实现FOC算法之PWM模块设计

    哈喽,大家好,从今天开始正式带领大家从零到一,在FPGA平台上实现FOC算法,整个算法的框架如下图所示,如果大家对算法的原理不是特别清楚的话,可以先去百度上学习一下,本教程着重介绍实现过程
    的头像 发表于 07-17 15:21 3120次阅读
    基于FPGA实现FOC<b class='flag-5'>算法</b>之PWM模块设计

    FN1-05D3V3BN FN1-05D3V3BN

    电子发烧友网为你提供AIPULNION(AIPULNION)FN1-05D3V3BN相关产品参数、数据手册,更有FN1-05D3V3BN的引脚图、接线图、封装手册、中文资料、英文资料,FN1-05D3V3BN真值表,FN1-05
    发表于 03-19 18:43
    FN1-05D3V3<b class='flag-5'>BN</b> FN1-05D3V3<b class='flag-5'>BN</b>

    PID控制算法的C语言实现:PID算法原理

    在工业应用中 PID 及其衍生算法是应用最广泛的算法之一,是当之无愧的万能算法,如果能够熟练掌握 PID 算法的设计与实现过程,对于一般的研
    发表于 02-26 15:24

    MDMF304L1GAM-MINAS A6BN 系列 标准规格书 松下

    电子发烧友网为你提供Panasonic(Panasonic)MDMF304L1GAM-MINAS A6BN 系列 标准规格书相关产品参数、数据手册,更有MDMF304L1GAM-MINAS A6BN
    发表于 02-12 18:53
    MDMF304L1GAM-MINAS A6<b class='flag-5'>BN</b> 系列 标准规格书 松下

    深入解析ECC256椭圆曲线加密算法

    点击蓝字关注我们一、加密算法概述数据加密的基本过程就是对原来为明文的文件或数据按某种算法进行处理,使其成为不可读的一段代码为“密文”,使其只能在输入相应的密钥之后才能显示出原容,通过这样的途径来达到
    的头像 发表于 12-26 16:32 2784次阅读
    深入解析ECC256椭圆曲线加密<b class='flag-5'>算法</b>