0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

完全通过光学,不要计算机也能构建个神经网络?

倩倩 来源:机器之心Pro 2020-04-17 09:57 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

完全通过光学,不要计算机也能构建个神经网络?港科大的研究团队提出了一种全光学神经网络,所有线性变换、激活函数通过光学模块就能实现。

在处理模式识别、风险管理以及其他同样复杂的任务时,最强大的计算机都无法与人脑匹敌。但是,近来光学神经网络取得的进展通过模拟人脑中神经元的反应方式缩小了计算机与人脑之间的差距。这种光学神经网络比 ML 中的网络能耗更低、运算更快,是未来大规模应用 AI 的坚实基础。

近日,来自香港科技大学的研究团队在《Optica》杂志上发表了一篇论文,详细描述了他们提出的双层全光学神经网络。这是一个功能完善的全光学神经网络(AONN),其中所使用的线性函数和非线性激活函数都是完全根据光学实现的。而且这种全光学神经网络还能扩展到更加复杂的神经网络架构,从而完成图像识别等更复杂的任务。

这个复杂的东西就是一个两层的全光学神经网络,它和机器学习中的两层全连接网络有点「类似」。

研究团队成员之一 Junwei Liu 表示:「我们提出的全光学神经网络能够以光速执行光学并行计算,并且耗能极少。这种大规模的全光学神经网络可应用于图像识别以及科学研究等诸多领域。」

港科大的全光学神经网络是什么

在传统混合光学的神经网络中,光学组件通常用于线性运算,而非线性激活函数通常使用电子的方式实现。这主要因为非线性光学元器件需要高功率的激光器,这在光学神经网络中是很难实现的。

为了克服这方面的问题,研究者使用具有电磁感应透明度的冷原子实现非线性函数。研究团队的 Shengwang Du 说:「这种光感应效应可以通过非常小功率的激光器实现,且该效应是基于非线性量子干涉的。因此这种效应可以将我们的系统扩展到量子神经网络,从而解决经典方法难以解决的问题。」

为了确认新方法的能力与可行性,研究者构建了一个双层全连接全光学神经网络,它的输入单元与输出单元数目分别是 16 与 2。研究者使用他们的全光学网络分类 Ising 模型(一种磁场的统计学模型),即 order 和 disorder 阶段两个类别。结果表明,全光学神经网络与一般基于计算机的神经网络一样准确。

图 1:全连接网络的结构与全光学神经网络的一般结构。

如上 a 为机器学习中常见的全连接网络,b 则是香港科技大学研究者提出的全光学神经网络(AONN),它们都会进行非线性变换。与一般的 ONN 不同,AONN 没有复杂的电场神经元,AONN 所有的信都通过光学的方式进行编码。

非线性光学激活函数

这篇论文核心的突破就是采用了基于光学的非线性激活函数,因此整个网络才能称为「全」光学神经网络。那么什么是非线性光学激活函数?简单而言,它就是一种基于电磁感应透明的模块(electromagnetically induced transparency, EIT)完成的,我们只要知道 EIT 是一种原子跃迁之间的光量子干涉效应就行了。

EIT 非线性光学激活函数由激光冷却的 85Rb 原子在 dark-line 二维磁光阱(MOT)中实现,如下图 3(a) 所示。图 3(b) 所示为原子能级,原子在基态|1》中制备。

在没有耦合光束的情况下,原子介质对共振探测光束是不透明的,它如图 3(c) 透射光谱中的实现所示最大程度地被原子吸收。

图 3:EIT 非线性光学激活函数的实现。

对「光学神经网络」的不懈追求

当然,香港科技大学的这个全光学神经网络并非研究者在该领域的唯一探索。今年 5 月份,在《Nature》的一篇论文中,德国的研究人员提出了一种在毫米级光子芯片上实现的、基于相变非线性材料的全光学脉冲神经网络。该网络内部没有光到电的转换,输入的数据被电子调制成不同的波长以注入网络,但之后所有数据都会停留在芯片上。利用集成相变材料来实现权重调制和神经元集成;它们位于两种微环谐振器上,具有突触或神经功能。

在不同工作波长情况下注入的未调制光接收到在相变材料中累积的神经元激活,之后将它们传递到网络下一层。即使没有芯片上光学增益(在这个过程中,一种介质将能量传递给通过它传输的光),这个设置也可能扩展至更大的网络。作者在其上实现了小规模的监督学习和无监督学习。

利用上述全光学神经元进行监督学习和无监督学习。a 和 b 表示两个神经元在不同输入模式下的输出;C:全光学神经元的无监督学习机制;d:重复显示「0110」模式时四个突触的权重随时间的变化。

香港科技大学的研究者在论文中也提到了这项研究,但他们指出,这两项研究存在根本差别。首先,德国这项研究中的系统是单层的,而本文中提出的是一个 16 个输入、2 个输出的双层全光学神经网络,还带有 4 个具有非线性光学激活函数的中间神经元。而且,港科大的研究者利用 EIT 量子干涉实现了非线性光学激活函数,这与那项研究的方法完全不同。

除了上述全光学神经网络,还有研究者尝试从局部入手,把神经网络的一部分替换为光学卷积层。

去年 8 月,斯坦福大学在《Nature》子刊《Scientific Reports》上发表论文,提出在 CNN 网络前端替换一个光学卷积层(opt-conv)的方案,可以在保持网络性能的同时显著降低能耗,并在 CIFAR-10 数据集的分类任务上验证了其结论。

光学卷积层也就是用光学器件实现的卷积层,其光学运算具备高带宽、高互联和并行处理特性,并能光速执行运算,功耗接近于零。该技术有望在低功耗机器学习领域得到进一步发掘。

光学卷积层设计。(a)4f 系统图,可以通过在傅里叶平面上放置相位掩模来实现光学卷积层(opt-conv)。(b)数字卷积层的标准组成,包括输入图像、卷积核堆栈和相应的输出量。(c)opt-conv 层中的等效组成,核和输出以二维数组的形式平铺在平面,而不是堆叠在深度维数中。

此外,为了实现光速运算,加州大学洛杉矶分校(UCLA)的研究者甚至用 3D 打印打造出了固态的神经网络。该网络利用层级传播的光衍射来执行计算,实现了手写数字的图像识别,相关成果已发表在《science》杂志上。

这一想法看似新奇,其实也很自然。神经网络中执行的线性运算,恰好和光衍射的线性相互作用对应,神经元的权重、激活值概念也能和光的振幅、相位对应(可调)。此外,固态光衍射计算还具有能耗小、无发热、光速执行(尽管传统计算机电路中的电场传播也是光速的,但并未直接对应神经网络的计算过程)等优点。

当然,也有人对此提出质疑,认为这种固态的神经网络对安装精度和环境震动要求比较严格,可行性有待考证。

更复杂的光学神经网络

最后,研究者还计划扩展全光学的这种方法,从而构建具有复杂架构的大规模全光学深度神经网络,这些网络能用于更复杂的图像识别等任务。该论文的作者说:「尽管我们的工作是概念性验证,但它展示了全光学神经网络在未来人工智能中的可能性。下一代的 AI 硬件在本质上应该更快、更低能耗,从而高效支持复杂的 AI 应用。」

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4827

    浏览量

    106799
  • 计算机
    +关注

    关注

    19

    文章

    7764

    浏览量

    92683
  • 神经元
    +关注

    关注

    1

    文章

    369

    浏览量

    19110
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    NMSIS神经网络库使用介绍

    (q7_t) 和 16 位整数 (q15_t)。 卷积神经网络示例: 本示例中使用的 CNN 基于来自 Caffe 的 CIFAR-10 示例。神经网络由 3 卷积层组成,中间散布着 ReLU
    发表于 10-29 06:08

    构建CNN网络模型并优化的一般化建议

    通过实践,本文总结了构建CNN网络模型并优化的一般化建议,这些建议将会在构建高准确率轻量级CNN神经网络模型方面提供帮助。 1)避免单层
    发表于 10-28 08:02

    在Ubuntu20.04系统中训练神经网络模型的一些经验

    本帖欲分享在Ubuntu20.04系统中训练神经网络模型的一些经验。我们采用jupyter notebook作为开发IDE,以TensorFlow2为训练框架,目标是训练一手写数字识别的神经网络
    发表于 10-22 07:03

    液态神经网络(LNN):时间连续性与动态适应性的神经网络

    1.算法简介液态神经网络(LiquidNeuralNetworks,LNN)是一种新型的神经网络架构,其设计理念借鉴自生物神经系统,特别是秀丽隐杆线虫的神经结构,尽管这种微生物的
    的头像 发表于 09-28 10:03 706次阅读
    液态<b class='flag-5'>神经网络</b>(LNN):时间连续性与动态适应性的<b class='flag-5'>神经网络</b>

    【「AI芯片:科技探索与AGI愿景」阅读体验】+神经形态计算、类脑芯片

    几年神经计算及类脑芯片的重大进展。 一、云端使用的神经形态计算与类脑芯片 神经形态计算旨在设计
    发表于 09-17 16:43

    神经网络的并行计算与加速技术

    随着人工智能技术的飞速发展,神经网络在众多领域展现出了巨大的潜力和广泛的应用前景。然而,神经网络模型的复杂度和规模在不断增加,这使得传统的串行计算方式面临着巨大的挑战,如
    的头像 发表于 09-17 13:31 887次阅读
    <b class='flag-5'>神经网络</b>的并行<b class='flag-5'>计算</b>与加速技术

    无刷电机小波神经网络转子位置检测方法的研究

    摘要:论文通过对无刷电机数学模型的推导,得出转角:与三相相电压之间存在映射关系,因此构建了一以三相相电压为输人,转角为输出的小波神经网络来实现转角预测,并采用改进遗传算法来训练
    发表于 06-25 13:06

    BP神经网络与卷积神经网络的比较

    多层。 每一层都由若干个神经元构成,神经元之间通过权重连接。信号在神经网络中是前向传播的,而误差是反向传播的。 卷积神经网络(CNN) :
    的头像 发表于 02-12 15:53 1308次阅读

    BP神经网络的优缺点分析

    BP神经网络(Back Propagation Neural Network)作为一种常用的机器学习模型,具有显著的优点,同时存在一些不容忽视的缺点。以下是对BP神经网络优缺点的分析: 优点
    的头像 发表于 02-12 15:36 1586次阅读

    什么是BP神经网络的反向传播算法

    神经网络(即反向传播神经网络)的核心,它建立在梯度下降法的基础上,是一种适合于多层神经元网络的学习算法。该算法通过计算每层
    的头像 发表于 02-12 15:18 1278次阅读

    BP神经网络与深度学习的关系

    ),是一种多层前馈神经网络,它通过反向传播算法进行训练。BP神经网络由输入层、一或多个隐藏层和输出层组成,通过逐层递减的方式调整
    的头像 发表于 02-12 15:15 1341次阅读

    BP神经网络的基本原理

    BP神经网络(Back Propagation Neural Network)的基本原理涉及前向传播和反向传播两核心过程。以下是关于BP神经网络基本原理的介绍: 一、网络结构 BP
    的头像 发表于 02-12 15:13 1520次阅读

    深度学习入门:简单神经网络构建与实现

    深度学习中,神经网络是核心模型。今天我们用 Python 和 NumPy 构建简单的神经网络神经网络由多个
    的头像 发表于 01-23 13:52 846次阅读

    加州理工学院开发出超100GHz时钟速度的全光计算机

    递归神经网络计算设计,利用线性和非线性光学操作的超快特性,避免电子操作,在光域内实现了高速运算。其核心是光学实现的递归神经网络,以激光脉冲
    的头像 发表于 01-23 10:32 764次阅读

    人工神经网络的原理和多种神经网络架构方法

    在上一篇文章中,我们介绍了传统机器学习的基础知识和多种算法。在本文中,我们会介绍人工神经网络的原理和多种神经网络架构方法,供各位老师选择。 01 人工神经网络   人工神经网络模型之所
    的头像 发表于 01-09 10:24 2252次阅读
    人工<b class='flag-5'>神经网络</b>的原理和多种<b class='flag-5'>神经网络</b>架构方法