0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

谷歌新的循环神经网络技术是否对模仿生物的人工智能有帮助?

人工智能和机器人研究院 2018-07-21 09:48 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

人类对于生物大脑的探索是永无止境的,模仿生物的人工智能是否可以帮助我们进行研究?最近,来自谷歌的研究人员提出了一种新的循环神经网络,它可以快速构建生物大脑的 3D 神经模型。谷歌称,新的方法可以「将连接组学提升一个数量级」。目前,该研究的论文已经发表在Nature 子刊《Nature Methods》上。

连接组学旨在综合描绘在神经系统中发现的神经网络结构,以更好地理解大脑的运作模式。这一过程需要对大脑组织进行纳米级的 3D 成像(通常使用电子显微镜),然后分析成像数据结果以追踪大脑的神经突触并识别单个突触连接。由于成像分辨率高,即使是一立方毫米的大脑组织也能产生 1000 多 TB 的数据!这些图像中的结构相当复杂、精细,因此大脑成像的主要瓶颈在于数据的自动解读,而非获取。

如今,谷歌与马克斯-普朗克神经生物学研究所的研究人员合作,在《Nature Methods》杂志上发表了一篇名为《High-Precision Automated Reconstruction of Neurons with Flood-Filling Networks》的论文。该论文介绍了一种新型的循环神经网络,该网络在自动解读连接组学数据的准确性方面比以往的深度学习技术提高了一个数量级。

基于泛洪算法网络(Flood-Filling Network)的 3D 图像分割

追踪大量电子显微镜数据中的神经突触是图像分割问题的一个实例。传统的算法将该过程至少分为两步:利用边缘检测器或机器学习分类器找到神经突触之间的边界,然后使用分水岭或图像分割等算法将未被边界分隔的图像像素组合在一起。2015 年,我们开始尝试一种基于循环神经网络的替代方法,将这两个步骤统一起来。该算法被嵌在特定的像素位置,然后使用循环卷积神经网络迭代地「填充」某一区域,该循环卷积神经网络用来预测哪些像素属于与种子相同的对象。自 2015 年以来,我们一直致力于将这种新方法应用于大规模的连接组学数据集,并严格量化其准确率。

在 2D 图像中分割物体的泛洪算法网络。黄点是当前焦点区域的中心;该算法在迭代检查更多图像区域的同时扩展分割区域(蓝色)。

通过预期运行长度测量准确率

我们与马克思·普朗克研究所的研究人员合作,设计了一种被称之为「预期运行长度」(ERL)的度量标准,它测量以下内容:给定大脑 3D 图像中随机神经元内的随机点,在出错前,我们能追踪神经元多远?这是一个典型的「平均故障间隔时间」问题,只不过在这里我们测量的是故障间隔的空间量而不是时间量。对于工程师来说,ERL 的吸引力在于它将线性物理路径长度与算法产生的个别错误的频率关联起来,并且可以直接计算。对于生物学家来说,吸引力在于 ERL 的特定数值与生物相关的量相关,例如神经系统不同部分中神经元的平均路径长度。

预期运行长度(蓝线)的进展带来了今天在《Nature Methods》上共享的结果。红线表示「合并率」的进展,合并率测量两个分离的神经突被错误地追踪为单个目标的频率;达到非常低的合并率对于实现手动识别和校正重建中剩余误差的有效策略至关重要。

图像分割过程

鸣禽连接组学

我们用 ERL 测量了一百万立方微米斑胸草雀大脑中一组基本真实神经元的进展,斑胸草雀大脑通过我们的合作伙伴使用肖特基场发射扫描电子显微镜而成像。实验结果发现我们的方法优于之前应用于同一数据集的其他深度学习方法。

谷歌提出的算法在鸣禽大脑中追踪单个神经突的 3D 过程。

谷歌研究人员正和马克思·普朗克研究所的同僚们通过这种自动化方法,辅以少量人力协助以解决一些疑难问题。他们现在正致力于研究鸣禽连接组以寻求新理解,如研究斑胸草雀如何唱歌,以及它们如何学会唱歌。

展望

谷歌研究人员表示,他们在未来将继续改进连接组重构技术,目标是实现突触级分辨率连接组的全自动化,并为马克思·普朗克研究所及其他机构的连接组项目作出贡献。为了帮助支持更大的研究团队开发连接组技术,他们开源了泛洪算法网络方法的 TensorFlow 代码(https://github.com/google/ffn/)以及用于 3D 数据集的 WebGL 可视化软件,以帮助人们理解和改进目前的方法。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 谷歌
    +关注

    关注

    27

    文章

    6246

    浏览量

    110331
  • 神经网络
    +关注

    关注

    42

    文章

    4829

    浏览量

    106888

原文标题:前 | 谷歌AI脑神经元绘制法登上Nature子刊:速度提升一个数量级

文章出处:【微信号:gh_ecbcc3b6eabf,微信公众号:人工智能和机器人研究院】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    NMSIS神经网络库使用介绍

    NMSIS NN 软件库是一组高效的神经网络内核,旨在最大限度地提高 Nuclei N 处理器内核上的神经网络的性能并最​​大限度地减少其内存占用。 该库分为多个功能,每个功能涵盖特定类别
    发表于 10-29 06:08

    人工智能工程师高频面试题汇总:循环神经网络篇(题目+答案)

    后台私信雯雯老师,备注:循环神经网络,领取更多相关面试题随着人工智能技术的突飞猛进,AI工程师成为了众多求职者梦寐以求的职业。想要拿下这份工作,面试的时候得展示出你不仅技术过硬,还得能
    的头像 发表于 10-17 16:36 508次阅读
    <b class='flag-5'>人工智能</b>工程师高频面试题汇总:<b class='flag-5'>循环</b><b class='flag-5'>神经网络</b>篇(题目+答案)

    液态神经网络(LNN):时间连续性与动态适应性的神经网络

    1.算法简介液态神经网络(LiquidNeuralNetworks,LNN)是一种新型的神经网络架构,其设计理念借鉴自生物神经系统,特别是秀丽隐杆线虫的
    的头像 发表于 09-28 10:03 726次阅读
    液态<b class='flag-5'>神经网络</b>(LNN):时间连续性与动态适应性的<b class='flag-5'>神经网络</b>

    神经网络的并行计算与加速技术

    随着人工智能技术的飞速发展,神经网络在众多领域展现出了巨大的潜力和广泛的应用前景。然而,神经网络模型的复杂度和规模也在不断增加,这使得传统的串行计算方式面临着巨大的挑战,如计算速度慢、训练时间长等
    的头像 发表于 09-17 13:31 907次阅读
    <b class='flag-5'>神经网络</b>的并行计算与加速<b class='flag-5'>技术</b>

    利用超微型 Neuton ML 模型解锁 SoC 边缘人工智能

    nRF52805),只占用几千字节的非易失性存储器(NVM)。这使得以前被认为不可能的应用也能增加 ML 功能。例如,您现在可以在广泛的传感器网络的每个节点上进行人工智能处理,而在这种网络中,传感器的尺寸和成本
    发表于 08-31 20:54

    MAX78000采用超低功耗卷积神经网络加速度计的人工智能微控制器技术手册

    人工智能(AI)需要超强的计算能力,而Maxim则大大降低了AI计算所需的功耗。MAX78000是一款新型的AI微控制器,使神经网络能够在互联网边缘端以超低功耗运行,将高能效的AI处理与经过验证
    的头像 发表于 05-08 11:42 742次阅读
    MAX78000采用超低功耗卷积<b class='flag-5'>神经网络</b>加速度计<b class='flag-5'>的人工智能</b>微控制器<b class='flag-5'>技术</b>手册

    MAX78002带有低功耗卷积神经网络加速器的人工智能微控制器技术手册

    人工智能(AI)需要超强的计算能力,而Maxim则大大降低了AI计算所需的功耗。MAX78002是一款新型的AI微控制器,使神经网络能够在互联网边缘端以超低功耗运行,将高能效的AI处理与经过验证
    的头像 发表于 05-08 10:16 623次阅读
    MAX78002带有低功耗卷积<b class='flag-5'>神经网络</b>加速器<b class='flag-5'>的人工智能</b>微控制器<b class='flag-5'>技术</b>手册

    开售RK3576 高性能人工智能主板

    ZYSJ-2476B 高性能智能主板,采用瑞芯微 RK3576 高性能 AI 处理器、神经网络处理器 NPU, Android 14.0/debian11/ubuntu20.04 操作系统
    发表于 04-23 10:55

    【「芯片通识课:一本书读懂芯片技术」阅读体验】从deepseek看今天芯片发展

    的: 神经网络处理器(NPU)是一种模仿人脑神经网络的电路系统,是实现人工智能神经网络计算的专用处理器,主要用于
    发表于 04-02 17:25

    BP神经网络与卷积神经网络的比较

    BP神经网络与卷积神经网络在多个方面存在显著差异,以下是对两者的比较: 一、结构特点 BP神经网络 : BP神经网络是一种多层的前馈神经网络
    的头像 发表于 02-12 15:53 1383次阅读

    BP神经网络的优缺点分析

    自学习能力 : BP神经网络能够通过训练数据自动调整网络参数,实现对输入数据的分类、回归等任务,无需人工进行复杂的特征工程。 泛化能力强 : BP神经网络通过训练数据学习到的特征表示
    的头像 发表于 02-12 15:36 1631次阅读

    什么是BP神经网络的反向传播算法

    BP神经网络的反向传播算法(Backpropagation Algorithm)是一种用于训练神经网络的有效方法。以下是关于BP神经网络的反向传播算法的介绍: 一、基本概念 反向传播算法是BP
    的头像 发表于 02-12 15:18 1322次阅读

    BP神经网络与深度学习的关系

    BP神经网络与深度学习之间存在着密切的关系,以下是对它们之间关系的介绍: 一、BP神经网络的基本概念 BP神经网络,即反向传播神经网络(Backpropagation Neural N
    的头像 发表于 02-12 15:15 1385次阅读

    如何训练BP神经网络模型

    BP(Back Propagation)神经网络是一种经典的人工神经网络模型,其训练过程主要分为两个阶段:前向传播和反向传播。以下是训练BP神经网络模型的步骤: 一、前向传播 前向传播
    的头像 发表于 02-12 15:10 1488次阅读

    人工神经网络的原理和多种神经网络架构方法

    在上一篇文章中,我们介绍了传统机器学习的基础知识和多种算法。在本文中,我们会介绍人工神经网络的原理和多种神经网络架构方法,供各位老师选择。 01 人工
    的头像 发表于 01-09 10:24 2295次阅读
    <b class='flag-5'>人工</b><b class='flag-5'>神经网络</b>的原理和多种<b class='flag-5'>神经网络</b>架构方法