0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

2018年CNCC大会“神经形态芯片与神经形态计算机”

DPVg_AI_era 来源:未知 作者:李倩 2018-11-05 17:30 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

神经形态计算能够大幅提升数据处理能力和机器学习能力,是高性能计算的下一发展阶段。在2018年CNCC大会“神经形态芯片与神经形态计算机”论坛上,陈云霁、汪玉、吴南健、曾毅、唐华锦、赵地等嘉宾做了相关报告,新智元创始兼CEO杨静作为论坛主持人。

深度学习为代表的人工神经网络是机器学习最重要的方法之一,在云端和终端都有非常广泛的应用。然而传统的CPUGPU芯片在进行神经网络处理时遇到了严重的性能和能耗瓶颈。

神经形态计算能够大幅提升数据处理能力和机器学习能力,能耗和体积却要小得多,或将引领计算机微型化和人工智能的下一阶段。

目前,神经形态芯片已经进入工程化研发。IBM公司2014年8月所公布的百万神经元级别的TrueNorth芯片,在执行某些任务时,其能效可达传统中央处理器的数百倍,首次与人脑的大脑皮层有了可比之处。

英特尔的首款神经拟态芯片Loihi通过脉冲或尖峰传递信息,并自动调节突触强度,利用环境中的各种反馈信息,进行自主学习、下达命令,也与人类大脑运行机制相似。

在2018年CNCC大会“神经形态芯片与神经形态计算机”论坛上,中科院计算所研究员、智能处理器研究中心主任陈云霁,清华大学电子工程系长聘副教授汪玉,中科院半导体所研究员、中国科学院大学教授吴南健,中科院自动化所研究员、类脑智能研究中心副主任曾毅,四川大学类脑中心主任唐华锦,中科院计算所副研究员赵地先后做了相关报告,新智元创始人兼CEO杨静女士作为特邀嘉宾主持论坛及Panel环节。论坛共同主席为唐华锦、赵地。

在Panel环节上,吴南健、曾毅、唐华锦、赵地以及西南大学电子信息工程学院段书凯教授参与。

根据嘉宾演讲内容,整场论坛大致可分为神经形态芯片、神经形态计算算法以及论坛Panel三部分。以下为论坛精要。

神经形态芯片新思路:ASIC之外的突破

首先是中科院计算所研究员、智能处理器研究中心主任陈云霁的演讲题目为《深度学习专用处理器》。

传统ASIC的思路无法解决深度学习处理的需求,寒武纪主要突破三大矛盾:

1、有限规模的硬件如何解决任意规模的算法;

2、结构固定的硬件怎么应对千变万化的算法;

3、能耗受限的硬件怎么支撑精度优先的算法;

针对上述三个矛盾,寒武纪分别做了以下三个努力:

1、硬件神经元虚拟化。

学术创新:通过分时复用,将有限规模的硬件虚拟成任意大规模的人工神经网络。

关键技术包括:

控制架构:支持硬件神经元的动态冲配置和运行时编程

访存架构:分离式的输入神经元、输出神经元和突出的片上存储。

2、深度学习指令集。

学术创新:自动化抽取各种深度学习(机器学习)算法共性基本算子,设计首个深度学习指令集来处理这些算法。

关键技术包括:

算子聚类:自动化抽取算法核心片段,基于数据特性聚为少数几类。

运算架构:设计共性神经元电路,支持变精度流水级。

3、稀疏神经网络处理器结构。

学术创新:利用神经网对于计算误差的容忍能力,进行稀疏化神经网络处理,在有限的能耗下实现高精度的智能处理。

随后,清华大学长聘教授汪玉博士做了《基于RRAM的神经网络系统设计与探索》报告。

因为CPU和GPU效率不高,因此要把神经网络应用于更广泛的应用,需要定制硬件。FPGA可以成为神经网络加速的理想平台,因为它是可编程的,与通用处理器相比可以实现更高的能效。

然而,较长的开发周期和传统的FPGA加速性能不足使其无法广泛使用。汪玉介绍了一个完整的设计流程,采用深度压缩和数据量化来利用算法中的冗余并降低计算和存储器复杂性,以实现快速部署和高能效,以加速FPGA上的神经网络。

另一方面,以存算一体化为基础(例如基于RRAM等非易失存器件)的神经网络计算平台设计成为发展方向,报告还介绍了基于RRAM的深度学习处理系统设计,探讨进一步提高能效的机遇与挑战。

RRAM是电阻网络的向量和向量的运算,只要一通电,数据流过,就会出结果,不需要搬数据,所以非常漂亮的一种方式。

但是这种方式真的是好吗?最近几年,这种方式能做出来的芯片都还非常的小。

汪玉团队针对存算一体化系统中的一些关键问题展开研究,特别是数模混合系统的接口设计优化、如何用不可靠的器件设计可靠系统等方面开展大量研究。

接下来,中科院半导体所研究员、中国科学院大学教授吴南健做了《人工视觉系统芯片研究及发展趋势》报告。

人工视觉系统芯片是单芯片集成视觉传感器和视觉并行处理器,能够模仿人类视觉系统的信息并行获取和处理,可实现高速图像获取、传输、学习、记忆、识别和控制。

涉及到的核心技术涉及三点:视觉呈现、视觉信息处理、集成技术。

人工视觉芯片是典型的边缘计算,要求实时处理能力强、功耗低、体积小,非常难设计,但应用前景广泛,吴教授认为,3、4年内应该会大规模应用。

根据视觉获取和处理方法不同,人工视觉系统芯片分为帧驱动和事件驱动视觉芯片。以下为两种芯片的比较:

其中,事件驱动视觉芯片能够检测空间和事件光变化,以事件方式获取信号、处理信号和输出,相对帧驱动视觉芯片,事件驱动视觉芯片还处于起步阶段。

目前,国际上的人工视觉系统芯片最新成果对比:

目前人工智能是计算速度与数据规模提升的结果,机器自我意识何时觉醒?

中国科学院自动化研究所研究员、类脑智能研究中心副主任曾毅做了《类脑智能:从类脑认知引擎到有意识的生命体》的报告。

类脑智能是通过受脑多尺度结构与计算机制启发,探索人类智能本质与人类水平人工智能的重要途径之一。报告从人类的心智是否能够在计算系统中重现等科学问题出发,从人工智能、神经科学、认知科学融合的视角介绍类脑认知引的研究进展。

曾毅认为,目前的人工智能是计算速度与数据规模的提升。在曾毅看来,数据智能与机器智能并不是真正的智能,它们只是看上去很像智能的信息处理,与真正探索智能本质,基于机制的人工智能还相去甚远。

他的演讲着重介绍课题组在大规模多尺度脑神经网络建模与模拟、类脑自主学习与决策及其在无人、机器人领域的应用方面。在此基融上,将进一步探讨机器自我意识的初步探索并展望机器意识与人机社会的未来。

四川大学教授唐华锦教授做了《神经形态计算进展》报告。

与传统人工智能方法不同,神经形态计算主要受神经科学发展推动,是建立在大脑神经电路结构和神经信息处理与神经脉冲计算原理上的新型计算模式,并最终以神经形态硬件方式来实现仿脑的认知计算与低功耗运算。

虽然在神经元和突触层级神经科学已经取得了很大的进展,但神经元之间如何通过网络连接取得复杂认知功能仍然缺乏了解。

唐华锦教授从神经形态认知计算领域需要解决的主要问题出发,介绍如下几个方面内容:神经信息编码、突触可望性与学习算法,以及集成编码与学习的系统模型,并讨论神经形态计算领域的最新进展及展望。

随后,中科院计算所副研究员赵地做了《神经形态计算与医学影像分析》报告。

心电信号检测与分析是心脏疾病患者的重要保障。现有的方法包括机器学习与一维深度学习。然而,现有的方法难以满足心脏疾病患者全天候实时检测高准确率和低能耗的要求。

赵地的研究基于脉冲神经网络,将心电信号的时空特性直接编码到尖峰序到中,通过基于 Izhikevich尖峰神经元的网路进行特征提取,并采用时间以来可塑性(STDP)算法进行优化,对心电信号指示的疾病进行识别。实验结果表明,通过基于类脑计算的算法分析公共ECG数据库和内部临床试验,准确率与能耗远优于现有的方法。

中国自主芯片研发最关键着力点:生态

在论坛的panel环节,吴南健、曾毅、唐华锦、赵地以及西南大学电子信息工程学院段书凯教授参与,新智元创始人兼CEO杨静女士担任主持人。

杨静:在贸易紧张背景下,中国遭“缺芯”之痛,产业界和学术界对于中国自主芯片的研发的最关键着力点究竟在哪儿?中国未来AI芯的最短板是哪里?我们该怎么办?

嘉宾:英特尔和微软是最佳的“联姻”,形成WIntel生态。华为、阿里的芯片做出来了,但如果没人用,做的再好也不会形成生态。我们国家在很早的时候做出了CPU和系统,但是很多软件移植不到上面去。关键在于产学研要融合,企业要和学校紧密联系,同时也应该建立起生态。

对于研究人员而言,应该主动和产业对接,成果优先在产业界转化。

芯片的问题实际上是结构性问题,我们国家芯片开发长期以来落后,另一方面也反映对芯片开发缺乏信心。但是我国将近20年的集成电路发展,水平是可以达到国家的需求,希望系统厂商能有风险意识,应该有国内供应商。

杨静:中国有哪些研发机构在神经形态芯片领域最有希望取得突破,最关键的应用领域有哪些?

嘉宾:总体来讲,国家整体态势跟美国相比可能有差距,差距还是在整体的生态和环境上,但是跟国际上其他国家相比还是有优势的。今年以来,国内企业和学术机构发布的芯片在国际上达到较高水平。

在神经形态领域应该有提前布局,不管是基本单元的性能还是智能,以体系结构的视角提升高智能。

未来,自适应、自学习的芯片硬件是最有可能突破的方向。

杨静:欧洲大脑计划、美国大脑计划或者中国大脑计划都渐渐从公众视野淡出,人类大脑计划未来3年会出现新的突破么?目标会调整么?

嘉宾:信息论和图灵机的模型定义在几十年前,现在还是定义这样,人类大脑计划目标就是为了突破这种定义。

十年时间重新创造人类大脑是非常困难的,以现在神经科学在三维重建上的技术是不能实现的。这是万米赛跑,大家都刚起步。

杨静:2018年国际上神经形态芯片研发有哪些重大进展?是产业主导还是学术主导?

嘉宾:英特尔神经形态芯片不管是在规模还是性能上都是非常领先的,国内,寒武纪、地平线等公司做的芯片。

在忆阻器方面,整体上全球各个国家都有明显的进步,清华、科学院微电子所、华中科大几大团队也在做。引起工业界关注的是利用光来进行神经拟态芯片研发。

新智元创始人兼CEO杨静女士与论坛共同主席唐华锦(左一)、赵地

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 芯片
    +关注

    关注

    462

    文章

    53551

    浏览量

    459287
  • 存储器
    +关注

    关注

    39

    文章

    7715

    浏览量

    170870
  • 神经网络
    +关注

    关注

    42

    文章

    4829

    浏览量

    106809

原文标题:CNCC最火论坛干货:神经形态芯片与神经形态计算机

文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    神经元设备和脑机接口有何渊源?

    电极。1970代,膜片钳技术的出现使细胞内记录成为可能,成为研究离子通道的“金标准”。随着人工智能的兴起,尤其是1950代图灵测试的提出,计算机学习与神经网络
    的头像 发表于 11-03 18:03 1164次阅读
    <b class='flag-5'>神经</b>元设备和脑机接口有何渊源?

    2025中国计算机大会DPU技术论坛成功举办

    近日,备受瞩目的第22届中国计算机大会CNCC2025)在哈尔滨开幕。本届大会注册人数突破1.2万人,汇聚了来自全球计算机领域的顶尖学者、
    的头像 发表于 11-02 09:29 387次阅读

    摩尔线程亮相2025中国计算机大会

    10月23日至25日,第二十二届中国计算机大会CNCC2025)在哈尔滨成功举办。大会以“数智赋能,无限可能”为主题,汇聚了来自全球计算机
    的头像 发表于 10-27 17:46 709次阅读

    蔚来出席CNCC 2025中国计算机大会技术论坛

    202510月23日,CNCC 2025中国计算机大会技术论坛「AI落地应用的主战场——智能电动汽车」在哈尔滨成功举行。论坛聚焦计算机技术
    的头像 发表于 10-27 15:47 316次阅读

    深开鸿荣获2025度中国计算机学会“技术发明一等奖”!

    202510月24日,在中国计算机学会(CCF)主办的2025中国计算机大会(CNCC2025)颁奖典礼上,正式揭晓了2025
    的头像 发表于 10-27 15:21 429次阅读
    深开鸿荣获2025<b class='flag-5'>年</b>度中国<b class='flag-5'>计算机</b>学会“技术发明一等奖”!

    脉冲神经元模型的硬件实现

    会发生泄漏而降低。 以下公式 用来计算LIF模型的膜电势 其中表示神经元的膜电势,vrest 代表神经元复位电位,为时间常数。是权重和输入脉冲的乘累加,结果再与膜电势相加。当神经
    发表于 10-24 08:27

    SNN加速器内部神经元数据连接方式

    的数量级,而且生物轴突的延迟和神经元的时间常数比数字电路的传播和转换延迟要大得多,AER 的工作方式和神经网络的特点相吻合,所以受生物启发的神经形态处理器中的NoC或SNN加速器通常使
    发表于 10-24 07:34

    【「AI芯片:科技探索与AGI愿景」阅读体验】+具身智能芯片

    计算机可以处理的数字信息。 认知层: 认知层是具身智能的第二层, 负责对数据进行处理和分析,以便更好地理解和利用这些数据。 包括各种算法和模型,如DNN、神经形态计算、决策树等。 作
    发表于 09-18 11:45

    【「AI芯片:科技探索与AGI愿景」阅读体验】+神经形态计算、类脑芯片

    几年神经计算及类脑芯片的重大进展。 一、云端使用的神经形态计算与类脑
    发表于 09-17 16:43

    【「AI芯片:科技探索与AGI愿景」阅读体验】+化学或生物方法实现AI

    )大脑的能效远高于目前的AI芯片 都知道计算机算的快,但是能取代大脑吗?肯定是不行的。大脑在处理复杂信息方面的能力是远超计算机的。是不可替代的。 2)细菌神经网络 直接使用生物体来实现
    发表于 09-15 17:29

    新一代神经拟态类脑计算机“悟空”发布,神经元数量超20亿

    拟态芯片的类脑计算机神经元数量接近猕猴大脑规模,典型运行状态下功耗仅约2000瓦。传统计算机处理人脑任务需高达100兆瓦功耗,相比之下“悟空”低功耗优势显著。     硬件上,“悟空
    的头像 发表于 08-06 07:57 7280次阅读
    新一代<b class='flag-5'>神经</b>拟态类脑<b class='flag-5'>计算机</b>“悟空”发布,<b class='flag-5'>神经</b>元数量超20亿

    革命性神经形态微控制器 ​**Pulsar**​ 的深度技术解读

    以下是对荷兰公司Innatera推出的革命性神经形态微控制器 ​ Pulsar ​ 的深度技术解读,结合其架构设计、性能突破、应用场景及产业意义进行综合分析: 一、核心技术原理:神经形态
    的头像 发表于 06-07 13:06 1330次阅读
    革命性<b class='flag-5'>神经</b><b class='flag-5'>形态</b>微控制器 ​**Pulsar**​ 的深度技术解读

    时识科技推出XyloAudio 3神经形态开发套件

    时识科技(SynSense)推出的XyloAudio 3神经形态开发套件,为边缘AI音频处理树立全新能效标杆!基于类脑计算技术,XyloAudio 3专为实时声音检测与分类场景打造,以超低功耗(<1毫瓦)和毫秒级响应速度赋能下一
    的头像 发表于 05-15 15:07 948次阅读
    时识科技推出XyloAudio 3<b class='flag-5'>神经</b><b class='flag-5'>形态</b>开发套件

    【「芯片通识课:一本书读懂芯片技术」阅读体验】从deepseek看今天芯片发展

    神经元并行处理问题的能力,所以NPU要用大量计算单元(也称为“算子”)构成一个神经网络,而且这些算子的数据存储和计算是一体化的。这就突破了传统的冯·诺依曼
    发表于 04-02 17:25

    加州理工学院开发出超100GHz时钟速度的全光计算机

    加州理工学院的研究人员取得重大突破,开发出一款能实现超过100GHz时钟速度的全光计算机。 长期以来,电子计算机时钟频率在近20停滞于5GHz左右。 而此次推出的全光计算机,通过基于
    的头像 发表于 01-23 10:32 769次阅读