0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

基于神经科学的Numenta介绍

Astroys 来源:Astroys 2023-09-21 09:10 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

人脑以高效著称,它以稀疏的表征方式存储和处理信息。在任何时刻,只有一小部分神经元处于活跃状态。神经科学家相信,他们可以将大脑启发的逻辑映射到运行AI模型的算法、数据结构和架构中,从而提供一个让AI降低功耗的配方。数据科学家是否愿意改变他们基于蛮力计算的AI实践,这一点尚未确定,因为这种方法似乎越来越难以为继。

正自筹资金起家的初创公司并不多见,更不用说这家公司在神经科学研究领域玩了18年的长线游戏之后,突然推出了一款商业软件产品。

更重要的是,这家初创公司的新产品直接向炙手可热的大语言模型(LLM)AI市场发出了挑战。

这家公司就是Numenta,它承诺其受神经科学启发的软件可以大幅降低在CPU上运行LLM的功耗。

持怀疑态度的人可能会认为这种策略是投机取巧。Numenta的CEO Subutai Ahmad认为,这种说法并不用准确。

Numenta将数十年的神经科学研究应用于商业产品的手段、动机和机遇都出现在AI领域。Numenta的研究人员特别注意到了AI科学家依靠蛮力计算来实现transformer的方式。

当然,神经科学和AI并非完全形同陌路。这两个学科在二十世纪五六十年代相互影响,后来逐渐分道扬镳。不过,Ahmad表示,神经科学和AI一直孤立地存在着,这点令人惊讶。

以ChatGPT为例。

尽管ChatGPT已是当红炸子鸡,但Ahmad认为,ChatGPT消耗的能源太多,最终将难以为继。他认为,只有应用神经科学的基本原理,开发者才能改变AI迈向死胡同轨迹。

了解Numenta

Numenta与其它大多数初创公司的区别在于,其联合创始人Jeff Hawkins、Donna Dubinsky和Dileep George的履历、经验和专业知识。

Hawkins在90年代是著名的Palm Pilot PDA的设计师。之后,他又在Handspring开创了名为Treo的智能手机

Dubinsky曾在1980年代负责管理Apple的部分分销网络,又曾任Palm的CEO,后来与Hawkins共同创办了Handspring。

2005年,AI和神经科学研究员Dileep George与Hawkins和Dubinsky合作。

每位联合创始人都为Numenta带来了技术、创业和激情方面的独特面向,而Hawkins则因痴迷脑科学而闻名,他是Numenta的公众导师。他撰写了两本书,“On Intelligence”(2004年与Sandra Blakeslee合著)和“A Thousand Brains: A new theory of intelligence”(2021 年)。他在科学杂志上发表的许多论文经常被大量引用。

但具有讽刺意味的是,神经科学的进步主要局限于研究机构,对商业市场影响甚微。据Numenta的CEO Ahmad称,只有极少数实验室积极将神经科学应用于AI。“我们可能是唯一一家尝试这样做的公司。”

他说,Numenta很幸运能走到今天,但他认为ChatGPT是一个“巨大的功耗”。Ahmad坚信,Numenta基于神经科学的数据结构和算法能为LLM带来更高的效率。

Numenta的商业产品

Numenta上周推出的第一款产品是AI软件“NuPIC(Numenta Platform for Intelligent Computing)”。

NuPIC是为现有transformer设计的即插即用软件,可以在CPU上以“极高的吞吐量和低延迟”运行LLM,该公司称,“速度明显快于Nvidia A100 GPU”。

Ahmad解释说,NuPIC将作为“企业软件”授权给“希望将LLM纳入工作流程的企业”。他强调说,Numenta不提供云服务,因此这不是SaaS。NuPIC授权用户将在自己的基础设施中安装该软件,因此“数据和模型对他们来说是完全私有的”。

Numenta产品的关键之一是它可以“直接插入”现有的transformer。Ahmad说:“在外界看来,它并没有什么不同。因此,下图中的中间部分和界面看起来与AI世界已经知道的完全相同。你甚至可以把传统的transformer换成我们的transformer,整个东西仍然可以工作。”

wKgaomULmKmAbG2MAADcM3d2HX0684.jpg

Numenta声称,其基于神经科学的AI解决方案“能让客户实现10到100倍以上的性能提升”。这些数字似乎好得不像真的,但该公司并非凭空捏造。Numenta有与Intel合作完成的案例研究为证。

与Intel和Xilinx的合作

Intel今年在其Xeon Max系列和第四代Intel Xeon可扩展处理器上发布了x86指令集架构的新扩展,称为AMX(Advanced Matrix Extensions)。AMX设计用于矩阵,以加速AI工作负载的矩阵乘法。

Numenta的团队从去年开始与Intel合作,当时Intel正在开发AMX。Ahmad解释说,Intel正在“利用CPU并添加类似于GPU的指令来进行矩阵乘法运算。但它仍然是CPU,而这些CPU非常灵活”。

Ahmad说,这种灵活性使Numenta“可以将我们的算法移植到这些芯片上”。Intel的一份文件指出:“Numenta展示了他们定制训练的LLM在Intel Xeon CPU Max系列处理器上运行时,与当前一代AMD Milan CPU的实现相比,在处理器上配备高带宽内存的LLM在大型文档(长序列长度)上的运行速度要快20倍。”

Intel总结说,Numenta已经证明“有能力大幅降低在Intel上运行语言模型的总体成本,为客户释放全新的自然语言处理能力”。

wKgaomULmKmAZF0VAAKMQBF81X4252.jpg

Numenta的Ahmad则更进一步说:“我们可以让transformer运行得比Nvidia GPU更快。”

现在判断Numenta的软件是否真的是Nvidia GPU Killer还为时尚早。但在Ahmad看来,Numenta从神经科学中学到的基本原理让公司处于优势地位。“这并不是说我们有什么魔法能让速度提高100倍。我们所做的是减少计算量。这就是大脑的工作。这就是我们提高效率的方法。”

Numenta技术的应用范围包括计算机视觉语音识别机器人技术。

在语音识别领域,Numenta已经与Xilinx(已被AMD收购)开展了合作。Numenta演示了其大脑启发的稀疏算法如何辅助机器学习,该算法在Xilinx现成的FPGA和GSC(Google Speech Commands)数据集上运行。根据Numenta提交的案例研究,该公司展示了“利用稀疏性扩展深度学习模型的巨大优势”。

神经科学与AI

那么,究竟什么是神经科学,它与AI有何不同?

神经科学侧重于了解神经系统(大脑、脊髓和外周神经)的基本特性以及它们如何发挥作用。相比之下,AI的兴趣在于开发机器来完成通常与人类智能相关的任务。

正如Ahmad所解释的,在人工神经网络的早期,AI在很大程度上受到了神经科学的启发。Ahmad说:“20世纪40年代,Donald Hebb提出了神经元可以学习的最初想法,而且神经元可以学习模式。这启发了最早的人工神经元,当时被称为感知器(perceptron)。”

他补充说,神经科学还启发了“反向传播(backpropagation)”,这是深度学习的核心学习算法,一直沿用至今。

David Hunter Hubel和Torsten Wiesel共同获得了1981年诺贝尔奖,他们研究了视觉皮层的结构和功能。Ahmad解释说,他们极大地增强了人类对视觉系统如何按层次学习物体特征的理解,首先从边缘到角落,然后到形状,最后到物体。

Ahmad强调说:“这种对层次结构和特征检测的理解直接启发了卷积网络,这种核心架构甚至被用于当今的计算机视觉领域。”

直到Ahmad感兴趣的90年代初,神经科学家和深度学习研究人员之间的互动还很普遍。

不知从何时起,AI开始专注于GPU和计算。随着GPU速度越来越快,网络也越来越大。随着计算机越来越强大,数据科学家依赖的数据也越来越多。AI成了更强大和更多闪存的代名词。

Ahmad援引这一背景,认为当今的AI存在两个基本问题。其弱点在于“无法持续学习”,以及对“过多数据”的贪得无厌。

根据他的定义,真正的智能系统是“不断学习”的。他说,AI系统首先在实验室中接受训练,然后部署到现实世界中。但它们不会不断学习。

与人类不断渐进地学习不同,代码还不能真正地“学习”。Ahmad在最近的一篇文章中写道:“如果一个AI模型今天犯了一个错误,那么它将继续重复这个错误,直到使用新的数据对它进行重新训练。”

他说:“作为人类,我们通过四处走动来学习,我们了解世界的结构,甚至做出预测。”

想想AI模型是如何学会识别一种新车型的。

Ahmad说,人类只需要看到“一个例子。我会从另一个角度、一天中的不同时间或在下雨天都可以认出那辆车”。Ahmad说,深度学习系统没有真实的世界模型,“你必须向它们展示数以千计的各种图像”。“它必须记住这辆车的每一个可能的角度”。

神经形态(neuromorphic)计算与神经科学有何不同?Ahmad解释说,神经形态计算是“神经科学和AI这一更广泛领域的一个子集”。虽然神经形态工程的重点通常是构建新的、能效极高的硬件系统,但Ahmad说:“我们正在开发更多的软件和算法。我们将能够利用芯片行业正在进行的所有创新,包括CPU、GPU以及所有SIMD指令和架构。”

融资情况

Ahmad说,Numenta的资金主要来自董事会内部,其中包括Hawkins和Dubinsky,但也有一些外部投资者。

目前,Numenta规模仍然很小,只有20名员工。Ahmad补充说:“现在,Numenta正在走向商业化,我们将在明年的某个时候,很可能是今年晚些时候,进行一轮大规模融资。”

过去二十年来,神经科学家和数据科学家之间的分化很有启发性。硅谷通过一个非常男性化的方式实现了惊人的发展,更大更快的CPU和GPU永远是赢家。但如今,他们需要想办法从拼肌肉的死胡同过渡到基于效率的模式。






审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 处理器
    +关注

    关注

    68

    文章

    20149

    浏览量

    247206
  • GPU芯片
    +关注

    关注

    1

    文章

    306

    浏览量

    6399
  • 自然语言处理

    关注

    1

    文章

    629

    浏览量

    14563
  • ChatGPT
    +关注

    关注

    31

    文章

    1596

    浏览量

    10074
  • LLM
    LLM
    +关注

    关注

    1

    文章

    340

    浏览量

    1257

原文标题:基于神经科学的Numenta能否挑战强大的Nvidia?

文章出处:【微信号:Astroys,微信公众号:Astroys】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    NMSIS神经网络库使用介绍

    NMSIS NN 软件库是一组高效的神经网络内核,旨在最大限度地提高 Nuclei N 处理器内核上的神经网络的性能并最​​大限度地减少其内存占用。 该库分为多个功能,每个功能涵盖特定类别
    发表于 10-29 06:08

    脉冲神经元模型的硬件实现

    如图所示展示了LIF神经元的膜电势Vmem随时间戳timestamp动态变化的过程,当接收到输入脉冲后,LIF神经元的膜电势值Vmem便会升高,直至达到阈值电压Vthersh,此时神经元产生输出脉冲
    发表于 10-24 08:27

    SNN加速器内部神经元数据连接方式

    模块对传入的AER脉冲数据包进行解码,并重新解码建立脉冲序列。 我们介绍了SNN中脉冲通过地址事件表达(AER)的方式编码成脉冲数据包,脉冲数据包中包含源神经元地址和脉冲发生的时间戳,下面我们介绍
    发表于 10-24 07:34

    思必驰与上海交大联合实验室五篇论文入选NeurIPS 2025

    近日,机器学习与计算神经科学领域全球顶级学术顶级会议NeurIPS 2025公布论文录用结果,思必驰-上海交大联合实验室共有5篇论文被收录。NeurIPS(Conference on Neural
    的头像 发表于 10-23 15:24 564次阅读
    思必驰与上海交大联合实验室五篇论文入选NeurIPS 2025

    国际类脑计算科学家Yulia Sandamirskaya教授加盟时识科技

    近日,国际类脑计算与神经形态机器人领域知名科学家Yulia Sandamirskaya 教授,作为科学家顾问正式加入时识科技(SynSense)。
    的头像 发表于 10-13 13:50 448次阅读

    ATA-4315高压功率放大器:生物电刺激技术研究的高精度驱动核心

    生物电刺激技术在医学和生物科学领域具有广泛的应用,包括神经科学研究、生物医学工程和康复医学等。例如,在神经科学研究中,通过记录和分析生物电信号,可以了解神经元之间的连接和通信方式;在生
    的头像 发表于 10-13 11:21 204次阅读
    ATA-4315高压功率放大器:生物电刺激技术研究的高精度驱动核心

    会议回顾 | 深视智能携新品sCMOS科学相机亮相中国神经科学学会第十八届全国学术会议

    ·祝贺第十八届全国学术会议圆满举行中国神经科学学会第十八届全国学术会议(CNS2025)于9月28日在西安国际会展中心顺利闭幕。本次大会汇聚了全球顶尖的科学家与研究学者,我们深感荣幸能参与
    的头像 发表于 10-13 08:18 284次阅读
    会议回顾 | 深视智能携新品sCMOS<b class='flag-5'>科学</b>相机亮相中国<b class='flag-5'>神经科学</b>学会第十八届全国学术会议

    【「AI芯片:科技探索与AGI愿景」阅读体验】+神经形态计算、类脑芯片

    几年神经元计算及类脑芯片的重大进展。 一、云端使用的神经形态计算与类脑芯片 神经形态计算旨在设计和构建包括硬件和软件在内的计算机系统,通过模拟大脑神经元和突触的工作方式,更高效的执行认
    发表于 09-17 16:43

    【「AI芯片:科技探索与AGI愿景」阅读体验】+AI的科学应用

    和关联性 AI驱动科学:研究和模拟人类思维和认识过程。 本章节作者为我们讲解了第五范式,介绍科学发现的一般方法和流程等。一、科学发现的5个范式 第一范式:产生于公元1000年左右的阿
    发表于 09-17 11:45

    大小鼠糖水偏好实验系统

    对动物行为的理解,还能够在药开发和神经科学研究中发挥重要作用。随着技术的不断进步,我们有理由相信,类似的实验系统将继续推动科学界对复杂行为的深入探索。
    发表于 08-14 13:40

    简仪产品在超分辨高速双光子显微镜中的应用

    双光子显微成像技术以红外飞秒激光作为光源,深入组织内部非线性地激发荧光,双光子成像能减小激光对生物体的损伤,且具有高空间分辨率,适合长时间观察。因此,双光子显微成像技术已成为神经科学与生物医学研究中的关键成像手段。
    的头像 发表于 08-04 16:22 784次阅读

    什么是BP神经网络的反向传播算法

    BP神经网络的反向传播算法(Backpropagation Algorithm)是一种用于训练神经网络的有效方法。以下是关于BP神经网络的反向传播算法的介绍: 一、基本概念 反向传播算
    的头像 发表于 02-12 15:18 1279次阅读

    BP神经网络与深度学习的关系

    BP神经网络与深度学习之间存在着密切的关系,以下是对它们之间关系的介绍: 一、BP神经网络的基本概念 BP神经网络,即反向传播神经网络(Ba
    的头像 发表于 02-12 15:15 1341次阅读

    Meta AI推出Brain2Qwerty:非侵入性大脑信号转文本系统

    据外媒最新报道,Meta AI成功研发出一款名为Brain2Qwerty的人工智能系统,该系统能够无需手术即可将大脑信号直接转换为文本。这一创新成果为神经科学与人工智能的融合开辟了新的道路
    的头像 发表于 02-11 13:37 875次阅读

    人工神经网络的原理和多种神经网络架构方法

    在上一篇文章中,我们介绍了传统机器学习的基础知识和多种算法。在本文中,我们会介绍人工神经网络的原理和多种神经网络架构方法,供各位老师选择。 01 人工
    的头像 发表于 01-09 10:24 2256次阅读
    人工<b class='flag-5'>神经</b>网络的原理和多种<b class='flag-5'>神经</b>网络架构方法