0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

工程师聊AI芯片,算法的实现什么时候成为问题了?

工程师兵营 2018-08-24 14:34 次阅读

1谈算法不谈智能

IEEE协会首次在京举办研讨会的时候,中国自动化学会副理事长兼秘书长、中科院自动化研究所复杂系统管理与控制国家重点实验室主任王飞跃称不存在AI芯片。对于这一观点的争议非常大,网络上也是众说纷纭。大体上看过一些说法后,其中大多数我觉得更有辩论赛上常用的偷换概念的感觉。大家的注意点仿佛并不在AI芯片上,而是在AI这个概念的争议上。

网上比较常见的智能的定义:

1、首先是最典型的一个现象,几乎“智能”被当做标签打满了各种商品智能手机、智能电视、智能手环、智能家居,甚至智能扫地机器人、智能洗碗机。所谓智能这个概念仿佛变成了常规的嵌入式设备。但凡能接入个网络,WiFi也好ZigBee也罢,能做个简单的语音控制,简单的图像识别,好像就成了人工智能设备。与其将MCU、NPU、ARM、MIPS、STM32等常规的嵌入式环境的核心芯片作为所谓的智能,我倒还是传统一点将其理解为嵌入式芯片罢了。

2、相对另一个极端的理解就是既然是“人工”、“智能”。所谓智能不单纯是对话和互联,这种说法则是上升到意识层面,“人工”制造的这个“智能”应该拥有自己对事物的理解,拥有自己的思维,而不是简单的重复和推断。

3、第三个占了不小比重的人群的理解,更是让我感觉这部分人的理解只是个误解。仿佛使用了机器学习算法、神经网络算法、深度学习算法、贝叶斯算法的,仿佛全部都变成了人工智能。

这里也有人为了回避大家在“智能”上偷换概念,提出了强人工智能和弱人工智能概念区分。强人工智能仿佛成了未来的目标,那我们也就姑且以“弱人工智能”这个概念展开来谈。

说起来所谓的人工智能热潮,人工智能寒冬,已经至少是第三次了。

第一次,在20世纪50年代左右,被称为人工智能之父的约翰麦卡锡创造了lisp语言,也引领了以symbol概念为核心的符号主义人工智能。

第二次,在20世纪70年代左右,BP算法的提出,则是引领了一波以神经网络这个概念为核心的连接主义人工智能。

而现在这一波人工智能概念重新被人们拉出来炒作,则是所谓以机器学习这个概念爆炒。但单讲机器学习这个概念,却发现无论是蒙特卡洛算法、贝叶斯定理、贝叶斯网络、NN神经网络、RNN网络,还是提出了一个包含多隐层的所谓深度学习,其实大体上我并没有见到什么新鲜的面孔,反而都是些几十年前早都已经在玩的东西。可能唯一的不同是现在的硬件性能远远高于从前的硬件性能,FPGAGPU、ZYNQ等更新鲜的设计模型,芯片工艺的大幅提升,让制作芯片的成本急剧下降,让从前很多在数学、在理论上早就玩剩下的东西,可以在一个更可以被人所接收的速度和响应环境下工作。

这也就提到了上述我的观点,我们谈算法不谈智能。所谓强人工智能,确实不是我们现阶段能实现的,获取暂且是连头绪都没有的虚无缥缈的目标。至少人类的认知和意识的模型,我不认为是现在盛行的神经网络连接主义的主流想法,将大量数据作为“经验”堆积出的回归算法。无论是最大似然估计的思维方式、symbole描述的方式,还是贝叶斯最大后验估计的做法,我们与其说做的是智能,不如讲我们在使用“看起来比较智能”的算法。

就像是冯.诺依曼认为蒙特卡洛算法,是最接近上帝的思维方式的算法那样。一个靠随机数据堆积的,几乎不能被称之为算法的算法,又算得上什么上帝的思维?

有人提出过这样一个概念。现在有一个屋子,屋子里有一个手速极快、查表极快的、完全不懂中文的熟练工。我们现在向房间里递入一张写了一句中文的句子,这个熟练工在提前准备好的表中查得一句中文纸条,并且传给屋外的人。他们在这样的情况下,屋外的人跟屋内的人聊得很开心,但屋内的人只是在重复工作,他根本不知道纸条上写的是什么。这种情况下能否认为这个熟练工掌握了中文?

我觉得这个例子是一个可以经典地映射到现在常见的蒙特卡洛算法、最大似然估计、最大后验估计的思维方式上。蒙特卡洛算法按照大量随机经验去评估一个最合理的做法;最大似然估计或者说多元回归算法,或者由神经网络描述的多元回归算法,也只是基于已有大量经验数据去评估一个最合理的做法;最大后验估计模型、贝叶斯算法这种,或者贝叶斯网路这种,我们按照最直白的方式描述,虽然可以评估没有出现过的状况,也只是通过已有、已经拆分过的特征概率来做合理性评估。

这就像是屋内的那个例行公事的查表熟练工一样,其实他什么都不懂,我们哪怕拿出了所谓大数据下、人工智能下的正确答案,也只是通过算法拿出的答案,并不是通过“理解”和“认知”得出的答案。从这个角度来考虑,AI这个概念本就不存在,或者讲笔者的个人观点是Artificial Intelligence中的Intelligence,未免有些狂妄自大。只是不过是用了些数学家们几十年前玩剩下的算法,就开始炒作所谓智能。

但我们抛开所谓“智能”不谈,NN神经网络、BP神经网络、贝叶斯公式这些非常简单的统计学公式,其实在有高性能的硬件和现有的计算机科学的辅助下,超出人类预计的好用。

2谈实现不谈芯片

既然是好用的算法模型,也是接下来的主流发展趋势,我们就暂且不考虑这些用词细节的问题,在上述三种人工智能的理解中,以我个人认为是误解的第三个理解作为立脚点开始向后继续。

这个被王飞跃评价为不存在的AI芯片,不过是上述狭义的机器学习派系中大量算法的不同的实现方式罢了。我们与其去谈用硬件作为AI算法载体的芯片是否存在,不如去讲是用硬件作为算法载体的芯片是否存在。原本AI算法在上述评估后,也只是与常规的算法本质上无异的“算法”而已,既不是什么黑科技,也不是什么新技术。算法是否可以由硬件直接作为载体,而不需要通过软件这个概念,答案当然是肯定的,原本软件就是以硬件为载体工作的。那这个意义上的AI芯片当然是存在的。

大多提到芯片,仿佛就成了什么神秘的高科技。但芯片,也就是所谓的集成电路,大规模集成电路,其本质上还是电路本身。只是通过芯片工艺,晶体管技术实现的体积很小的电路而已。物理学已经几十年没有更新过基本理论了,芯片相对于电路这个概念本身,跟高中学过的电路图,电路元件并没有本质上的区别。

这里我们将芯片暂且狭义地理解为CPU这个概念的话(包含MCU、GPU、SoC等概念,在实际使用中作为核心处理器这个概念存在的芯片),所谓CPU只是集中了大量好用的电路,并将这些芯片内电路的查询使用方式,通过控制总线、地址总线、数据总线这些概念上的高低电平,然后将这些高低电平逻辑抽象成汇编手册这个概念,或者datasheet这些概念,可能有些使用了MMU,还会有虚拟地址映射等概念。但说起来,大体上换汤不换料。

近年来炒作最厉害的AI芯片,主要就是NPU这个概念了。这里NPU作为AI芯片分类,也只是上述第三个对智能的定义的考虑方式,仿佛是我们先将一部分原本就存在的算法划分成了“人工智能算法”,然后使用了这些算法的芯片就都成了“人工智能芯片”。原本我们认为的CPU就是一堆好用的电路的集合,我们将这些常用好用的集成电路中添加一个神经网络算法的实现电路,就成了另一个噱头。

原本就成熟的芯片设计工艺和技术,加上原本就成熟的所谓“智能算法”的实现,以一个技术含量并不高的方式拼凑出来的新的卖点罢了。

总 结

这也只是笔者个人的观点,我们可以谈一下算法、机器学习概念、最大似然估计、最大后验估计这种统计学算法,谈一下神经网络算法的思维方式、多元回归曲线和决策树的设计,我们还是不要谈什么人工智能吧。讲狭义的人工智能我们还可以谈谈算法,拿“人工智能”当噱头那是销售做的事情。

而至于人工智能AI芯片这个概念,着实没什么好谈的,以硬件作为载体实现算法,跟争论用C语言Python、Keras、Tensorflow、caffe,还是VHDL、VerilogHDL,还是所谓芯片硬件去实现算法一样。只是一种算法的实现方式而已,现在的技术除了速度和性能、功耗、算法代码架构、现有工艺是否存在瓶颈等问题,是设计者需要权衡考虑的事情。算法的实现什么时候成为问题了?

简单畅想一下人工智能的未来:

现在这波基于机器学习和深度学习算法引爆的人工智能热潮,笔者个人不认为会维持多久。虽然因为硬件和芯片工艺的提升,让从前因硬件成为瓶颈的问题得到了一定程度的缓解。但哪怕完全解决了运算速度瓶颈,结合类比上述中文纸条的故事。我们制造的不是智能,只是将计算机与统计学几十年前的技术做了一次深度结合罢了,机器学的都只是个样子。

现在吹嘘人工智能的比正经写几行所谓机器学习代码的人要多得多,大体上所谓特征提取的人脸识别、语音识别、基于神经网络算法、基于多项式回归这些的最大似然估计模型,本质上与从前传统的图像处理并没有什么区别,只是从前由人工做的规律总结和特征提取工作,我们通过一定程度的算法,其本质还是以蒙特卡洛式的疯狂尝试去试错,得到一个最为近似的回归曲线罢了。

这次掀起了人工智能的热潮,但人工智能技术的发展本身并没有出现飞跃,只是按部就班进步罢了。我们整合了大量统计学的公式,以人工智能的名义,快速在常规领域拿出了不少看似喜人的成绩。但这种本质上没有技术突破的旧饭新炒,推进了一波以机器学习技术为中心的人脸识别、语音识别、自动驾驶等技术应用。或许“机器学习”是“人工智能”的一大支撑,但毕竟“机器学习”并不是“人工智能”本身,而且清醒的人们很快会开始逐步意识到最大似然估计这个模型本身就是有瓶颈的,而现在离这个瓶颈现在已经很近了。

接下来会是算法的时代,但人工智能的寒冬注定会在短期内再次降临。硬件会是有效的加速辅助工具,但人工智能的核心还会是软件。讲AI芯片是个伪概念,笔者认为倒也不算错。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    27

    文章

    4422

    浏览量

    126710
  • 算法
    +关注

    关注

    23

    文章

    4456

    浏览量

    90759
  • AI
    AI
    +关注

    关注

    87

    文章

    26458

    浏览量

    264072
  • AI芯片
    +关注

    关注

    17

    文章

    1656

    浏览量

    34384
收藏 人收藏

    评论

    相关推荐

    企业老工程师和高校老师有啥区别

    电子工程师硬件
    电子发烧友网官方
    发布于 :2024年02月28日 17:50:00

    如何搞崩一个硬件工程师心态?试试对ta说这几句

    硬件工程师
    扬兴科技
    发布于 :2024年02月20日 18:05:49

    优秀电源工程师需要哪些必备技能?

    就带大家细数一下优秀电源工程师具备的那些技能。一、新手必备课程成为一名电源高手需要扎实的理论基础,涉及电路原理、语言编程和控制理论等多个学科领域。为了帮助大家更好地掌握电源开发相关的关键知识点,我们整理
    发表于 01-29 11:29

    #人工智能 #FPGA 怎么成为一个合格的FPGA工程师

    fpga工程师
    明德扬助教小易老师
    发布于 :2023年12月18日 21:19:01

    电子工程师第一天上班就暴揍师傅。。。#科普 #示波器 #电子工程师 #打工日记

    电子工程师示波器
    安泰小课堂
    发布于 :2023年12月18日 17:36:12

    FPGA工程师需要具备哪些技能?

    FPGA(Field-Programmable Gate Array)芯片因其具有灵活性、高定制化、高性能等特点,被广泛应用于数字系统设计、嵌入式系统、通信系统、计算机视觉等领域。作为FPGA工程师
    发表于 11-09 11:03

    如何成为一名优秀的嵌入式工程师

    如何成为一名优秀的嵌入式工程师?嵌入式学习的第一步,首先是C语言。 1.理解内存管理:C语言不同于高级语言,它不会自动管理内存。因此,你需要理解并掌握如何使用malloc()、free()等函数
    发表于 11-07 15:36

    #FPGA 本科生也能成为FPGA研发工程师

    fpga工程师
    明德扬助教小易老师
    发布于 :2023年09月23日 08:05:36

    电子工程师必看书籍推荐#知识分享 #知识科普 #交流#硬声创作季

    电子工程师
    也许吧
    发布于 :2023年05月24日 10:47:34

    RTT Studio什么时候可以实现DAP下载调试呢?

    RTT Studio什么时候可以实现DAP下载调试呢?手上只有一个DAP的仿真器,大概什么时候能用上呀?多谢。。。。。
    发表于 05-11 09:47

    招聘兼职工程师

    兼职工程师工作招聘: 1、熟悉电路、模电、数电,认识电阻、电容、二三极管、基础器件、放大电路、集成运放、时序电路基本电路。 2、能独立进行元件选型、原理图和PCB设计、电路 调试,需要有过硬的电路
    发表于 05-05 15:35