0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

AI大模型给算力基础带来的影响

知存科技 来源:北京大学信科学院 2023-05-11 17:42 次阅读

2023年4月28日晚,信息科学前沿与产业创新课程暨信息科学技术学院第九期“知存讲座”在理科教学楼106教室顺利举办。知存科技创始人兼CEO、北大校友王绍迪先生受邀进行了以“AI大模型带来算力基础的改变”为主题的分享,30余名师生到场聆听。本次活动由北京大学信息科学技术学院副院长王润声老师主持。

讲座伊始,王绍迪先生简要介绍了目前的形势及知存科技的情况。AI大模型达到奇点,既会产生巨大的经济效益,为人们的生活带来重大变革,也会对从应用场景到底层算力的产业整体产生极大影响,还会为国际竞争创造新的战略支点。作为知存科技的创始人兼CEO,王绍迪先生格外关注AI大模型在底层算力及其基础建设方面产生的影响。知存科技自创立以来一直深耕AI算力领域,在存算一体芯片领域处于国际领先地位,完成了多项从零到一的突破。公司有180余人的专业团队,累计完成了近8亿元融资。在AI大模型不断发展的未来,公司将继续专注存算一体技术,致力提升AI的底层算力。

接下来,王绍迪先生从AI大模型的应用场景、AI计算大模型需求、近存计算技术及应用与存内计算及其大模型应用四个方面介绍了AI大模型给算力基础带来的影响。

01

AI大模型的应用场景

当前,AI大模型已经从单纯的概念革新转变为了能够带来巨大商业价值和生产力飞跃的先进技术,应用场景十分广阔,在图片与视频分析、代码生成、数据分析、视频生成等方面都展现出了极强的实力。预计未来两到三年内,GPT类算法还会有更大幅度的迭代,从而能更好地节约生产成本,提高生产效率。当然,大模型的应用也会带来数据安全威胁等一系列问题,相关监管治理措施也有待进一步研究和探索。

02

AI计算大模型需求

目前算力的发展受到多种制约。一方面,摩尔定律趋于失效,硅基算力增长将逐渐达到极限;另一方面,内存的计算性能及存储器的带宽提升较慢,不能与计算芯片时钟速、核数及存储器存储容量的增加相匹配,导致计算效率增长受限,读写数据功耗增加。功耗是限制算力最大的瓶颈。一定的散热技术下,芯片的功耗存在上限,计算的算力也存在相应的上限。为了提升算力,必须设法提高能效,扩大数据穿透的“门”,让数据更容易在“门”的两侧间流动。

智能语音、视觉处理到自动驾驶、AIGC,大模型对参数量和算力的要求越来越高。算力越高,对数据的搬运也越多。实际上,现在所谓的计算中,90%的时间在进行数据的搬运。在传统的冯·诺伊曼计算架构中,数据需要在不同的存储之间流动,形成庞大的数据流。这个计算体系下,硬盘容量大但读取慢,缓存读取快但容量小,都不能真正帮助AI进行有效计算。现有AI计算最依赖的器件是内存,它的容量足够大,可以容纳大部分模型的整体或部分,而且带宽也足够高,可以支持高速的数据读写需求。目前,业界的优化也主要集中在对内存与计算芯片之间带宽的优化上。此外,由于单张芯片内存的容量有限,一些大模型需要多张芯片互联来实现训练或推理。在这个过程中,真正构成计算的瓶颈且亟需得到提升的,不是计算芯片单核的计算速度,而是单卡的内存与芯片之间,以及多卡之间数据交换的速度。

架构层面的改进也能够带来计算效率的提高。相比CPUGPU对于AI模型的运算效率已经高了100倍左右。对于AI大模型这种大参数量计算,通用计算的效率很低,如果针对模型设计专用的计算解决方案,将能带来更大的受益。通过定制化设计开发具有专用计算架构的专用计算芯片,预计还能将大模型计算的效率提高10倍左右。

AI算力市场规模不容小觑。基于现有显卡及云服务价格,短期市场规模预计可达15亿美元,而中期及长期规模预计将分别达到1200亿美元及20000亿美元。基于未来方案的成本优化及计算算力的成本降低,对未来市场作出的较合理预测约为中期300亿美元,长期1000亿美元。可见,AI底层算力的市场将会是一个非常大的专一市场。

03

近存计算技术及应用

怎样持续优化算力,降低计算成本,提高计算效率呢?存算一体被认为是最有效的手段之一。冯·诺伊曼计算架构中,内存和计算是分开的,而现在主流的高算力芯片已经开始采用近存的计算架构,将内存和计算芯片整合到一起。更高效的存内计算架构,以及将近存与存内结合在一起的计算架构也有巨大的发展潜力。

近存计算是目前商业化程度最高的存算一体技术。近存计算起源于2013年AMD和海力士解决内存与显卡之间数据带宽问题的实践,其基本思想是用集成电路的方式将内存和计算芯片结合在一起,拉近二者之间的距离,从而使其间走线长度更短,密度更大,数量更多。近存计算有2.5D与3D两种集成技术。2.5D技术将计算芯片与内存芯片集成到一个芯片上去,从而在二者间实现芯片工艺的走线,以替代原有的PCB版工艺的走线。这种技术运用现有的成熟技术解决问题,是目前最实际的一种解决方案。而3D集成技术将两个芯片“贴”在一起,其间的走线密度还能再提高10至100倍,集成密度更大,计算速度更快。

各大厂商都积极采用近存计算技术,推出了性能先进的产品。现在,英伟达的高带宽内存技术(HBM,High Bandwidth Memory)采用2.5D与3D相结合的封装方式,已经过数次迭代达到了很高的带宽,并为苹果的M1及M2芯片采用;英特尔的智强处理器采用2.5D集成HBM2E内存,集成AI训练和推理加速器,能够更有效地提升相关计算的速度;AMD通过将所有内存直接通过3D方式与计算芯片堆叠在一起,大幅降低了每比特数据的传输功耗;三星则基于3D封装技术,集成计算逻辑芯片与内存。

然而,随着摩尔定律逐渐失效,芯片的成本越来越高。目前,提高10%至20%的速度,要提高约50%的成本,相当于速度提高一倍,成本要提高近五倍。未来,获得更高算力的成本会持续上涨,产品的价格也会相应提高。而且,2.5D与3D的集成方式预计将在两三年内达到带宽极限,未来发展的挑战会越来越大。

04

存内计算及其大模型应用

如上所述,近存计算通过封装、集成的手段“拉近”内存与计算芯片之间的距离,虽然是业界的主流,也终究存在发展的极限。而存内计算作为更加高效的计算技术,正在受到越来越广泛的关注。

采用内存而非硬盘进行AI大模型计算的原因,是硬盘虽有很大的容量,但没有令人满意的读写速度。如果能够让存储单元基于本身的物理特性直接完成计算,就能减少数据的流动,从而减小对高带宽的依赖程度。存内计算技术可分为存内计算SoC、3D存内计算及2.5D+3D存内计算三代技术,内容十分丰富。目前的存内计算技术主要能够使存储单元具备乘法与加法计算的能力,虽不完备,却能覆盖AI计算的90%左右,能够大幅提高整体的计算效率。另外,AI大模型对计算精度的要求相对降低,存内计算精度可以完成有关的计算任务。此外,存内计算技术分布式存储与计算的特性使它适合于混合专家系统的实现。成本驱动是底层算力发展的关键特征。由于对先进工艺的依赖较弱,对内存带宽的需求不高,存内计算技术有望大幅降低AI计算成本,展现出良好的发展前景。

在提问交流环节,到场师生就存算一体芯片的优势、挑战、技术细节,以及知存科技良好发展的经验等问题与王绍迪先生进行了交流。王绍迪先生耐心地解答了大家的问题。

最后,讲座在同学们热烈的掌声中圆满结束。

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    87

    文章

    26471

    浏览量

    264097
  • 模型
    +关注

    关注

    1

    文章

    2707

    浏览量

    47702
  • 数据安全
    +关注

    关注

    2

    文章

    609

    浏览量

    29800

原文标题:知存讲座 | AI大模型带来算力基础的改变

文章出处:【微信号:gh_c7acc31312b6,微信公众号:知存科技】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    大茉莉X16-P,5800M大称王称霸

    Rykj365
    发布于 :2024年01月25日 14:54:52

    【AD新闻】AI时代,一美元能够买到多强的

    当真正需要在嵌入式终端设备中使用AI技术时,客户的诉求更多的集中在功耗、响应时间、成本等方面,对性能的无尽追求反而不是重点,这和很多人之前的预想并不一致。花一美元或一瓦电能买到多强的? 算法
    发表于 03-23 15:27

    EdgeBoard FZ5 边缘AI计算盒及计算卡

    科技携手百度,推出系列高性能及高性价比EdgeBoard 边缘AI计算卡/计算盒,助力AI项目落地。可灵活适配海量的且不断迭代的AI模型,并提供强大的运行
    发表于 08-31 14:12

    什么是模型呢?模型给我们带来了什么?

    什么是模型呢?什么是关系?怎样确定一个模型模型给我们带来了什么?
    发表于 07-02 07:13

    rx580,rx580显卡,rx588,rx588显卡 精选资料分享

    已下是rx580显卡9-11 Mh 没有开启计算模式,挖几分种重启自动开启,计算模式只支持WIN1022-28 Mh 原版BIOS,开启时序,并设置超频29-32 Mh 正常
    发表于 07-23 06:59

    数据、算法和其实现载体是什么

    背景介绍数据、算法和是人工智能技术的三大要素。其中,体现着人工智能(AI)技术具体实现的能力,实现载体主要有CPU、GPU、FPGA
    发表于 07-26 06:47

    开箱啦!带你玩转飞凌高“魔盒”——AI边缘计算终端FCU3001

    随着人工智能高速发展,逐渐向人们的生活场景的渗透,对数据计算量要求也是越来越庞大,处理速度要求越来越快,这对硬件性能要求也就越来越高,针对这个需求,飞凌嵌入式推出了面向AI边缘系统的最新产品高“魔盒”—
    发表于 12-14 09:22

    MXM 平台在边缘计算领域的应用

    , 继承了该接口的诸多优点,也更适合此类场景应用,为用户提供了一种边缘侧部署的解决方案,同时MXM接口还可以为用户提供其它架构模块搭配方案,如MXM界面的寒武纪
    发表于 05-18 15:52

    【飞凌RK3568开发板试用体验】8-USB摄像头实时AI物品识别初体验

    识别的例子,但只是对一张图片进行识别,且需要单独使用图片查看工具查看识别结果。为了更直观的体验RK3568的AI,将AI识别例程与摄像头功能结合起来,对摄像头的每一帧图像进行物品识
    发表于 12-13 23:31

    解读最佳实践:倚天 710 ARM 芯片的 Python+AI 优化

    编者按: 在刚刚结束的 PyCon China 2022 大会上,龙蜥社区开发者朱宏林分享了主题为《ARM 芯片的 Python+AI 优化》的技术演讲。本次演讲,作者将向大家介绍他们在倚天
    发表于 12-23 16:02

    AI模型落地背后,正带来一场智能制造的系统重构

    制造业是国家经济命脉所系,是立国之本、强国之基。中国是世界上最大的制造业大国,人工智能作为核心技术,与制造业的结合是中国从制造大国走向制造强国的重要一步,也是走向高端化、智能化、绿色化的必由之路。
    的头像 发表于 03-17 11:23 1019次阅读

    AI模型,将为智慧城市带来哪些新变化?

    近日,在第十六届(2023)中国国际社会公共安全产品博览会上,商汤科技分享了AI模型在智慧城市中的应用——不仅为高效解决交通、公共安全等多元化城市管理难题带来全新路径,还将有效降低应用门槛,为智慧城市发展构建新一代
    的头像 发表于 06-12 11:13 595次阅读

    拓维信息亮相华为开发者大会,加速推进鸿蒙商业落地

    ,全面展示公司在鸿蒙领域的创新产品及商业落地成果。 拓维信息董事长李新宇,拓维信息副总裁、开鸿智谷常务副总裁廖秋林等受邀出席。 “AI模型技术的发展将会带来下一代智能终端操作系统的智慧体验”“经过四年的艰难发展,鸿蒙生态轻舟已
    的头像 发表于 08-08 19:35 633次阅读

    高通和腾讯音乐合作,首创QQ音乐“骁龙臻品音质”

    今日,高通技术公司和腾讯音乐娱乐集团(TME)宣布展开合作并推出业界首创的“骁龙臻品音质”,利用骁龙移动平台强大的AI计算性能,在终端侧高效运行QQ音乐臻品音质AI模型算法,为用户带来
    的头像 发表于 09-27 10:10 679次阅读
    高通和腾讯音乐合作,首创QQ音乐“骁龙臻品音质”

    华为中国合作伙伴大会2024 | 软通动力全面布局算力服务

    使能AI模型发展新篇章 北京2024年3月19日 /美通社/ -- 随着海量数据爆发增长,以及AI模型训推服务带来的巨大算力需求,对泛在
    的头像 发表于 03-19 22:22 170次阅读
    华为中国合作伙伴大会2024 | 软通动力全面布局算力服务