0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Jim Keller规划AI策略,旨在绕过Nvidia

Astroys 来源:Astroys 2023-07-04 09:17 次阅读

在一个由Nvidia完全主导的AI市场中,要颠覆这个GPU巨头对任何人来说都是极大的挑战,即便是传奇的CPU架构师也不例外。然而,Jim Keller的秘密武器并不是他的声望,而是他坚信开源策略能加速创新。

Jim Keller是一位传奇的CPU架构师,他的名字与一系列商业上成功的处理器紧密相连。在三十多年的职业生涯中,Keller在几家组织中带领团队或参与工作,开发了从Digital Equipment Corporation的Alpha,到AMD的K8、K12和Zen,再到Apple的A4、A5等AP,以及特斯拉的FSD芯片等各种架构。

Keller是一位非常具有才华的工程师。然而,他是否能让Tenstorrent(一家AI硬件初创公司,Keller从早期投资人晋升为今日的CEO)在不断演变的AI竞争中胜出,仍有待观察。

谁都无法打包票Tenstorrent一定会成功,其不确定的未来恰恰反映了AI技术和商业模式快速变化的状态。

AI用户(数据中心云计算、消费类电子和汽车)一直在制定自己的AI策略。一种新兴趋势是,许多人选择通过购买AI或CPU的chiplet IP来构建AI解决方案。大量购买新的AI处理器并不在他们的计划中。

前不久,Keller在东京的RISC-V Day Tokyo活动上发表了主题演讲。

谈到Tenstorrent计划如何颠覆由Nvidia主导的AI市场。Keller直截了当地说:“我们并不试图打败Nvidia。”他表示,对于一家初创公司来说,挑战年收入超过250亿美元的巨人并不是一个好计划。

然而,在AI世界中,AI模型的数学和操作规模总是在不断变化。没有什么是永恒不变的。Keller找出了一些机会,可能让客户选择在Tenstorrent的芯片上对他们的AI模型进行编程,而不是在Nvidia的GPU上。

Keller分享了两个可能预示Tenstorrent生存的基本理念。一个是编程的“开源”。另一个是让那些需要的人可以得到使用AI/CPU IP的授权。

开源API

今年夏天,Tenstorrent计划为其AI硬件引入一个开源的硬件堆栈。Keller解释说,BudaM是基于纯C++并带有API的Tenstorrent内核,它允许直接写入硬件。与CUDA相比,BudaM的优势在于,程序员可以完全控制Tenstorrent提供的每一个RISC-V内核,包括RISC-V处理器、NoC(Network on Chip)、矩阵和向量引擎以及SRAM

Keller说:“有很多客户告诉我,他们用PyTorch编写测试程序,但在低级别的CUDA中编写实际模型。”他了解到他们真正想要的是“一种在硬件上编程的方法”。

Keller说,例如,一些生物科学公司正在编写大量迷你程序来分析数据。“对于这个,他们希望能写入硬件。”他补充说,一个AI编译器公司也想使用BudaM。

5987d518-1a04-11ee-962d-dac502259ad0.jpg

Tesla的FSD芯片与Tenstorrent的AI芯片

在Tesla开发FSD芯片时,Keller的任务是构建一个非常高效的推理引擎。Keller说:“足够好到能驾驶一辆汽车。”通过设计一个双AI引擎,他的团队“使FSD计算机有冗余,且足够便宜,可以安装在每辆车上”。

在那期间,Keller遇到了20到30家公司,包括向Tesla推销他们的AI硬件的Tenstorrent。Keller将Tenstorrent视为“一个非常通用的AI处理器”,位于光谱的另一端。Keller预见到,当未来出现不运行在Tesla的FSD计算机上的AI模型时,“我们会在Tesla使用Tenstorrent”。

路线图

当时,Tenstorrent已经拥有了比竞争对手更强大、更灵活、可编程性更强的AI硬件。这种架构适用于推理和训练。Tenstorrent的AI硬件涵盖了CNN、LLM和NLP。

为了实现其产品路线图,Tenstorrent首先提出了一个简单的、嵌入式的用于AI的RISC-V处理器。接着,它提出了一个集成了16个通用目的RISC-V内核的标准ML计算机。Tenstorrent的信念是,AI需要RISC-V内核和AI加速器,紧密地集成在同一块芯片上。在路线图的最远端,Tenstorrent的目标是异构高性能ML计算机。

59a2857a-1a04-11ee-962d-dac502259ad0.png

Chiplet授权

那款高度集成的异构CPU/AI芯片仍在Tenstorrent的路线图上。但Keller和他的团队已经看到,潜在的客户正在走向一条不同的道路。他们更喜欢更模块化的AI解决方案,以满足他们的需求。

有些人对Keller说,“忘掉AI。我们只想要CPU授权。”

还有一些人回到Keller那里说,“嘿,我们喜欢你的CPU。让我们谈谈AI。但我们可以获得授权吗?”

Keller说,“这有点让我们吃惊,因为我原以为到那时,市场上会有一些好的AI IP。”事实却是没有一个可以授权的。Keller的客户已经对Tenstorrent的AI引擎进行了测试,“他们发现它相当好,他们喜欢我们的编译器。”

所以,就有了与LG达成的授权Tenstorrent chiplet的协议。

Keller说,“他们有一堆想法,他们想试试看。由于Tenstorrent能够使用编译器交付其硬件,LG在上面运行了他们的模型,他们喜欢它。然后我们授权给他们IP。”两家公司的联合新闻发布稿称,他们已经合作,“打造新一代的RISC-V、AI和视频编码chiplet,可能为LG的高端电视和未来的汽车产品,以及Tenstorrent的数据中心产品提供动力。”

Tenstorrent的chiplet授权交易并非仅限于LG。Keller说还有几个也在pipeline中。

阻碍

尽管Tenstorrent在行业内被认为是一家AI芯片公司,但Keller正在将其定位为一家设计公司。“我们设计基于RISC-V的AI计算机,我们设计RISC-V处理器。我们愿意以你想要的方式销售。”与潜在客户的频繁沟通促使Tenstorrent进行了转变。

Keller说,新的玩家急于利用开源、可授权的技术来推出他们自己的解决方案,他们认为传统的芯片公司阻碍了他们的道路。

凯勒亲身体验过这一点。他说:“作为一名CPU架构师,我想在CPU中添加适合AI的数据类型。但Intel或AMD当然不会这样做,因为他们不会向任何人授权。”凯勒找到了Arm,他说,“他们靠授权处理器为生。但也说不行。”

“我认识Arm那边的人。我告诉他们这里有一些数据类型……如果你们能加入就太好了。我不会收费。” Arm仍然拒绝了。

于是,Keller转向了RISC-V。他首先找到了SiFve,SiFve同意与Tenstorrent合作。不幸的是,SiFive并没有与初创公司想要的兼容的路线图。Keller说:“我认为他们正在努力使之变得更好……但在那个时候,我告诉我的投资者,我可以雇佣世界上最好的CPU团队,我们可以打造一个非常有竞争力的RISC-V处理器。”于是就有了Ascalon,Tenstorrent可授权的RISC-V处理器。

GPU效果出奇的好

在Keller看来,“GPU实际上效果出奇的好”,原因有两个。一是Nvidia在软件上投入了大量的资金。另一个是渗透效应。“一旦Nvidia取得了领先,开发者倾向于构建在GPU上运行的模型。他们不会构建一些在例如Tenstorrent硬件上可能会运行更好的模型,因为硬件与他们所熟悉的不同。”

话虽如此,Keller说,有一些人“真正想要的东西与Nvidia提供的不同”。

在某种程度上,GPU的评价并不高,Keller说:“因为它非常昂贵,且功耗很高。编程GPU需要大量的程序员。成千上万的程序员正在用CUDA编写库。”

Keller解释说,当AI程序员在CUDA中编写代码并且出现问题时,他们会要求Nvidia进行编译并返回一个可运行的二进制文件。这种关系(AI程序员和Nvidia之间的关系)形成了一个反馈循环。

但是这个循环并不能保证AI程序员能立即从Nvidia那里得到解决方案。

Keller说,“我在Tesla时使用过Nvidia的AI计算机。当出现问题时,我们无法弄清楚问题所在。”或者,“当它崩溃时,我们最后发现了Nvidia的一个bug。我们告诉他们,但有时从他们那里得到反馈需要几周时间。”

这就是为什么Keller在推动开源。“如果软件是开源的,即使它出现问题,专家级的软件人员可以进去阅读代码并找出问题所在。”

他总结说:“当多人纷纷进行改变时,会发生令人振奋的事。当它是开源的,他们就必须发布它。本质上,这加速了创新。”

Tenstorrent不太可能在短时间内在AI市场上取代Nvidia。然而,Keller的重点是去满足那些从Nvidia那里无法得到真正所需的客户。Tenstorrent有可能扭转乾坤或赶超Nvidia的关键是,开源技术的发展趋势,以及客户对通过chiplet进行AI和CPU IP授权的无尽需求。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 处理器
    +关注

    关注

    68

    文章

    18304

    浏览量

    222347
  • AI
    AI
    +关注

    关注

    87

    文章

    26485

    浏览量

    264118
  • C++
    C++
    +关注

    关注

    21

    文章

    2066

    浏览量

    72903
  • RISC-V
    +关注

    关注

    41

    文章

    1908

    浏览量

    45078

原文标题:Jim Keller规划AI策略,旨在绕过Nvidia

文章出处:【微信号:Astroys,微信公众号:Astroys】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    利用NVIDIA AI Enterprise IGX在边缘赋能任务关键型AI

    NVIDIA SDK 在加速智慧城市、医疗和机器人等领域的 AI 应用方面发挥了重要作用。
    的头像 发表于 04-26 09:46 101次阅读
    利用<b class='flag-5'>NVIDIA</b> <b class='flag-5'>AI</b> Enterprise IGX在边缘赋能任务关键型<b class='flag-5'>AI</b>

    Jim KellerNVIDIA私有协议弊端多,倡导开放技术以省数十亿

    另外,他进一步阐述,NVIDIA在数据中心的网络架构设计上不应固守其自主研发的InfiniBand技术,而应转向以太网。尽管Infiniband网络具有低延迟和高带宽优势,但以太网已实现400GbE甚至800GbE的传输速率。
    的头像 发表于 04-15 09:43 104次阅读

    NVIDIA数字人技术加速部署生成式AI驱动的游戏角色

    NVIDIA 在 GDC 2024 大会上宣布,Inworld AI 等领先的 AI 应用程序开发者,正在使用 NVIDIA 数字人技术加速部署生成式
    的头像 发表于 04-09 10:08 224次阅读
    <b class='flag-5'>NVIDIA</b>数字人技术加速部署生成式<b class='flag-5'>AI</b>驱动的游戏角色

    日本为何押注于Jim Keller

    日本要想确保芯片供应并巩固国防,就必须建设尖端的半导体工厂和AI技术。日本将领导国家AI/RISC-V/芯片项目的任务交给了加拿大初创公司Tenstorrent。
    的头像 发表于 03-06 09:18 306次阅读
    日本为何押注于<b class='flag-5'>Jim</b> <b class='flag-5'>Keller</b>?

    NVIDIA AI 现已在 Oracle Cloud Marketplace 推出

    OCI 在业内率先扩展了企业对 NVIDIA DGX 云 AI 超级计算平台和 NVIDIA AI Enterprise 软件的访问权限。 训练生成式
    的头像 发表于 10-24 10:30 242次阅读
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>AI</b> 现已在 Oracle Cloud Marketplace 推出

    AI智能呼叫中心

    、数据驱动决策以及人力成本节约,旨在深入剖析其核心优势和对企业的重要意义。一、自动化处理AI智能呼叫中心通过引入自然语言处理(NLP)、机器学习和自动化技术,使得呼叫中心的处理过程更加高效和准确,AI
    发表于 09-20 17:53

    全球领先系统制造商推出 NVIDIA AI 就绪型服务器,为企业大幅提升生成式 AI 性能

    戴尔科技、慧与和联想即将推出采用 NVIDIA L40S GPU 和 NVIDIA BlueField 的服务器,以支持 VMware Private AI Foundation
    的头像 发表于 08-23 19:10 382次阅读

    AI芯片公司Tenstorrent再融资1亿美元

    tenstorrent筹集了2.3450亿美元,创始人Jim Keller开发了苹果、特斯拉和英特尔的芯片。成立于2016年的tenstorent公司想要在人工智能芯片开发方面挑战nvidia的地位。该公司希望在制造自己的芯片的
    的头像 发表于 08-03 11:31 856次阅读

    什么是 NVIDIA AI Enterprise

    利用 NVIDIA AI 企业在 Azure 机器学习上的力量
    的头像 发表于 07-05 16:30 1060次阅读
    什么是 <b class='flag-5'>NVIDIA</b> <b class='flag-5'>AI</b> Enterprise

    高通公司首席商务官Jim Cathey:5G+AI赋能数字未来

    6月28日,2023 MWC上海盛大开幕。高通公司首席商务官Jim Cathey在GTI国际产业大会期间,发表主题为“5G+AI赋能数字未来”的演讲。他表示,为了将5G扩展至更多行业,高通正与中国移动等行业领军企业合作,推动5G Advanced演进。此外,大语言模型和生
    的头像 发表于 06-30 10:44 796次阅读
    高通公司首席商务官<b class='flag-5'>Jim</b> Cathey:5G+<b class='flag-5'>AI</b>赋能数字未来

    NVIDIA 邀您参加 —— AI 软硬件协同开发技术交流与人才发展分享会

    软硬件协同开发以及 人才招聘分享会诚邀你参加! 我们将邀请多位 NVIDIA 深度学习领域专家与你分享 NVIDIA 的技术策略以及招聘信息。 AI workload 驱动的
    的头像 发表于 06-26 19:35 266次阅读
    <b class='flag-5'>NVIDIA</b> 邀您参加 —— <b class='flag-5'>AI</b> 软硬件协同开发技术交流与人才发展分享会

    NVIDIA推出DGX GH200 AI超级计算机

    驱动的NVIDIA DGX™超级计算机,旨在助力开发面向生成式AI语言应用、推荐系统和数据分析工作负载的巨型、下一代模型。   NVIDIA DGX GH200的超大共享内存空间通过
    发表于 05-30 14:15 450次阅读
    <b class='flag-5'>NVIDIA</b>推出DGX GH200 <b class='flag-5'>AI</b>超级计算机

    COMPUTEX2023 | NVIDIA 推出 DGX GH200 AI 超级计算机

    Switch System 驱动的 NVIDIA DGX 超级计算机 ,旨在助力开发面向生成式 AI 语言应用、推荐系统和数据分析工作负载的巨型、下一代模型。 NVIDIA DGX
    的头像 发表于 05-30 01:40 1519次阅读
    COMPUTEX2023 | <b class='flag-5'>NVIDIA</b> 推出 DGX GH200 <b class='flag-5'>AI</b> 超级计算机

    NVIDIA “魔盒”有哪些“内涵”

    飞凌AI边缘计算终端FCU3001采用 NVIDIA Jetson Xavier NX定制开发,先来一张产品开箱后的“全家福”: ​ AI 边缘计算终端FCU3001的体积非常小巧,整机尺寸仅为
    发表于 05-26 14:12

    NVIDIA 与微软合作加速企业就绪的生成式 AI

    NVIDIA AI Enterprise 与 Azure 机器学习集成,提供端到端云平台,供开发者构建、部署和管理大型语言模型的 AI 应用 微软 Build 大会——太平洋时间 2023
    的头像 发表于 05-25 09:15 381次阅读
    <b class='flag-5'>NVIDIA</b> 与微软合作加速企业就绪的生成式 <b class='flag-5'>AI</b>