0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

谷歌TPU3.0的四大亮点

DPVg_AI_era 来源:未知 作者:胡薇 2018-05-14 08:43 次阅读

Google在I/O大会上发布了TPU3,虽然目前详细信息不多,但下面几点还是值得讨论:8倍性能;快速迭代;云服务和Benchmark。TPU3到底哪里厉害?

8倍性能

今天的新闻中我们都可以看到如下描述“Google CEO Sundar Pichai said the new TPU is eight times more powerful than last year per pod, with up to 100 petaflops in performance.”也就是说一个TPU3 pod的总处理能力100 PFLOPS是TPU2 pod的8倍。

从下图我们可以看一下TPU3 pod和TPU2 pod的对比。

TPU2的一个pod包括4个rack,两个CPU rack(左右两边),两个TPU rack(中间两个)。每个rack有32个computing unit (板卡),每个TPU板卡有4颗TPU芯片。因此一个pod总共有64 x 4颗TPU2芯片。每颗TPU2芯片的处理能力是45TFLOPS,因此一个pod总的处理能力是45 x 4 x 64 = 11.5 PFLOPS.

对比来看,TPU3的板卡仍然包括4颗芯片。但目测TPU3 pod的rack数量和板卡的密度(这个看的不是很清楚)和TPU2相比都增加了一倍。因此,一个pod中的TPU3芯片的数量应该是之前4倍。如果pod的总处理能力是TPU2的8倍,那么TPU3单芯片的处理能力则为TPU2的2倍。

根据Google的说法,这次他们第一次在Data center采用水冷的散热方式,这可能和芯片功耗以及板卡密度增加有关系。

Google also said this is the first time the company has had to include liquidcooling in its data centers, CEO Sundar Pichai said.

总得来说,如上图所描述(来自Google I/O大会的talk:Effective Machine Learning with Google TPU,可以在YouTube上搜索Google io 18 stage 8观看),TPU3实现的超过100 PFLOPS的处理能力是来自“新的芯片架构和大规模系统”。

快速迭代

从去年I/O大会发布TPU2到今天不过一年时间,Google的芯片迭代速度还是非常惊人的。“为什么Google能够实现这样的快速迭代?”这也是一个非常值得探讨的话题

我先简单谈几点个人看法:

第一,TPU是一个Domain-specific Architecture(参考当我们设计一个专用处理器的时候我们在干什么?(上)),定位准确,架构简单,容易扩展。相比之下,传统的通用处理器必须考虑灵活性和兼容性,有太重的包袱。当然,TPU这种特点也决定它只能用于有限的应用场景,可能只有Google的体量以及云服务能够所提供的应用需求才能充分利用TPU这种专用芯片,这一点是得天独厚的。这也是目前几乎所有科技巨头都开始自研芯片的一个基本考量。而传统的芯片厂商在这一点上就有些尴尬了。

第二,Google的软件和系统能力超强,TPU以Cloud service出现,提高给客户的是整体服务。芯片硬件可做的tradeoff空间比较大,芯片本身的弱点可以在系统层面弥补。从目前得到的信息分析的,TPU3的处理能力是TPU2的8倍,其中芯片换代的贡献只有2倍,大部分改进在系统层面。另一方面,目前芯片开发离不开相关软件工具,Google的软件能力和生态也是其能够实现芯片快速迭代的一个重要因素。

第三,钱很重要。Google不差钱,在芯片实现上可以通过花钱换取时间。

总得来说,Google TPU的意义可能远远超过芯片本身。它背后的芯片设计逻辑,实现方法,应用模式和生态环境,相较传统芯片开发有很大区别,也许会成为趋势。

云服务和Benchmark

Google在发布TPU3的时候同时提到了新的云服务,在之前的Cloud TPU基础上,今年晚些时候还会发布Cloud TPU pod(不知道谁能用的起?),可以看出TPU对于Goolge的云端战略的重要意义。

有意思的是,在Google的talk中强调了cost的问题,每个例子都给出了相应的training cost,画风是这样的。

这里颇有广告的感觉,不禁让人想起黄教主的”The more GPUs you buy, The more money you save“。结合最近Microsoft对Brainwave项目的宣传,感觉云端机器学习的价格战马上就要开始了。

另外,Google也强调了Benchmark的重要性,还专门展示了他们最近力推的MLPerf。

最近不同平台之间的对比很多,有比性能的,也有拼成本的。相信随着越来越多的厂商加入,刷榜应该会非常热闹。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 谷歌
    +关注

    关注

    27

    文章

    5839

    浏览量

    103234
  • TPU
    TPU
    +关注

    关注

    0

    文章

    131

    浏览量

    20517

原文标题:谷歌TPU 3.0到底厉害在哪里?

文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    Groq推出大模型推理芯片 超越了传统GPU和谷歌TPU

    Groq推出了大模型推理芯片,以每秒500tokens的速度引起轰动,超越了传统GPU和谷歌TPU
    的头像 发表于 02-26 10:24 359次阅读
    Groq推出大模型推理芯片 超越了传统GPU和<b class='flag-5'>谷歌</b><b class='flag-5'>TPU</b>

    tpu材料的用途和特点

    TPU材料,即热塑性聚氨酯(Thermoplastic Polyurethane),是一种聚合物材料,具有广泛的应用领域和独特的特点。 TPU材料的主要用途如下: 鞋类行业:TPU材料常用于鞋类
    的头像 发表于 01-16 10:17 672次阅读

    TPU是什么材料做的

    TPU(Thermoplastic Polyurethane)是热塑性聚氨酯的简称,属于一种高强度、高弹性、高耐磨的特种塑料材料。它是由聚醚或聚酯两元醇与三元异氰酸酯或四元稀土异氰酸酯通过共聚反应
    的头像 发表于 01-12 13:40 638次阅读

    TPU-MLIR开发环境配置时出现的各种问题求解

    按照 TPU-MLIR 开发指南进行环境配置: 2.1. 代码下载 代码路径: https://github.com/sophgo/tpu-mlir 克隆该代码后, 需要在Docker中编译
    发表于 01-10 08:02

    谷歌TPU v5p超越Nvidia H100,成为人工智能领域的竞争对手

    TPU v5p已在谷歌“AI超级计算机”项目中发挥重要作用,这并非专业科研型超算平台,而是面向各类人工智能应用。与Nvidia开放GPU购买策略不同,谷歌高端TPU主要供自家产品和服务
    的头像 发表于 12-26 15:20 902次阅读

    谷歌最强大的定制设计人工智能加速器—TPU v5p芯片

    谷歌正迅速成为 BFF Nvidia 的强大对手——为其超级计算机提供动力的 TPU v5p AI 芯片速度更快,内存和带宽比以往任何时候都多,甚至击败了强大的 H100
    的头像 发表于 12-26 09:31 1292次阅读

    谷歌发布多模态Gemini大模型及新一代TPU系统Cloud TPU v5p

    谷歌亦发布新一代TPU 系统——Cloud TPU v5p,以帮助训练尖端的 AI 模型。目
    的头像 发表于 12-12 10:50 789次阅读
    <b class='flag-5'>谷歌</b>发布多模态Gemini大模型及新一代<b class='flag-5'>TPU</b>系统Cloud <b class='flag-5'>TPU</b> v5p

    价格没谈拢?谷歌考虑抛弃AI赢家博通自研TPU

    今天,谷歌高层管理层讨论了在2027年放弃博通作为人工智能芯片的供应商。谷歌的这种苦恼是在就tpu芯片价格与博通对峙之后才实现的。
    的头像 发表于 09-22 09:34 342次阅读

    TPU和NPU的区别

    TPU和NPU的区别  在IT领域中,TPU和NPU属于两种不同类型的芯片。这两种芯片都是专为人工智能(AI)和大型数据分析设计而开发的,但它们的功能和优点却有所不同。在本文中,我们将详细介绍TPU
    的头像 发表于 08-27 17:08 3478次阅读

    TPU内存(一)

    TPU内存(一)
    的头像 发表于 08-18 11:29 415次阅读
    <b class='flag-5'>TPU</b>内存(一)

    如何给TPU-MLIR添加新的算子

    如何给TPU-MLIR添加新的算子
    的头像 发表于 08-18 11:29 349次阅读
    如何给<b class='flag-5'>TPU</b>-MLIR添加新的算子

    TPU-MLIR中的融合处理

    TPU-MLIR中的融合处理
    的头像 发表于 08-18 11:29 304次阅读
    <b class='flag-5'>TPU</b>-MLIR中的融合处理

    TPU内存(二)

    TPU内存(二)
    的头像 发表于 08-18 11:29 262次阅读
    <b class='flag-5'>TPU</b>内存(二)

    ChatGLM2-6B解析与TPU部署

    ChatGLM2-6B解析与TPU部署
    的头像 发表于 08-18 11:28 516次阅读
    ChatGLM2-6B解析与<b class='flag-5'>TPU</b>部署

    如何验证MC68332 TPU配置是否正确?

    a) 以下 TPU 模块配置在项目中完成 *M332_TPU_TMCR = 0x1e4c;/* 选择 TCR1 时基 = 250nsec, TCR2 = 4usec,仿真模式
    发表于 05-09 08:17