0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

计算型存储: 异构计算的下一个关键应用

璟琰乀 来源:SSDFans 作者:SSDFans 2020-12-18 11:06 次阅读

AWS re:Invent2019显示AWS市场占用率达到45%,相比2018年营收增长29%。使用专用芯片构建用于加速特定场景的战略更加清晰,除去IntelAMD的X86和Nvidia GPU,还有通过其Annapurna Labs部门推出的基于Arm的Graviton的定制芯片,并承诺基于Graviton2(7纳米)的新型EC2实例的性能是第一代Graviton的7倍。

早在摩尔定律失效之前,一个逐渐达成的共识就是通用处理器的算力应该专注于复杂的商业逻辑,而简单重复的工作则由专用芯片完成更加合适。

超算和智能网卡

早在20年以前,基于异构计算的智能网卡就已经应用于超算(HPC)领域。从1993年开始 TOP500 就以每年两次的频率,基于 Linpack benchmark 负载模型来统计地球上运行最快的超级计算集群。

2003年,弗吉尼亚理工学院暨州立大学创建一个InfiniBand集群,在当时的TOP500排名第三;

2009年,世界500强超级算机中,152个使用InfiniBand,并提供38.7%的算力;

2020年11月,根据最新的第56版,155个使用 InfiniBand,并提供40%的算力,排名前10的超算集群有8个由 InfiniBand 构建,更是占据了前5的4席位置。

在构建高速网路时,争论主要是把网络功能OnloadCPU上,还是把这些功能Offload到专用硬件

常用Onloading,TCP/IP技术在数据包从网卡到应用程序的过程中,要经过OS,数据在主存、CPU缓存和网卡缓存之间来回复制,给服务器的CPU和主存造成负担,也加剧网络延迟。

Offloading 基于RDMA实现远程内存直接访问,将数据从本地快速移动到远程主机应用程序的用户空间,通过Zero-copy和Kernel bypass来实现高性能的远程直接数据存取的目标。

下图可以直观的看到两者在访问路径的区别:

当然,Offloading 需要将RDMA协议固化于硬件上,所以依赖于网卡的算力是否可以满足运行RDMA协议的开销,这实际上就是专用芯片和网卡的结合。用更性感的说法是

SmartNICs are an example of DPU (Data Processing Unit) technology

AWS和Nitro

云计算催生超大规模数据中心,也同时放大通用算力的不足和异构计算的优势。就好比研发团队规模变大的同时必然走向专业化。AWS EC2早期由纯软(也意味着需要消耗CPU)的Xen对CPU、存储和网络完成虚拟化。基于这种实现方式,一个EC2实例的虚拟化管理开销高达30%。

30%相当可观,最重要的是并没有为客户提供直接价值。按照 Werner Vogels(AWS CTO )的说法

想为客户显著提高性能、安全性和敏捷性,我们必须将大部分管理程序功能迁移到专用硬件上。

2012年,AWS开始构建Nitro系统,也正是这,登纳德缩放定律(严格说是预测)几乎消失:

2013年, Nitro 应用于C3实例,其网络进程卸载到硬件中;

2014年,推出了C4实例类型,将EBS存储卸载到硬件中,并开始和Annapurna Labs合作;

2015年,收购 Annapurna Labs;

2017年,C5实例卸载控制平面和剩余的I/O,实现完整的Nitro系统;

此时,Nitro系统已经包含三个主要部分:Nitro卡、Nitro安全芯片和Nitro管理程序。主要卸载和加速IO,虚拟私有云(VPC)、弹性块存储(EBS)和实例存储,从而让用户可以使用100%的通用算力。

对客户而言,意味更好的性能和价格,下图可以看到基于Nitro的C5和I3.metal的延时明显降低:

计算型存储和数据库

从AWS的营收看,网络、存储、计算和软件是收入的四驾马车,数据库毫无疑问是存储领域的关键场景。随着云计算带来基础环境的改变,也直接加速云原生技术的发展和成熟,程序员不会再写出单体(Monolithic)应用,也再也不会在应用中只使用一种数据库。还是借用Werner Vogels的话

A one size fits all database doesn‘t fit anyone.

从AWS提供的数据库服务也应证了一点(国内的云计算巨头也类似)。

不同的数据库针对不同的场景,比如Airbnb使用 Aurora 替代 MySQL,Snapchat 使用DynamoDB 承载起最大的写负载,麦当劳将ElastiCache应用于低延时高吞吐的工作负载,旅游网站expedia.com使用ElasticSearch实时优化产品价格。当然,对于存储介质,更快速和更大容量的需求普遍存在。从下面数据库的工程实践看,压缩是实现这一目标的共识:

DB-Engines DBMS数据压缩特性

DBMS

是否支持数据压缩

Oracle

MySQL

Microsoft SQL Server

PostgreSQL

MongoDB

IBM Db2

Elasticsearch

Redis

SQLite

Cassandra

压缩率依赖于数据本身,1948年由美国数学家克劳德·香农(Claude Shannon)在经典论文《通信的数学理论》中首先提出信息熵,理想情况下,不管是什么样内容的数据,只要具有同样的概率分布,就会得到同样的压缩率。

在实现时,常常要在压缩吞吐,解压吞吐,和牺牲压缩率之间做取舍,这也是产生诸多压缩算法的原因。下图是基于Silesia compression corpus不同压缩算法之间的差异。

Compressor Name

Ratio

CompressionDecompress

zstd 1.4.5 -1

2.884

500MB/S

1660MB/S

zlib 1.2.11 -1

2.743

90MB/S400MB/S

brotli 1.0.7 -0

2.703

400MB/S450MB/S

zstd 1.4.5--fast=1

2.434

570MB/S2200MB/S

zstd 1.4.5--fast=3

2.312

640MB/S2300MB/S

quicklz 1.5.0 -1

2.238

560MB/S710MB/S

zstd 1.4.5 --fast=5

2.178

700MB/S2420MB/S

lzo1x 2.10 -1

2.106

690MB/S820MB/S

lz4 1.9.2

2.101

740MB/S4530MB/S

lzf 3.6 -1

2.077

410MB/S860MB/S

snappy 1.1.8

2.073

560MB/S1790MB/S

从一个常见的场景出发,应用多次写入压缩率各不相同的数据,逻辑写入量为36KB,如下图所示:

muaqqq.png

按照前面所示的压缩率,最理想的情况是压缩后占用15.2KB。

rqYfm2.png

但现有的空间管理实践会占用更多的物理空间,首先写入时需要按照文件系统页对齐写入(假设4KB),占用物理空间为48KB,数据存储分布如下图所示:

Q7FrAb.png

iyYfu2.png

但因为压缩后数据依然需要按照文件系统页大小(4KB)对齐,数据存储分布如下图所示:

mqem2u.png

所以实际占用的物理空间是36KB离预期的压缩率相去甚远。

uQJfeu.png

为进一步提升压缩效率,通常会进一步压实(compaction)空间,压实后数据存储分布如下:

iMZ7be.png

这时占用的物理空间是 16KB,才接近15.2KB。

可见在工程实践时,要想在应用场景中获得可观的压缩收益,仅关注数据结构和压缩算法是不够的,还要考虑压实(Compaction)效率,如果还要兼顾算力消耗、IO延时和代码复杂度等指标,工程难度将指数级提升。

针对这个场景,支持透明压缩的计算型存储 CSD2000,将压缩解压缩算法offload到盘内FPGA,使计算更靠近数据存储的地方(“in-situ computing”),进一步缩短数据路径,从而提升数据处理的效率。

对比“软”压缩(基于CPU)和硬压缩(基于FPGA)两者的收益并不复杂,下面以MySQL为例,将MySQL页压缩,MySQL表压缩和CSD2000透明压缩三者进行对比,采用TPC-C和TPC-E数据集和负载模型,以压缩率和数据库性能(TPS和时延)为指标衡量压缩效率。

先看压缩率,计算型存储 CSD2000 提供更高的压缩率,几乎是MySQL自带压缩的2倍以上,如下所示:

VBNbum.png

再看性能,使用sysbench测试1/4/16/64/256/512并发下性能表现,可以观察到(如下图所示):

≥ 64并发时,CSD2000 QPS/TPS平均提高~5倍,最高提高~12倍,99%平均时延降低68%以上;

《64并发时,CSD2000 QPS/TPS普遍高于普通NVMe SSD 20%~50%,99%平均时延降低8%~45%;

说明:为了便于对比,以普通NVMe SSD指标为基线做归一化。

zyQ7ji.png

QVZrmu.png

Mark Callaghan (Facebook Distinguished Engineer)曾经吐槽在数据库中实现透明页压缩并应用在生产环境,工程实现过于复杂,难怪Jens Axboe(Linux内核代码主要贡献者之一,FIO和IO_URING的作者)建议他把这些工作丢给计算型存储公司 ScaleFlux。而从计算型存储带来的压缩及性能(详见:可计算存储:数据压缩和数据库计算下推)收益来看已经超额完成任务。

计算型存储和文件系统

压缩同时减少数据写入量(Nand Written)和写放大(Write Amplification),但实际的情况会更复杂一些,大多数情况下数据库运行在文件系统之上。

以日志型文件系统ext4为例,设计以下测试验证日志写入量与数据库数据写入量的比例及透明压缩对于减少写入量的收益:

选用 MySQL 和 MariaDB;

200GB数据集;

3种负载模型:Insert/Update-Index/Update-Non-Index;

两种数据访问方式:热点集中(Non-uniform Key Distribution) 和全随机(Uniform Key Distribution);

最终测试结果如下:

因为文件系统的 WAL(Write Ahead Log)机制,加上日志的稀疏结构,日志写入量占整体写入量20%~90%,可见文件系统日志写入量可能大于上层应用(数据库)的数据写入量;

透明压缩对于减少数据库数据量的写入效果明显,对于减少日志系统写入量的效果更加显著,全部测试场景减少日志写入量约4~5倍;

说明:以普通NVMe SSD指标为基线做归一化,直方图面积越小,数据写入量越少。

人类的智慧注定都要在山顶相遇

亚马逊经常谈论单向(one-way)和双向(two-way)门决策。双向门决策容易逆转,例如A/B test,这类决策可以快速采取行动,即使失败,成本也不高。单向门决策大多数时候不可撤销,必须”大胆假设,小心求证“。Nitro 显而易见是一个单向(one-way)门决策,即便是2012年开始,AWS也花了足足7年时间才完整落地。

在异构计算领域,头部云计算厂已经达成共识,相关产品也加速推出,包括支持计算下推的阿里云PolarDB(详见:可计算存储:数据压缩和数据库计算下推),以及 AWS re:Invent2020 再次提到的基于 AUQA(Advanced Query Accelerator) 节点加速的 Redshift。

风物长宜放眼量,人类的智慧注定都要在山顶相遇。

责任编辑:haq

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 存储
    +关注

    关注

    12

    文章

    3868

    浏览量

    84722
  • 计算机
    +关注

    关注

    19

    文章

    6656

    浏览量

    84734
  • AWS
    AWS
    +关注

    关注

    0

    文章

    396

    浏览量

    23939
收藏 人收藏

    评论

    相关推荐

    高通NPU和异构计算提升生成式AI性能 

    异构计算的重要性不可忽视。根据生成式AI的独特需求和计算负担,需要配备不同的处理器,如专注于AI工作负载的定制设计的NPU、CPU和GPU。
    的头像 发表于 03-06 14:15 239次阅读

    科学计算与Julia技术研讨会 | 张先轶:从OpenBLAS到异构计算软件栈

    蓬勃发展,新兴科学计算语言不断涌现,Julia以其高性能、动态性成为其中的佼佼者。 12月9日上午1020 ,澎峰科技创始人 张先轶博士 将 在 主论坛:Julia与数字化和AI 上 作 “ 从OpenBLAS到异构计算软件栈” 主题演讲,期待与大家见面 ! 研讨会完整详
    的头像 发表于 11-30 19:35 420次阅读
    科学<b class='flag-5'>计算</b>与Julia技术研讨会 | 张先轶:从OpenBLAS到<b class='flag-5'>异构计算</b>软件栈

    异构众核系统高性能计算架构

    随着计算机技术的发展,单核处理器已经难以满足高性能计算的需求,众核处理器成为了一种有效的解决方案。众核处理器是指在一个芯片上集成多个处理器核心,通过并行计算提高性能和能效,众核处理器可以分为同构
    的头像 发表于 11-30 08:27 447次阅读
    <b class='flag-5'>异构</b>众核系统高性能<b class='flag-5'>计算</b>架构

    什么是异构集成?什么是异构计算异构集成、异构计算的关系?

    异构集成主要指将多个不同工艺节点单独制造的芯片封装到一个封装内部,以增强功能性和提高性能。
    的头像 发表于 11-27 10:22 3158次阅读
    什么是<b class='flag-5'>异构</b>集成?什么是<b class='flag-5'>异构计算</b>?<b class='flag-5'>异构</b>集成、<b class='flag-5'>异构计算</b>的关系?

    异构计算为什么会异军突起?基于FPGA的异构计算讨论

    简单的介绍几个概念,同道中人可以忽略这一段。云计算取代传统IT基础设施已经基本成为业界共识和不可阻挡的趋势。
    发表于 10-26 10:04 265次阅读
    <b class='flag-5'>异构计算</b>为什么会异军突起?基于FPGA的<b class='flag-5'>异构计算</b>讨论

    异构时代:CPU与GPU的发展演变

    异构计算是指在一个系统中使用不同类型的处理器来执行不同的计算任务,以提高性能,效率和可靠性。随着摩尔定律的放缓,单一类型的处理器已经难以满足日益增长的运算需求。与此同时,不同类型的处理器具有各自
    的头像 发表于 10-24 10:17 579次阅读
    <b class='flag-5'>异构</b>时代:CPU与GPU的发展演变

    高通下一代智能PC计算平台名称确定:骁龙X系列

    骁龙X系列平台基于高通在CPU、GPU和NPU异构计算架构领域的多年经验打造。目前,采用下一代定制高通Oryon CPU的骁龙X系列将实现性能和能效的显著提升,此外其所搭载的NPU将面向生成式AI新时代提供加速的终端侧用户体验。
    的头像 发表于 10-11 11:31 434次阅读

    请问模型推理只用到了kpu吗?可以cpu,kpu,fft异构计算吗?

    请问模型推理只用到了kpu吗?可以cpu,kpu,fft异构计算吗?
    发表于 09-14 08:13

    新一代计算架构超异构计算技术是什么 异构走向超异构案例分析

    异构计算架构是一种将不同类型和规模的硬件资源,包括CPU、GPU、FPGA等,进行异构集成的方法。它通过独特的软件和硬件协同设计,实现了计算资源的灵活调度和优化利用,从而大大提高了计算
    发表于 08-23 09:57 472次阅读
    新一代<b class='flag-5'>计算</b>架构超<b class='flag-5'>异构计算</b>技术是什么 <b class='flag-5'>异构</b>走向超<b class='flag-5'>异构</b>案例分析

    异构计算场景下构建可信执行环境

    令集、不同功能的算力单元,组合起来形成混合的计算系统,使其具有更强大、更高效的功能。如何在异构计算场景下构建可信执行环境呢?华为可信计算
    发表于 08-15 17:35

    异构计算的初步创新

    更 高,x16带宽(双向)从64 GB/s提 升到了128 GB/s;目前规范制定已迭 代至6.0版本,带宽再翻倍。 异构计算的初步创新:在
    的头像 发表于 06-19 11:26 469次阅读
    <b class='flag-5'>异构计算</b>的初步创新

    使用Synopsys协议连续体满足计算高速链路设计的异构验证和确认要求

    数据是推动云/边缘计算关键用例和人工智能进步的新燃料。数据处理的各个方面(收集、存储、移动、处理和分散)都带来了独特的设计实现和验证挑战。对异构计算的需求使特定于应用程序的加速器呈指数
    的头像 发表于 05-25 16:43 288次阅读
    使用Synopsys协议连续体满足<b class='flag-5'>计算</b>高速链路设计的<b class='flag-5'>异构</b>验证和确认要求

    PrimeSimSPICE:异构计算模型实现数量级性能突破

    随着对更高计算性能的需求不断增加,HPC 行业正朝着异构计算模型发展,其中 GPU 和 CPU 协同工作以执行通用计算任务。在这种异构计算模型中,GPU 充当 CPU 的加速器,以减轻
    的头像 发表于 05-24 16:53 596次阅读
    PrimeSimSPICE:<b class='flag-5'>异构计算</b>模型实现数量级性能突破

    ARM系列—机密计算

    今天来看一个ARM中的新东西,机密计算架构(Confidential Compute Architecture,CCA)。CCA是ARM公司在2021年发布的,属于Armv9-A的关键架构之一。有了机密计算,ARM称将进入
    发表于 05-24 15:25 964次阅读
    ARM系列—机密<b class='flag-5'>计算</b>

    构建面向异构算力的边缘计算云平台

    数据又消费数据,再慢慢到设备与设备之间的信息互联,万物互联的时代已然到来。 在万物互联时代,需要计算的数据越来越多,需求在不断的变化,异构计算能够充分发挥 CPU/GPU 在通用计算上的灵活性,及时响应数据处理需求,搭 配上
    发表于 05-18 17:15 0次下载
    构建面向<b class='flag-5'>异构</b>算力的边缘<b class='flag-5'>计算</b>云平台