0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

SK电讯已推出自研AI芯片SAPEON X220,深度学习计算速度提升GPU 1.5倍

工程师邓生 来源:TechWeb.com.cn 作者:海蓝 2020-12-01 14:30 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

12月1日消息,据国外媒体报道,出于软硬件整合、向消费者提供更好体验、推出更好服务等方面的考虑,越来越多的厂商在研发芯片,人工智能方面较为明显,SK电讯就已推出了自研AI芯片SAPEON X220。

SK电讯目前已在官网公布了自研AI芯片SAPEON X220的消息,官网的信息显示,这一自研AI芯片SAPEON X220经过优化设计,用于更快的处理人工智能任务,通过高效的并行处理大量数据来减少对电力的消耗。

从SK电讯官网公布的数据来看,SAPEON X220深度学习计算速度为每秒6.7千帧,较AI服务公司目前广泛使用的GPU快1.5倍,同时对电力的消耗较AI服务公司常用的GPU减少20%,成本也降低了50%。

SK电讯方面还表示,他们自研的SAPEON X220 AI芯片,将通过对大量数据的快速计算来提高AI数据中心的性能,从而提供高质量的AI服务。

SAPEON X220 AI芯片很快就将在SK电讯相关的业务中应用,他们在官网上表示,从明年开始,SAPEON X220就将用于SK电讯的AI服务NUGU,改善语音识别能力。除了AI服务NUGU,SAPEON X220 AI芯片也将用于SK电讯旗下的其他公司。

责任编辑:PSY

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    28

    文章

    5099

    浏览量

    134468
  • SK海力士
    +关注

    关注

    0

    文章

    1003

    浏览量

    40991
  • 深度学习
    +关注

    关注

    73

    文章

    5590

    浏览量

    123912
  • AI芯片
    +关注

    关注

    17

    文章

    2065

    浏览量

    36570
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    DeepSeek最新论文:训练速度提升9,推理速度快11

    电子发烧友网报道(文/梁浩斌)周二xAI发布了Grok3,这个马斯克称之为“地球上最聪明的AI”抢占了所有人的眼球。   为了打造最强AI大模型,xAI投入了20万块H100 GPU计算
    的头像 发表于 02-20 11:25 2654次阅读
    DeepSeek最新论文:训练<b class='flag-5'>速度</b><b class='flag-5'>提升</b>9<b class='flag-5'>倍</b>,推理<b class='flag-5'>速度</b>快11<b class='flag-5'>倍</b>!

    为啥 AI 计算速度这么惊人?—— 聊聊 GPU、内存与并行计算

    提到AI,大家常说它“算得快”,其实是指AI能在眨眼间处理海量数据。可它为啥有这本事?答案就藏在“GPU+高速内存+并行计算”这trio(组合)里。咱们可以把
    的头像 发表于 12-05 14:35 256次阅读
    为啥 <b class='flag-5'>AI</b> <b class='flag-5'>计算速度</b>这么惊人?—— 聊聊 <b class='flag-5'>GPU</b>、内存与并行<b class='flag-5'>计算</b>

    苹果AI革命:M5芯片10核GPUAI处理速度翻倍,Apple Glass在路上

    三款核心设备。这一场苹果围绕M5芯片AI硬件的革新,也成为苹果迈进AI时代以端侧大模型和空间计算的又一成绩。     3nm+10核GPU
    的头像 发表于 10-19 01:13 9857次阅读
    苹果<b class='flag-5'>AI</b>革命:M5<b class='flag-5'>芯片</b>10核<b class='flag-5'>GPU</b>、<b class='flag-5'>AI</b>处理<b class='flag-5'>速度</b>翻倍,Apple Glass在路上

    【「AI芯片:科技探索与AGI愿景」阅读体验】+神经形态计算、类脑芯片

    AI芯片发展的重要方向。如果利用超导约瑟夫森结(JJ)来模拟与实时突触电路相连的神经元,神经网络运行的速度要比目前的数字或模拟技术提升几个数量级。 1、超低温类脑
    发表于 09-17 16:43

    【「AI芯片:科技探索与AGI愿景」阅读体验】+第二章 实现深度学习AI芯片的创新方法与架构

    的同时,能够利用更小、更快的数字格式,提升模型的整体性能。 1.3Transformer 模型中的矩阵乘法计算 2、存内计算AI芯片 存内
    发表于 09-12 17:30

    【「AI芯片:科技探索与AGI愿景」阅读体验】+AI芯片的需求和挑战

    的工作吗? 从书中也了解到了AI芯片都有哪些?像CPU、GPU、FPGA、ASIC都是AI芯片。 其他的还是知道的,FPGA属于
    发表于 09-12 16:07

    【「AI芯片:科技探索与AGI愿景」阅读体验】+内容总览

    是展望未来的AGI芯片,并探讨相关的发展和伦理话题。 各章的目录名称如下: 第1章 大模型浪潮下,AI芯片的需求与挑战免费 第2章 实现深度学习
    发表于 09-05 15:10

    AI 芯片浪潮下,职场晋升新契机?

    对复杂场景中目标检测与识别的速度和精度。在此过程中,对算法的理解深度芯片架构与算法的协同能力,都会成为职称评审中的加分项。 除技术能力外,创新能力同样不可或缺。AI
    发表于 08-19 08:58

    AI芯片:加速人工智能计算的专用硬件引擎

    人工智能(AI)的快速发展离不开高性能计算硬件的支持,而传统CPU由于架构限制,难以高效处理AI任务中的大规模并行计算需求。因此,专为AI
    的头像 发表于 07-09 15:59 911次阅读

    提升AI训练性能:GPU资源优化的12个实战技巧

    在人工智能与机器学习技术迅速发展的背景下,GPU计算资源的高效利用已成为关键技术指标。优化的GPU资源分配不仅能显著提升模型训练
    的头像 发表于 05-06 11:17 1181次阅读
    <b class='flag-5'>提升</b><b class='flag-5'>AI</b>训练性能:<b class='flag-5'>GPU</b>资源优化的12个实战技巧

    RK3588核心板在边缘AI计算中的颠覆性优势与场景落地

    推理任务,需额外部署GPU加速卡,导致成本与功耗飙升。 扩展性受限:老旧接口(如USB 2.0、百兆网口)无法支持5G模组、高速存储等现代外设,升级困难。 开发周期长:BSP适配不完善,跨平台AI
    发表于 04-15 10:48

    使用NVIDIA CUDA-X库加速科学和工程发展

    NVIDIA GTC 全球 AI 大会上宣布,开发者现在可以通过 CUDA-X 与新一代超级芯片架构的协同,实现 CPU 和 GPU 资源间深度
    的头像 发表于 03-25 15:11 1212次阅读

    在CM32M433R MCU上调用riscv_sqrt_f32()函数的计算速度比直接调用sqrtf()要慢,为什么?

    在CM32M433R MCU上调用riscv_sqrt_f32()函数的计算速度比直接调用sqrtf()要慢, 计算一次riscv_sqrt_f32大概54 cycles;sqrtf()大概29 cycles,FPU宏打开,求
    发表于 03-07 14:18

    FPGA+AI王炸组合如何重塑未来世界:看看DeepSeek东方神秘力量如何预测......

    ...... 2) AI超算革命:FPGA集群功耗比GPU降低62%;混合精度计算效率提升5.8...... 3) 6G通信突破:软件无线
    发表于 03-03 11:21

    深度学习工作负载中GPU与LPU的主要差异

    ,一个新的竞争力量——LPU(Language Processing Unit,语言处理单元)悄然登场,LPU专注于解决自然语言处理(NLP)任务中的顺序性问题,是构建AI应用不可或缺的一环。 本文旨在探讨深度
    的头像 发表于 12-09 11:01 3914次阅读
    <b class='flag-5'>深度</b><b class='flag-5'>学习</b>工作负载中<b class='flag-5'>GPU</b>与LPU的主要差异