0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Llama 3 王者归来,Airbox 率先支持部署

算能开发者社区 2024-04-22 08:33 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

前天,智算领域迎来一则令人振奋的消息:Meta 正式发布了备受期待的开源大模型——Llama 3。

ed9ee800-003f-11ef-9118-92fbcf53809c.png

Llama 3 的卓越性能

Meta 表示,Llama 3 在多个关键基准测试中展现出卓越性能,超越了业内先进的同类模型。无论是在代码生成、复杂推理,还是在遵循指令和可视化想法方面,Llama 3 都实现了全面领先。该模型在以下五个基准测试中均表现出色:

MMLU(学科知识理解)

GPQA(一般问题解答)

HumanEval(代码能力)

GSM-8K(数学能力)

MATH(高难度数学问题)

无论是 8B 规格的 Llama3 还是 70B 规格,它们都较市场上其他优秀大模型表现更佳。

edb0b3c8-003f-11ef-9118-92fbcf53809c.png

纵向对比显示,Llama 3 的性能大幅领先于前代产品 Llama 2,尤其是在 8B 规格上,远超过 Llama 2 时代的 13B 和 70B 规格;新的 70B 规格更是展现出与 GPT-4 早期版本相媲美的能力。

指令调优模型

Benchmark

Llama 3

8B

Llama 2

7B

Llama 2

13B

Llama 3

70B

Llama 2

70B

MMLU

(5-shot)

68.434.147.88252.9

GPQA

(0-shot)

34.221.722.339.521

HumanEval

(0-shot)

62.27.91481.725.6

GSM-8K

(8-shot, CoT)

79.625.777.49357.5

MATH

(4-shot, CoT)

303.86.750.411.6

瑞莎 Airbox 快速支持 Llama 3

面对 Llama 3 如此激动人心的性能,Airbox 团队积极响应,快速将 Llama 8B 移植并成功在 Airbox 上运行。以下视频展示了 Llama 8B 在 Airbox 上的运行情况:


(注:Llama 3 8B 知识更新到 2023 年 3 月)

可以看到,Llama 3 8B 在 Airbox 上的运行表现极为流畅,达到了 9.6 token/s 的处理速度,已充分展现出其实用价值。与其他应用结合使用时,更开辟了广阔的应用前景和创新可能性。Airbox 团队后续会对 Llama 3 8B 做更多测试并公布结果。

关于瑞莎 Fogwise Airbox

瑞莎智算盒子 Fogwise Airbox 是一款面向侧端生成式智算的边缘计算微型服务器,基于算能最新专为生成式智算打造的 SG2300X 处理器设计,具有开箱即用,本地离线部署,注重数据隐私,多精度支持,高能效比,高性价比,系统/文档/工具链开源等特点,是当前为数不多甚至是唯一的低成本在边缘侧部署生成式智算的方案。

瑞莎 Fogwise Airbox 现已准备就绪,即将在近期发售,敬请期待。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 基准测试
    +关注

    关注

    0

    文章

    21

    浏览量

    7815
  • 开源
    +关注

    关注

    3

    文章

    4340

    浏览量

    46435
  • 大模型
    +关注

    关注

    2

    文章

    3762

    浏览量

    5269
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    借助NVIDIA DSX Air平台加速AI基础设施仿真部署

    CoreWeave 等企业已率先采用这一新平台,它支持企业在单台服务器开箱之前,借助经过验证的计算、网络、存储、编排和安全参考架构,对复杂部署进行仿真。
    的头像 发表于 03-19 15:48 356次阅读

    如何在Arm Neoverse N2平台上提升llama.cpp扩展性能

    跨 NUMA 内存访问可能会限制 llama.cpp 在 Arm Neoverse 平台上的扩展能力。本文将为你详细分析这一问题,并通过引入原型验证补丁来加以解决。测试结果表明,在基于 Neoverse N2 平台的系统上运行 llama3_Q4_0 模型时,该补丁可使文
    的头像 发表于 02-11 10:06 303次阅读

    从云端到边缘:联发科MT8371/MT8391平台实现7B大模型本地部署

    :16GB LPDDR5高速内存,支持本地部署DeepSeek、Llama、Gemini等7B大语言开源模型。 • 多媒体:支持4K/5K超宽显示、双ISP架构及多路FHD摄像头接入
    发表于 12-15 16:32

    【CIE全国RISC-V创新应用大赛】基于 K1 AI CPU 的大模型部署落地

    的 落地方案 : 1. 系统部署方案书 (System Proposal) 方案要点 部署工具 :使用官方提供的 spacemit-llama.cpp (v0.0.4) 二进制包。 模型策略 :采用
    发表于 11-27 14:43

    泰凌微电子多系列SoC率先支持Zigbee 4.0标准 助力更高效的连接

    连接标准联盟最新发布的Zigbee 4.0标准,为低功耗物联网连接带来了全新升级!泰凌微电子迅速响应,旗下TLSR9、TL3、TL7系列SoC已率先实现对该标准的支持,以硬核技术助力智能家居、工业物
    的头像 发表于 11-24 14:31 3289次阅读

    NVIDIA ACE现已支持开源Qwen3-8B小语言模型

    为助力打造实时、动态的 NPC 游戏角色,NVIDIA ACE 现已支持开源 Qwen3-8B 小语言模型(SLM),可实现 PC 游戏中的本地部署
    的头像 发表于 10-29 16:59 1402次阅读

    全新蔚来ES8屏幕配置解析

    8月21日,第三代全新蔚来ES8闪亮登场,历经7年积累进化,以“王者归来”之势,引领豪华大三排SUV进入纯电时代。
    的头像 发表于 08-22 16:45 1810次阅读

    万亿参数!元脑企智一体机率先支持Kimi K2大模型

    北京2025年7月21日 /美通社/ -- 浪潮信息宣布元脑企智一体机已率先完成对Kimi K2 万亿参数大模型的适配支持,并实现单用户70 tokens/s的流畅输出速度,为企业客户高效部署
    的头像 发表于 07-22 09:27 673次阅读
    万亿参数!元脑企智一体机<b class='flag-5'>率先</b><b class='flag-5'>支持</b>Kimi K2大模型

    【VisionFive 2单板计算机试用体验】3、开源大语言模型部署

    1、ollama平台搭建 ollama可以快速地部署开源大模型,网址为https://ollama.com, 试用该平台,可以在多平台上部署 Deepseek-R1, Qwen3, Llama
    发表于 07-19 15:45

    Say Hi to ERNIE!Imagination GPU率先完成文心大模型的端侧部署

    ImaginationTechnologies宣布率先完成百度文心大模型(ERNIE4.5开源版)在其GPU硬件上的端侧部署。适配完成后,开发者可在搭载ImaginationGPU的设备上实现高效
    的头像 发表于 07-01 08:17 1088次阅读
    Say Hi to ERNIE!Imagination GPU<b class='flag-5'>率先</b>完成文心大模型的端侧<b class='flag-5'>部署</b>

    使用 NPU 插件对量化的 Llama 3.1 8b 模型进行推理时出现“从 __Int64 转换为无符号 int 的错误”,怎么解决?

    安装了 OpenVINO™ GenAI 2024.4。 使用以下命令量化 Llama 3.1 8B 模型: optimum-cli export openvino -m meta-llama
    发表于 06-25 07:20

    瑞萨RZ/V2H平台支持部署离线版DeepSeek -R1大语言模型

    瑞萨RZ/V2H平台支持部署离线版DeepSeek -R1大语言模型
    的头像 发表于 05-13 17:07 1858次阅读
    瑞萨RZ/V2H平台<b class='flag-5'>支持</b><b class='flag-5'>部署</b>离线版DeepSeek -R1大语言模型

    MediaTek天玑9400率先完成阿里Qwen3模型部署

    通义大模型团队在天玑 9400 旗舰移动平台上率先完成 Qwen3(千问 3)的端侧部署。未来,搭载天玑 9400 移动平台的设备可充分发挥端侧 AI 性能潜力,运行千问
    的头像 发表于 05-08 10:11 1501次阅读

    摩尔线程GPU率先支持Qwen3全系列模型

    近日,阿里云正式发布Qwen3系列的8款开源混合推理模型。摩尔线程团队在模型发布当天,率先完成了Qwen3全系列模型在全功能GPU上的高效支持。这一成果充分展现了MUSA架构及全功能G
    的头像 发表于 05-07 15:24 1129次阅读

    壁仞科技完成阿里巴巴通义千问Qwen3全系列模型支持

    4月29日,阿里巴巴通义千问发布并开源8款新版Qwen3系列“混合推理模型”(简称“Qwen3”)。Qwen3发布后数小时内,壁仞科技完成全系列支持,并
    的头像 发表于 04-30 15:19 1710次阅读