0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

基于 Flexus X 实例云服务器的评测 - 大模型对比评测

jf_21561199 来源:jf_21561199 作者:jf_21561199 2024-12-24 17:34 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

大家好,我是雄雄,欢迎关注微信公众号:雄雄的小课堂

@TOC

写在前面

华为云 828,领 8280 元上云礼券,买高性能服务器!!!

这不,手里就拿到了一台 4 核 12G,10M 的 Flexus X 实例云服务器,拿到后,就想着测测它的性能,看看有没有官网说的那么神奇!!!

官网的活动地址在这里,领 8280 元券:点我查看

服务器配置情况

下面,简单的给大家看看我手里的这台服务器的配置,做个铺垫,待会儿给大家上大招!!!

cpu 的情况

wKgZPGdqgBWAQa_FAABG5meIOQI667.png

内存情况

wKgZO2dqgBaAE1EiAACACZJTFeQ271.png

硬盘情况

wKgZPGdqgBaAAaAeAACQxLZfkgM499.png

拿到服务器后,我不想再装环境上浪费时间,所以就安装了个宝塔,这个面板在服务器中,占不了多少内存,但是方便了装环境,不用执行装环境的命令,只需要在软件商店中,找到需要安装的软件,点击后面的安装即可。

评测之前环境准备

在正式评测之前,我们需要准备以下环境:

1.docker,不会安装的可以自行百度

2.ollama,这个也很简单,执行个命令就完事儿了

假使我们这两个环境现在在云服务器上都安装成功啦。

wKgZO2dqgBeAKcTDAAHaIAGiEMY107.png

wKgZPGdqgBiAX5TuAABlNLuykK4089.png

那么,现在我们开始正式评测!!!

华为云 Flexus X 实例大模型评测

下面,我们开始基于华为云的 Flexus X 实例云服务器评测一下大模型,因为我们现在还不知道这款服务器能跑多大的模型,所以我们就先从小模型开始跑。

先来个小模型,下面我们可以直接使用 ollama 开始跑模型,大家进入 ollama 的官网,点击右上角的 model 菜单:

wKgZO2dqgBiAT5_vAADSxM4WYEY026.png

然后就能看到下面所有 ollama 支持的大模型啦。

找到 qwen2,我们可以看到下面的 tag 里面分别有:0.5B,1.5B,7B,72B,这几种。

wKgZPGdqgBmANedaAAA3DT8ow_U767.png

千问 0.5B 大模型

下面,我们先以最小的为例,试试看看:(注意,模型的质量我们暂且不管,我们只评测响应速度以及 CPU 和内存的占用情况)

占用情况以宝塔面板上的统计图为例,待会儿给大家截图。

执行下面的命令,开始跑 0.5B 的大模型:

ollama run qwen2:0.5b

运行情况如下:

wKgZO2dqgBmAcnrOAAy9ecppnE8015.gif

占用情况如下:

wKgZPGdqgBqAEWfnAABnskGyHTY900.png

结论:0.5B 的大模型,可以看到,这个速度快的惊人,没说的,继续测下个大模型。

千问 1.5B 大模型

这次我们测 1.5B 的大模型,比 0.5B 的多 1,看看这款 Flexus X 实例云服务器的表现怎么样。

同样,执行下面的命令:

ollama run qwen2:1.5b

wKgZO2dqgBqADn1_AAAnSkHwiZ4801.png

这里需要等待半天,让下载。

下载过程中,我们可以看看宝塔上的内存和 CPU 的占比情况。

wKgZPGdqgBuAKVk9AABaluelEcI813.png

基本上毫无压力,继续等待!!!

等待的过程有点漫长.....

wKgZO2dqgBuAWDQ9AABKAlY7z-M494.png

开测!!!

wKgZPGdqgByARiIlAAixulHx51M132.gif

看看占用情况:

wKgZO2dqgB2Aec23AABib0MZ_Zk345.png

结论:比较完美,感觉和 0.5B 的区别不是很大,就是下载的时候慢了点,整体表现很棒。

gemma2 的 2b 大模型

0.5B 和 1.5B 的我们都测试过了,大家也可以从上图中看的出来,一点压力都没有,响应速度也很快,嗖嗖的就回答完毕了,质量也还行,而且最主要的是服务器的性能完全是过剩的,没跑满,所以,我们接着加大力度测试。

现在我们测测 gemma2 的 2b 大模型,运行如下命令:

ollama run gemma2:2b

又到了等待的过程中了,总是这么漫长~

wKgZO2dqgB2AGog0AAAkD0IHIbo654.png

在下载模型的过程中,我们可以看看占用情况:

wKgZPGdqgB6AW8G1AABOby8sToY549.png

一点问题都没有,几乎没有占多少,现在我们继续等待。

wKgZO2dqgB6ANv2xAAB0YWh8bRg214.png

等待完毕,开始问个问题测试一下:

效果展示情况:

wKgZPGdqgB-ADob1AAQRZSaqPnA213.gif

资源占用情况:

wKgZO2dqgB-AbCh6AABiubAQaas140.png

结论:通过效果图 gif 中可以看的出来,响应要比 1.5B 的稍微慢了点儿,但是这个速度还是可以接受,不过内存占用稍微偏高了,由原来的 27 增加到了 34,倒是也能接受,毕竟模型的大小由原来的 900 多 M 到现在的 1.4G 了。

千问 7B 大模型

现在,我们继续增大模型,看看表现效果怎么样。

这次我们测一下千问的 7B 大模型,这是 2B 的 3 倍多,看看这款 Flexus X 实例云服务器跑 7B 的模型是个什么情况。

同样,执行下面的命令:

ollama run qwen2:7b

继续等待:

wKgZPGdqgB-AblfYAAAktnPqqLg614.png

7B 的模型,已经到了 4G 多了,期待他能有个很好的表现。

现在是:2024 年 9 月 6 日 00:02:43,我的 7B 大模型还在下载中,已经困的不行了....

wKgZO2dqgCCAZ2gaAAAkH_ElAHQ137.png

再等等....

wKgZPGdqgCCAesCYAABolZ7xrFY109.png

终于等它下载完啦,一共 4.4G,等的我都快做梦啦。切记,如果有大文件上下传的场景,买服务器的时候一定要选择个大带宽的,我的这个是 10M 的带宽,感觉遇到大文件了,还是有点不足。

下面我们开始进行评测,首先还是老规矩,先运行看看效果:

wKgZO2dqgCCAfj8OAAHZP_Ro8I4751.gif

资源占用情况:

wKgZPGdqgCGAYNriAABl4olLMgg640.png

结论:大家可以看看效果图中,可以发现,很明显,相比起 2B 1.5B 的这种小模型来比,7B 的模型,在响应方面确实是稍微慢了点儿,但是也没有慢到一个字一个字的往出蹦,还是可以接受的。资源占用情况的话,CPU 占用上升到了 50.4% ,内存在原来的 34 增加到了 49。也没有跑满服务器。

总结

先放一张各个大小的模型之间的对比吧,从 0.5B,到 1.5B,再到 7B,以及 72B。

wKgZO2dqgCGAAFczAABWijIM_Dw316.png

大家可以从上图中看的出来,模型越大,params 就越大,本文我们通过对 0.5b,1.5b,2b,7b 这几个模型进行评测对比,总体来说,比我预想的要好很多,我以为 7b 的会卡的很,结果表现的很棒,这么看来,跑 8B 以内的模型是没有问题的。

在往上的大模型,可能会吃力,不过 8B 以内,其实小微企业足矣!!!

审核编辑 黄宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 云服务器
    +关注

    关注

    0

    文章

    840

    浏览量

    14747
  • 大模型
    +关注

    关注

    2

    文章

    3773

    浏览量

    5273
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    硬件通胀下的生存战!华为Flexus X服务器,让中小企业不做“接盘侠”

    通知”成了企业IT采购的常态。 DRAM合同价同比暴涨171.8%,NAND Flash价格累计飙升246%,服务器整机采购成本上升15%-20%。硬件市场的疯狂涨价,正让无数中小企业面临“买得起用不起、想买却没货”的绝境。而__华为
    的头像 发表于 12-31 13:05 400次阅读

    DRAM 暴涨 171%! 171% 下的企业突围:华为 Flexus X 服务器成 IT 成本管控利器

    Flexus X 服务器凭借独有的柔性算力黑科技与智能调度能力,助力企业实现核心应用性能最高达友商 6 倍、综合成本降低 30% 的双
    的头像 发表于 12-31 13:00 388次阅读

    什么是企业服务器-计算

    地扩展和管理其IT基础设施。华纳的企业服务器基于虚拟化技术,在环境中运行多个虚拟服务器实例
    的头像 发表于 12-29 17:57 1077次阅读

    知声山海医疗大模型问鼎MedBench4.0三项榜首

    12月16日,中文医疗大模型权威评测平台MedBench4.0发布最新评测结果。知声自主研发的“山海医疗大模型(UniGPT‑Med)”展
    的头像 发表于 12-29 14:35 3557次阅读
    <b class='flag-5'>云</b>知声山海医疗大<b class='flag-5'>模型</b>问鼎MedBench4.0三项榜首

    服务器端口怎么开放?

    刚搭建好服务器,想部署网站、运行应用或开启远程连接,却发现外网始终无法访问?大概率是端口没开放。端口就像服务器的门窗,默认状态下,服务器
    的头像 发表于 11-11 15:43 1127次阅读

    如何快速在服务器上部署Web环境?

    如何快速在服务器上部署Web环境
    的头像 发表于 10-14 14:16 863次阅读

    DeepSeek模型如何在服务器上部署?

    随着大型语言模型(LLM)的应用日益普及,许多开发者和企业希望将像DeepSeek这样的优秀模型部署到自己的服务器上,以实现私有化、定制化服务
    的头像 发表于 10-13 16:52 1147次阅读

    加速是如何隐藏源服务器ip的

    服务器IP是保护服务器的一项重要安全措施。 华纳 为大家分享受一下内容: 隐藏源服务器IP的主要目的是防止恶意攻击者通过直接访问服务器IP
    的头像 发表于 09-12 16:31 806次阅读

    轻量服务器服务器区别:2025年终极选择指南

    轻量服务器服务器区别在于定位和性能保障。轻量服务器采用共享计算资源和突发性能模式,预配置
    的头像 发表于 09-01 13:58 1575次阅读
    轻量<b class='flag-5'>云</b><b class='flag-5'>服务器</b>和<b class='flag-5'>云</b><b class='flag-5'>服务器</b>区别:2025年终极选择指南

    硅谷GPU服务器是什么意思?使用指南详解

    硅谷GPU服务器本质上是一种IaaS(基础设施即服务)产品,它将物理服务器上的GPU资源通过虚拟化技术分割成可弹性调配的
    的头像 发表于 06-16 09:41 733次阅读

    直播服务器对带宽有什么要求?#直播服务器 #直播 #带宽

    服务器
    jf_57681485
    发布于 :2025年05月30日 11:54:24

    服务器和独立服务器的区别在哪?一文读懂如何选择

    面对服务器与独立服务器的选择,许多人常因概念模糊而纠结。服务器和独立服务器的区别在于资源分配
    的头像 发表于 05-19 10:19 821次阅读

    存储服务器租用的好处有哪些?

    随着企业数字化转型加速,存储服务器租用成为越来越多企业的首选方案。存储服务器租用的好处在于弹性灵活、成本可控、安全可靠,同时避免了传统服务器
    的头像 发表于 05-16 11:03 953次阅读

    高防服务器哪家好?RAKsmart高防服务器全方位解析

    普通服务器缺乏专业防护能力,而高防服务器凭借高带宽储备、智能流量清洗机制和实时监控系统,能有效抵御攻击,保障业务连续性。不过,市场上高防服务器提供商众多,哪家好呢?接下来,小库主机评测
    的头像 发表于 05-12 09:28 2049次阅读

    深兰科技医疗大模型荣获MedBench评测第一

    近日,国内权威医疗大模型评测平台MedBench在官网更新了榜单,多个知名医疗AI产品及研究团队入榜,其中深兰DeepBlue-MR-v1医疗大模型以复杂医学推理评测第一的成绩领跑Me
    的头像 发表于 04-30 16:08 1043次阅读