0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

如何本地部署大模型

openEuler 来源:openEuler 2023-10-18 11:48 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

近期,openEuler A-Tune SIG在openEuler 23.09版本引入llama.cpp&chatglm-cpp两款应用,以支持用户在本地部署和使用免费的开源大语言模型,无需联网也能使用!

大语言模型(Large Language Model, LLM)是一种人工智能模型,旨在理解和生成人类语言。它们在大量的文本数据上进行训练,可以执行广泛的任务,包括文本总结、翻译、情感分析等等。openEuler通过集成llama.cpp&chatglm-cpp两款应用,降低了用户使用大模型的门槛,为Build openEuler with AI, for AI, by AI打下坚实基础。

openEuler技术委员会主席胡欣慰在OSSUMMIT 2023中的演讲

应用简介

1. llama.cpp是基于C/C++实现的英文大模型接口,支持LLaMa/LLaMa2/Vicuna等开源模型的部署;

2. chatglm-cpp是基于C/C++实现的中文大模型接口,支持ChatGlm-6B/ChatGlm2-6B/Baichuan-13B等开源模型的部署。

应用特性

这两款应用具有以下特性:

1. 基于ggml的C/C++实现;

2. 通过int4/int8等多种量化方式,以及优化KV缓存和并行计算等手段实现高效的CPU推理;

3. 无需 GPU,可只用 CPU 运行。

使用指南

用户可参照下方的使用指南,在openEuler 23.09版本上进行大模型尝鲜体验。

llama.cpp使用指南如下图所示:

e18a53e4-5def-11ee-939d-92fbcf53809c.png

llama.cpp使用指南

正常启动界面如下图所示:

e19e0fe2-5def-11ee-939d-92fbcf53809c.png

LLaMa启动界面

2. chatlm-cpp使用指南如下图所示:

e1b596e4-5def-11ee-939d-92fbcf53809c.png

chatlm-cpp使用指南

正常启动界面如下图所示:

e1dda59e-5def-11ee-939d-92fbcf53809c.png

ChatGLM启动界面

规格说明

这两款应用都可以支持在CPU级别的机器上进行大模型的部署和推理,但是模型推理速度对硬件仍有一定的要求,硬件配置过低可能会导致推理速度过慢,降低使用效率。

以下是模型推理速度的测试数据表格,可作为不同机器配置下推理速度的参考。

表格中Q4_0,Q4_1,Q5_0,Q5_1代表模型的量化精度;ms/token代表模型的推理速度,含义为每个token推理耗费的毫秒数,该值越小推理速度越快;

e1f9e1aa-5def-11ee-939d-92fbcf53809c.png

表1 LLaMa-7B测试表格

e2079b10-5def-11ee-939d-92fbcf53809c.png

表2 ChatGLM-6B测试表格

欢迎用户下载体验,玩转开源大模型,近距离感受AI带来的技术革新!

感谢LLaMa、ChatGLM等提供开源大模型等相关技术,感谢开源项目llama.cpp&chatglm-cpp提供模型轻量化部署等相关技术。

审核编辑:汤梓红
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 人工智能
    +关注

    关注

    1813

    文章

    49734

    浏览量

    261478
  • C++
    C++
    +关注

    关注

    22

    文章

    2122

    浏览量

    76706
  • openEuler
    +关注

    关注

    2

    文章

    335

    浏览量

    6665
  • 大模型
    +关注

    关注

    2

    文章

    3440

    浏览量

    4963
  • LLM
    LLM
    +关注

    关注

    1

    文章

    340

    浏览量

    1257

原文标题:手把手带你玩转openEuler | 如何本地部署大模型

文章出处:【微信号:openEulercommunity,微信公众号:openEuler】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    ElfBoard技术实战|ELF 2开发板本地部署DeepSeek大模型的完整指南

    ELF 2开发板本地部署DeepSeek大模型的完整指南
    的头像 发表于 05-16 11:13 2284次阅读
    ElfBoard技术实战|ELF 2开发板<b class='flag-5'>本地</b><b class='flag-5'>部署</b>DeepSeek大<b class='flag-5'>模型</b>的完整指南

    用Ollama轻松搞定Llama 3.2 Vision模型本地部署

    模型
    jf_23871869
    发布于 :2024年11月18日 19:40:10

    部署基于嵌入的机器学习模型

    1、如何在生产中部署基于嵌入的机器学习模型  由于最近大量的研究,机器学习模型的性能在过去几年里有了显著的提高。虽然这些改进的模型开辟了新的可能性,但是它们只有在可以
    发表于 11-02 15:09

    本地化ChatGPT?Firefly推出基于BM1684X的大语言模型本地部署方案

    API的方式来应用,很难本地部署。随着大模型适用领域的扩展,大模型登陆边缘设备的需求凸显,越来越多的行业需要把大语言模型应用在专业的领域上
    的头像 发表于 09-09 08:02 2442次阅读
    <b class='flag-5'>本地</b>化ChatGPT?Firefly推出基于BM1684X的大语言<b class='flag-5'>模型</b><b class='flag-5'>本地</b><b class='flag-5'>部署</b>方案

    AI PC风潮来临,2027年达到81%,成为PC市场主流

    结合联想联合IDC发布的首个AI PC产业白皮书,我们了解到AI PC不仅仅是传统硬件,更是涵盖了AI模型及应用的综合性设备。AI PC具备本地部署的大模型和个人
    的头像 发表于 12-13 09:38 955次阅读

    源2.0适配FastChat框架,企业快速本地部署模型对话平台

    北京2024年2月28日 /美通社/ -- 近日,浪潮信息Yuan2.0大模型与FastChat框架完成全面适配,推出"企业快速本地部署模型对话平台"方案。该方案主要面向金融、法律
    的头像 发表于 02-29 09:57 1602次阅读
    源2.0适配FastChat框架,企业快速<b class='flag-5'>本地</b>化<b class='flag-5'>部署</b>大<b class='flag-5'>模型</b>对话平台

    llm模型本地部署有用吗

    ,将这些模型部署本地环境可能会带来一些挑战和优势。 1. LLM模型概述 大型语言模型(LLM)通常是基于深度学习的神经网络
    的头像 发表于 07-09 10:14 1665次阅读

    用Ollama轻松搞定Llama 3.2 Vision模型本地部署

    Ollama 是一个开源的大语言模型服务工具,它的核心目的是简化大语言模型(LLMs)的本地部署和运行过程,请参考《Gemma 2+Ollama在算力魔方上帮你在LeetCode解题》
    的头像 发表于 11-23 17:22 4444次阅读
    用Ollama轻松搞定Llama 3.2 Vision<b class='flag-5'>模型</b><b class='flag-5'>本地</b><b class='flag-5'>部署</b>

    华为ModelEngine助力DeepSeek全系列本地部署

    自然语言处理、图像识别等方面具有显著优势。通过ModelEngine AI平台的本地部署与优化,这些模型能够更高效地运行在各种设备上,从而加速AI应用的开发和部署进程。 华为此次的举措
    的头像 发表于 02-07 10:27 1094次阅读

    DeepSeek R1模型本地部署与产品接入实操

    针对VS680/SL1680系列大算力芯片,我们的研发团队正在研究将蒸馏后的轻量级DeepSeek模型(DeepSeek-R1-Distill-Qwen-1.5B)部署到SOC本地,以便应用于相关
    的头像 发表于 04-19 16:32 599次阅读
    DeepSeek R1<b class='flag-5'>模型</b><b class='flag-5'>本地</b><b class='flag-5'>部署</b>与产品接入实操

    华为云发布DeepSeek本地部署方案

    华为云正式推出基于华为云Stack混合云的DeepSeek本地部署方案。
    的头像 发表于 02-18 10:05 1421次阅读

    曙光顺利完成DeepSeek大模型本地化多点私有部署

    计算中心等政务云服务商,依托本地政务云资源池,顺利完成DeepSeek大模型本地化多点私有部署,并打造出数字人“抚小智”。抚州市还计划将DeepSeek大
    的头像 发表于 02-22 14:16 1102次阅读

    行芯完成DeepSeek-R1大模型本地部署

    近日,行芯正式宣布完成 DeepSeek-R1 大模型本地部署,实现在多场景、多产品中应用。解锁“芯”玩法,开启“芯”未来!
    的头像 发表于 02-24 15:17 1142次阅读

    博实结完成DeepSeek大模型本地部署

    近日,公司完成DeepSeek R1 671B大模型本地部署。通过构建自主可控的AI基础设施,公司同步实现研发智能升级、研发成本重构、数据安全闭环与应用场景突破,为产业智能化赋能。
    的头像 发表于 03-19 16:31 1017次阅读

    如何本地部署NVIDIA Cosmos Reason-1-7B模型

    下一步行动。本文将一步步带你在本地服务器上完成该模型部署,并搭建一个直观的 Web 交互界面,亲身体验前沿 AI 的“思考”过程。
    的头像 发表于 07-09 10:17 558次阅读