0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

100%在树莓派上执行的LLM项目

jf_cVC5iyAO 来源:易心Microbit编程 2024-02-29 16:29 次阅读

ChatGPT的人性口语化回复相信许多人已体验过,也因此掀起一波大型语言模型(Large Language Model, LLM)热潮,LLM即ChatGPT背后的主运作技术,但LLM运作需要庞大运算力,因此目前多是在云端(Cloud)上执行。

然而在云端执行也有若干缺点,一是Internet断线时无法使用;二是或多或少会泄漏个资隐私;三是上传的话语内容会被审查,但审查标准难以捉摸,且已有诸多矫枉过正的案例;四是因为模型已放在云端与人共享,也可能已被他人误导,俗称模型被教坏了。

所以有些人也希望LLM能在本地端(Local)、本机端执行,如此就不怕断线、泄漏隐私、内容审查、误导等缺点。但要能在本地端执行,其LLM就不能太大,目前已经有诸多信息技术专家提出各种尝试,期望能将云端的LLM轻量化、减肥减肥,以便能在运算力有限的本机端执行。

全世界最简单的类GPT语音助理

对此已有创客发起项目,项目名就叫World’s Easiest GPT-like Voice Assistant,即世界上最简单的类GPT语音助理,以此实现完全在本机端执行的GPT语音服务,不需要任何Internet联机。

至于具体技术作法,首先是找一片树莓派单板计算机,例如RPi 4,然后装上麦克风与喇叭,成为语音互动对话的输入输出,而后安装Whisper这套软件,可以将麦克风接收到的语音转成文字,文字喂给LLM。

LLM接收输入后进行推论处理,处理后的结果以文字输出,输出的文字则透过另一个安装软件进行转化,即eSpeak,把文字转成语音后,再透过喇叭发声回复。

TinyLlama-1.1B模型来实现类GPT语音助理项目

麦克风与喇叭只是末梢,重点是在LLM,哪来的轻量型、本机端执行的LLM?答案是llamafile项目,这个项目将LLM打包成单一个档案,如此可方便地分发(分发distribute,通俗而言指可以轻易地下载文件、传递分享档案)与执行,项目发起者运用llamafile项目中的TinyLlama-1.1B模型来实现类GPT语音助理。

b27941ae-d6db-11ee-a297-92fbcf53809c.png

图3 llamafile项目官网画面(图片来源:GitHub)

TinyLlama-1.1B确实是一个娇小的LLM,以GPT-3而言就有175B,B即Billion指的是10亿,LLM的大小通常以参数数目为准,1,750亿个参数的LLM已相当庞大,需要对应强大的运算力才能顺畅执行。

其他庞大的LLM还有MT-NLG,有5,300亿个参数,或5,400亿个的PaLM等,都难以下放到本机端执行,本机端很难有对应强大的运算力来跑模型。而TinyLlama-1.1B顾名思义只有11亿个参数,参数大大减少下,本机端是有足够运算力执行该模型。

b29b6400-d6db-11ee-a297-92fbcf53809c.png

图4 llamafile项目提供多种预训练模型,目前以TinyLlama-1.1B最小,仅760MB(图片来源:GitHub)

当然,上述所言均是预训练模型(Pre-Train Model),或近期常称为基础模型(Foundation Model, FM),后续还是可以依据个人需要再行训练与调整,以便有更精准、更切合需求的推论结果。

这个类GPT语音助理项目完成上述后,实际测试的结果是,多数的发话询问后需要15秒左右的时间才能回复,复杂的询问则要更久的时间。有人可以等或觉得这时间还可以,若觉得太慢或许可以改用运算力更强的RPi 5单板计算机,可能可以快一点。

值得注意的是,这个项目不是用语音关键词(如Hey! Siri或OK! Google)来唤醒助理,而是设置一个按钮,按下去后才让树莓派开始接收语音询问。

另外,这整个项目用的都是开放源代码及免授权费的软件与模型,所以实现成本大概只有单板计算机、喇叭、麦克风、按钮等硬件而已。

其他技术细节包含llamafile与Raspberry Pi OS不兼容,所以在树莓派上是改安装Ubuntu Linux,更具体而言是64位的Ubuntu Server 22.04.3 LTS。另外,当然也要安装Python才能操控树莓派的GPIO接脚,从而能读取按钮状态(是否被按下)。

小结

最后,这肯定不是第一个也不是最后一个LLM本地端化的尝试,各种尝试正前仆后继地进行着,有的是提供压缩工具将原本肥大的LLM加以缩小,有的干脆是原生训练出轻量的LLM,现阶段可谓是百家争鸣。

而笔者个人的看法,1.1B的LLM已经很小,或许未来可以更小,但现阶段可能改用更强的硬件会更务实,例如使用有GPU的桌面计算机,或给树莓派加装AI硬件加速器等,以便让类GPT语音助理更快速响应。




审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • GPIO
    +关注

    关注

    16

    文章

    1135

    浏览量

    50578
  • 硬件加速器
    +关注

    关注

    0

    文章

    38

    浏览量

    12637
  • 树莓派
    +关注

    关注

    113

    文章

    1639

    浏览量

    104746
  • LLM
    LLM
    +关注

    关注

    0

    文章

    202

    浏览量

    233

原文标题:不怕脱机!100%在树莓派上执行的LLM项目

文章出处:【微信号:易心Microbit编程,微信公众号:易心Microbit编程】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    SBCFormer首次在树莓派4B上以1fps处理取得80.0%精度

    计算机视觉在不同领域解决已成为解决实际问题的常用方法,如智慧农牧管理。这类场景并不需要每秒处理许多帧,此时树莓派这类单板主机就派上了用场。
    的头像 发表于 11-09 12:32 570次阅读
    SBCFormer首次在<b class='flag-5'>树莓</b>派4B上以1fps处理取得80.0%精度

    基于树莓派的机器人设计方案

    以非常低的外形安装在树莓派的顶部。 注意:如果你打算在树莓派上安装散热器,请使用非常低调的散热器以避免 CRICKIT 帽子短路。
    发表于 10-19 12:31 331次阅读
    基于<b class='flag-5'>树莓</b>派的机器人设计方案

    对比解码在LLM上的应用

    为了改进LLM的推理能力,University of California联合Meta AI实验室提出将Contrastive Decoding应用于多种任务的LLM方法。实验表明,所提方法能有效改进LLM的推理能力。让我们走进
    发表于 09-21 11:37 371次阅读
    对比解码在<b class='flag-5'>LLM</b>上的应用

    如何在树莓派上面安装Windows

    早期,想要在树莓派上面安装Windows一直是个比较麻烦的事情,下载系统镜像,烧录、还有一系列复杂的配置。
    的头像 发表于 09-12 09:54 987次阅读
    如何在<b class='flag-5'>树莓</b><b class='flag-5'>派上</b>面安装Windows

    MLC-LLM的编译部署流程

    MLC-LLM部署在各种硬件平台的需求,然后我就开始了解MLC-LLM的编译部署流程和RWKV World模型相比于MLC-LLM已经支持的Raven系列模型的特殊之处。 MLC-LLM
    的头像 发表于 09-04 09:22 1799次阅读
    MLC-<b class='flag-5'>LLM</b>的编译部署流程

    有移植树莓派到飞腾派的教程吗

    公司基于树莓派开发板做的产品 希望移植到飞腾派上,请大佬指导
    发表于 08-28 10:24

    如何用PyArmNN加速树莓派上的ML推理

    NN推理引擎构建一个示例应用程序,将图像分类为火或非火。 本指南使用Raspberry Pi 3或4设备。树莓派设备是由Arm CPU驱动的 霓虹灯的架构。Neon是针对Arm处理器的优化架构扩展
    发表于 08-02 15:40

    树莓派上新,福利来袭!

    工程师专区上新啦!   直击底价! 树莓派4B ,新客包邮! 工程师发烧友的福音, 新用户专享优惠价,还免费送电子发烧友VIP月卡。 ▼树莓派4B 4G开发板, 领满1 00减20优惠券 券后价格
    的头像 发表于 08-02 08:41 340次阅读
    <b class='flag-5'>树莓</b><b class='flag-5'>派上</b>新,福利来袭!

    LLM的长度外推浅谈

    苏神最早提出的扩展LLM的context方法,基于bayes启发得到的公式
    的头像 发表于 07-28 17:37 1559次阅读
    <b class='flag-5'>LLM</b>的长度外推浅谈

    最新综述!当大型语言模型(LLM)遇上知识图谱:两大技术优势互补

    LLM 是黑箱模型,缺乏可解释性,因此备受批评。LLM 通过参数隐含地表示知识。因此,我们难以解释和验证 LLM 获得的知识。此外,LLM 是通过概率模型
    的头像 发表于 07-10 11:35 1465次阅读
    最新综述!当大型语言模型(<b class='flag-5'>LLM</b>)遇上知识图谱:两大技术优势互补

    树莓派监视器开源项目

    电子发烧友网站提供《树莓派监视器开源项目.zip》资料免费下载
    发表于 06-14 11:33 6次下载
    <b class='flag-5'>树莓</b>派监视器开源<b class='flag-5'>项目</b>

    LLM在各种情感分析任务中的表现如何

      最近几年,GPT-3、PaLM和GPT-4等LLM刷爆了各种NLP任务,特别是在zero-shot和few-shot方面表现出它们强大的性能。因此,情感分析(SA)领域也必然少不了LLM的影子
    的头像 发表于 05-29 17:24 1515次阅读
    <b class='flag-5'>LLM</b>在各种情感分析任务中的表现如何

    虹科工业树莓派应用小技巧

    在应用虹科工业树莓派进行项目开发的过程中,我们会应用到各种功能,部分功能看似不起眼,但是在实际应用开发过程中却非常重要。接下来虹科分享几个工业树莓派在应用过程中经常会遇到的几个问题,并分享解决方案,帮助大家快速上手使用虹科工业
    的头像 发表于 05-24 17:33 441次阅读
    虹科工业<b class='flag-5'>树莓</b>派应用小技巧

    如何利用LLM做多模态任务?

    大型语言模型LLM(Large Language Model)具有很强的通用知识理解以及较强的逻辑推理能力,但其只能处理文本数据。虽然已经发布的GPT4具备图片理解能力,但目前还未开放多模态输入接口
    的头像 发表于 05-22 15:57 517次阅读
    如何利用<b class='flag-5'>LLM</b>做多模态任务?

    LLM性能的主要因素

    现在是2023年5月,截止目前,网络上已经开源了众多的LLM,如何用较低的成本,判断LLM的基础性能,选到适合自己任务的LLM,成为一个关键。 本文会涉及以下几个问题: 影响LLM性能
    的头像 发表于 05-22 15:26 1224次阅读
    <b class='flag-5'>LLM</b>性能的主要因素