0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

部署开源 ChatGPT/LLMs 聊天应用 LobeChat

jf_94205927 来源:jf_94205927 作者:jf_94205927 2024-12-30 14:55 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

一、Flexus 云服务器 X 实例介绍

在数字化时代,云服务器已成为企业发展的重要基石。它提供灵活的资源扩展和高效的计算能力,帮助企业降低成本、提升效率。无论是数据存储还是业务创新,云服务器都能满足多样化需求,是各行业不可或缺的技术支持。

华为云下一代云服务器 Flexus X 实例焕新上线,新产品首创大模型加持,智能全域调度;X-Turbo 加速,常见应用性能最高可达业界同规格 6 倍,可搭载多版本主机安全服务,历经极度严苛的网络安全挑战,全面保障主机整体安全,覆盖大多数通用工作负载场景。

wKgZO2dyQ_CAP0QYAAE3BYFqDzM182.png

Flexus X 实例通过和其他服务组合,具备计算、镜像安装、网络、存储、安全等能力,您可根据业务需要灵活配置各资源。

wKgZPGdyQ_CAMWwjAAvyr-51fqA542.gif

本次测评使用的规格是:4 核 12G-100G-3M 规格的 Flexus X 实例基础模式

wKgZO2dyQ_CALcGAAADbGgbRz8w617.png

二、Flexus 云服务器 X 实例配置

2.1 重置密码

购买服务器的时候可以提前设置用户名和密码,因为我这里跳过了,所以购买完成后需要重置密码,会短信或站内消息通过你的云服务器信息,重点是公网 IP 地址和用户名,首先打开你的服务器控制台,选择重置密码

wKgZPGdyQ_CAct7RAAEht_ZSD6I817.png

勾选自动重启,点击确定即可

wKgZO2dyQ_GAMoEiAAEm9L_LepM206.png

2.2 服务器连接

华为云服务器提供了多种链接方式,如使用控制台提供的 VNC 方式登录、使用 Linux/Mac OS 系统主机登录 Linux 弹性云服务器(即 ssh root@192.168.48.78 命令)或者使用 Putty、Xshell 等工具登录 Linux 弹性云服务器。

我个人习惯使用 MobaXterm这款软件,添加 SSH 连接,输出公网 IP、用户名和端口(默认 22),连接即可。

wKgZPGdyQ_GAEqK2AAD9ADt1Woc913.png

2.3 安全组配置

安全组是一个逻辑上的分组,为同一个 VPC 内的云服务器提供访问策略。用户可以在安全组中定义各种访问规则,当云服务器加入该安全组后,即受到这些访问规则的保护。

系统为每个网卡默认创建一个默认安全组,默认安全组的规则是对出方向上的数据报文全部放行,入方向访问受限。您可以使用默认安全组,也可以根据需要创建自定义的安全组。

wKgZO2dyQ_GAFpRcAAEfDVjdzPY993.png

主要需要填写优先级(默认填 1 即可)、协议端口(协议一般为 TCP 或 UDP,端口一般选择你项目需要暴露的端口即可),描述(选填,一般会填写此端口的用途以免忘记了),其他默认点击确定即可。安全组配置主要是暴露端口可以给外网访问。

wKgZPGdyQ_KAYI9PAAE7Ww8851Q988.png

如果还不清楚可以参考文档:安全组配置示例

2.4 Docker 环境搭建

本次服务器环境是 ubuntu 系统镜像,需要自己安装 docker 环境

使用 apt-get 命令安装 docker 及其配置

#安装必要工具包 $ sudo apt-get install apt-transport-https ca-certificates curl gnupg-agent software-properties-common#添加 Docker GPG 秘钥 $ sudo curl -fsSL https://mirrors.ustc.edu.cn/docker-ce/linux/ubuntu/gpg | sudo apt-key add -#配置仓库源 $ sudo add-apt-repository "deb [arch=amd64] https://mirrors.ustc.edu.cn/docker-ce/linux/ubuntu $(lsb_release -cs) stable" #更新 apt 包索引 $ sudo apt-get update#安装 docker$ sudo apt-get install docker-ce docker-ce-cli containerd.io#添加 docker 镜像源 $ sudo vim /etc/docker/daemon.json{"registry-mirrors": ["https://ustc-edu-cn.mirror.aliyuncs.com/","https://docker.mirrors.ustc.edu.cn","https://docker.nju.edu.cn","https://ccr.ccs.tencentyun.com/","https://docker.m.daocloud.io/","https://dockerproxy.com",]}#重启 $ sudo systemctl daemon-reload$ sudo systemctl restart docker

测试 docker 安装是否成功

root@flexusx-c6b3:~# docker -vDocker version 27.2.0, build 3ab4256```

检查 docker 服务状态

root@flexusx-c6b3:~# systemctl status docker* docker.service - Docker Application Container EngineLoaded: loaded (/lib/systemd/system/docker.service; enabled; vendor preset: enabled)Active: active (running) since Fri 2024-08-30 15:53:45 CST; 17h agoTriggeredBy: * docker.socketDocs: https://docs.docker.comMain PID: 24912 (dockerd)Tasks: 13Memory: 24.7MCPU: 3.778sCGroup: /system.slice/docker.service`-24912 /usr/bin/dockerd -H fd:// --containerd=/run/containerd/containerd.sock

检查 docker compose 版本

root@flexusx-c6b3:~# docker compose versionDocker Compose version v2.29.2

三、Flexus 云服务器 X 实例部署 LobeChat

3.1 LobeChat 介绍

LobeChat 是现代化设计的开源 ChatGPT/LLMs 聊天应用与开发框架,支持语音合成、多模态、可扩展的(function call)插件系统,一键免费拥有你自己的 ChatGPT/Gemini/Claude/Ollama 应用。

•文件上传/知识库 LobeChat 支持文件上传与知识库功能,你可以上传文件、图片、音频、视频等多种类型的文件,以及创建知识库,方便用户管理和查找文件。同时在对话中使用文件和知识库功能,实现更加丰富的对话体验。

•多模型服务商支持在 LobeChat 的不断发展过程中,我们深刻理解到在提供 AI 会话服务时模型服务商的多样性对于满足社区需求的重要性。因此,我们不再局限于单一的模型服务商,而是拓展了对多种模型服务商的支持,以便为用户提供更为丰富和多样化的会话选择。

•支持本地大语言模型(LLM)为了满足特定用户的需求,LobeChat 还基于 Ollama 支持了本地模型的使用,让用户能够更灵活地使用自己的或第三方的模型。

•模型视觉识别(Model Visual)LobeChat 已经支持 OpenAI 最新的 gpt-4-vision 支持视觉识别的模型,这是一个具备视觉识别能力的多模态应用。 用户可以轻松上传图片或者拖拽图片到对话框中,助手将能够识别图片内容,并在此基础上进行智能对话,构建更智能、更多元化的聊天场景。

•TTS & STT 语音会话 LobeChat 支持文字转语音(Text-to-Speech,TTS)和语音转文字(Speech-to-Text,STT)技术,这使得我们的应用能够将文本信息转化为清晰的语音输出,用户可以像与真人交谈一样与我们的对话助手进行交流。用户可以从多种声音中选择,给助手搭配合适的音源。同时,对于那些倾向于听觉学习或者想要在忙碌中获取信息的用户来说,TTS 提供了一个极佳的解决方案。

•Text to Image 文生图支持最新的文本到图片生成技术,LobeChat 现在能够让用户在与助手对话中直接调用文生图工具进行创作。 通过利用 DALL-E 3、MidJourney 和 Pollinations 等 AI 工具的能力, 助手们现在可以将你的想法转化为图像。同时可以更私密和沉浸式地完成你的创作过程。

wKgZO2dyQ_KAcSTDAALlMaa6prQ463.png

LobeChat 是经过精心设计的界面,具有优雅的外观和流畅的交互效果,支持亮暗色主题,适配移动端。支持 PWA,提供更加接近原生应用的体验。流式响应带来流畅的对话体验,并且支持完整的 Markdown 渲染,包括代码高亮、LaTex 公式、Mermaid 流程图等。使用 我们的 Docker 镜像,只需点击一键部署按钮,即可在 1 分钟内完成部署,无需复杂的配置过程,很适合构建自己 AI 对话应用。

•官网:https://lobechat.com/welcome

•Github:https://github.com/lobehub/lobe-chat

3.2 LobeChat 部署

•创建 docker-compose.yml

version:'3.5'services:lobe-chat:image:lobehub/lobe-chatcontainer_name:lobe-chatrestart:alwaysports: -'3210:3210'environment:OLLAMA_PROXY_URL:http://123.60.144.170:11434/

•ports:映射主机的 3210 端口到容器的 3210 端口

•OLLAMAPROXYURL: Ollama 服务地址

如果将上述代码片段保存在名为 docker-compose.yml 的文件中,则只需从同一文件夹中运行 docker compose up -d即可自动拉取 LobeChat 镜像,并创建并启动一个容器。up表示启动服务,-d表示在后台执行。docker-compose down命令用于停止和清理由 docker-compose up启动的服务。

•启动服务

进入项目目录,执行 docker-compose up -d 启动命令,会自动拉取容器并运行

从 Dockerhub 拉取 LobeChat 镜像,地址:https://hub.docker.com/r/lobehub/lobe-chat

root@flexusx-c6b3:~/lobechat# docker-compose up -dCreating network "lobechat_default" with the default driverPulling lobe-chat (lobehub/lobe-chat:latest)...latest: Pulling from lobehub/lobe-chata2318d6c47ec: Pull complete00e35d36405a: Pull complete225fba03fa1f: Pull complete447f637b003c: Pull completedd1be0639854: Pull complete9db807b569f9: Pull complete7d6120d566fb: Pull completeDigest: sha256:2b1663efad8125c5e428fa371a6b2d324f582d9010bae1a3e526df2b2b11dd3cStatus: Downloaded newer image for lobehub/lobe-chat:latestCreating lobe-chat ... Creating lobe-chat ... done

•配置安全组

在 Flexus 云服务器 X 实例的安全组管理页面,添加入方向规则,接下来我们启动服务需要监听 3210 端口,所以添加安全组为 TCP:3210 协议端口。

wKgZPGdyQ_KAKIq1AAApHCCL03U930.png

•检查容器状态

检查 LobeChat 容器状态,确保容器正常启动

root@flexusx-c6b3:~/lobechat# docker psCONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES1b8d6fa19e28 lobehub/lobe-chat "docker-entrypoint.s…" 2 minutes ago Up About a minute 0.0.0.0:3210->3210/tcp, :::3210->3210/tcp lobe-chat

•访问地址

内网:http://localhost:3210 外网:http://公网 IP:3210

•访问结果

wKgZO2dyQ_KAfYtfAAAvpL_WmME541.png

若出现此页面,则部署 lobechat server 成功。

3.3 LobeChat 使用

应用启动完成后,进入主页面,头像是设置菜单,左侧显示会话、文件、发现模块,左下角有 Github 地址和使用文档链接,

wKgZPGdyQ_OAOwVfAAFWwHEwN5s954.png

点击头像进入设置应用,这里包含通用设置、系统助手、语言模型、语音服务、默认助手,可配置的选项很多,主要是集成其他模型的 API Key

wKgZO2dyQ_OAXECdAADYeeQTNjU721.png

支持超多模型服务商

•AWS Bedrock:集成了 AWS Bedrock 服务,支持了 Claude / LLama2 等模型,提供了强大的自然语言处理能力。

•Google AI (Gemini Pro、Gemini Vision):接入了 Google 的 Gemini 系列模型,包括 Gemini 和 Gemini Pro,以支持更高级的语言理解和生成。

•Anthropic (Claude):接入了 Anthropic 的 Claude 系列模型,包括 Claude 3 和 Claude 2,多模态突破,超长上下文,树立行业新基准。

•ChatGLM:加入了智谱的 ChatGLM 系列模型(GLM-4/GLM-4-vision/GLM-3-turbo),为用户提供了另一种高效的会话模型选择。

•Moonshot AI (月之暗面):集成了 Moonshot 系列模型,这是一家来自中国的创新性 AI 创业公司,旨在提供更深层次的会话理解。

•Together.ai:集成部署了数百种开源模型和向量模型,无需本地部署即可随时访问这些模型。

•01.AI (零一万物):集成了零一万物模型,系列 API 具备较快的推理速度,这不仅缩短了处理时间,同时也保持了出色的模型效果。

•Groq:接入了 Groq 的 AI 模型,高效处理消息序列,生成回应,胜任多轮对话及单次交互任务。

•OpenRouter:其支持包括 Claude 3,Gemma,Mistral,Llama2 和 Cohere 等模型路由,支持智能路由优化,提升使用效率,开放且灵活。

•Minimax:接入了 Minimax 的 AI 模型,包括 MoE 模型 abab6,提供了更多的选择空间。了解更多

•DeepSeek:接入了 DeepSeek 的 AI 模型,包括最新的 DeepSeek-V2,提供兼顾性能与价格的模型。

•Qwen:接入了 Qwen 的 AI 模型,包括最新的 qwen-turbo,qwen-plus 和 qwen-max 等模型。

wKgZPGdyQ_OAOneRAAC2UxQZEzE344.png

我这里配置的是 Ollama 的本地模型服务,填写 Ollama 服务地址,并测试下联通性,通过即可

wKgZO2dyQ_OAKm_bAADZV8GM2Do026.png

选择会话菜单,进入会话界面,和常见的大模型会话界面差不多,左侧列表显示不同的助手,对话框输入消息,可选择模型、图片、知识库、随机性、不限历史消息数、语音输入、函数调用等选项,需要当前模型支持时才可用,否则是置灰状态

wKgZPGdyQ_SAJ4C5AAE54WBTuHw232.png

使用 Ollama llama2 模型测试下效果,貌似中文不太行

wKgZO2dyQ_SAOaPqAAEMNMt9KVc921.png

当前部署模式不支持文件管理,当前部署实例为客户端数据库模式,无法使用文件管理功能

wKgZPGdyQ_WAB40iAADYddSqzVs201.png

发现页展示助手、插件、模型和模型服务商四大分类的内容

wKgZO2dyQ_aABpFWAAHUhzjz9yQ388.png

这里有很多优化好的针对专门需求的助手,当然需要添加 OpenAI API Key,这些助手都是基于 OpenAI 的模型输出的

wKgZPGdyQ_aAZ3PmAAENTIH2wno011.png

丰富的插件市场

wKgZO2dyQ_aAD26CAAHjiKE1Xvg995.png

列表展示超多的模型,按照模型服务商分类展示其旗下的各种模型

wKgZPGdyQ_aAaxD6AAH9NUZzPlg157.png

模型服务商分类,介绍各个模型服务商的信息,

wKgZO2dyQ_eAUyVcAAEQl7JPYrY154.png

点击 OpenAI 查看,会介绍旗下的多个模型及其价格

wKgZPGdyQ_eAJsDgAAGDfD94gk8818.png

下面还有介绍在 LobeChat 中使用 OpenAI 的步骤

wKgZO2dyQ_eAfXlNAAIz7fEjarw906.png

点击配置服务商,直接进入语言模型设置

wKgZPGdyQ_iAQjDzAAFSSVDa97E446.png

LobeChat 打开了对话助手的新世界,在不断优化自身和扩展功能的过程中,LobeChat 努力为用户带来更加智能、灵活、多样化的对话体验。LobeChat 是一个开源、可扩展(函数调用)、高性能的聊天机器人框架,它支持一键免费部署您的私人 ChatGPT/LLM Web 应用程序。作为集成大模型的聊天应用的使用就是这些了,配置模型、使用模型并开启对话,还有更多有趣的设置和功能就需要自行探索了。

四、总结

LobeChat,是一个集成了语音合成、多模态、可扩展插件系统的聊天框架。这一平台最显著的特性之一便是其多模型服务商的支持性,包括 AWS Bedrock、Google AI、Anthropic、ChatGLM 及其他多个全球知名模型服务商。此次使用的 Flexus X 实例配置还是很高的 4 核 12G-100G-3M 规格的基础模式,此项目并不进行大模型的推理过程,而是一个聊天网站,主要通过集成其他大模型服务来输出对话,整体占用的 CPU 和内存都不高,能够很流畅的运行。

华为云服务器正值 828 B2B 企业节,限时促销,性能卓越,安全可靠。现在购买,享受超值优惠,还有专业技术支持,助力企业腾飞。抓紧机会,立即行动!

审核编辑 黄宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 服务器
    +关注

    关注

    13

    文章

    10096

    浏览量

    90904
  • 开源
    +关注

    关注

    3

    文章

    4039

    浏览量

    45579
  • ChatGPT
    +关注

    关注

    31

    文章

    1596

    浏览量

    10077
  • 大模型
    +关注

    关注

    2

    文章

    3451

    浏览量

    4974
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    【VisionFive 2单板计算机试用体验】3、开源大语言模型部署

    , Gemma等开源大模型。当然,一些闭源的(类似chatgpt, gemini)是不支持部署的。如下图: 在端侧部署大模型,个人认为最大的好处:是可以避免因文本或图片上传而造成的信
    发表于 07-19 15:45

    如何在魔搭社区使用TensorRT-LLM加速优化Qwen3系列模型推理部署

    TensorRT-LLM 作为 NVIDIA 专为 LLM 推理部署加速优化的开源库,可帮助开发者快速利用最新 LLM 完成应用原型验证与产品部署
    的头像 发表于 07-04 14:38 1770次阅读

    【幸狐Omni3576边缘计算套件试用体验】DeepSeek 部署及测试

    、RKLLM 库、编译和运行、效果演示等。 简介 介绍了板端部署的 DeepSeek 模型及其部署方案。 DeepSeek DeepSeek 是由杭州深度求索公司自主研发的高性能大语言模型,以其开源、轻量化
    发表于 03-21 19:31

    和安信可Ai-M61模组对话?手搓一个ChatGPT 语音助手 #人工智能 #

    ChatGPT
    jf_31745078
    发布于 :2025年03月12日 15:56:59

    DeepSeek冲击(含本地化部署实践)

    作者:京东零售 姜海 DeepSeek无疑是春节档最火爆的话题,上线不足一月,其全球累计下载量已达4000万,反超ChatGPT成为全球增长最快的AI应用,并且完全开源。那么究竟DeepSeek有
    的头像 发表于 02-23 17:10 1112次阅读
    DeepSeek冲击(含本地化<b class='flag-5'>部署</b>实践)

    OpenAI尝试减少对ChatGPT的审查

    ,这一政策的实施将使得ChatGPT能够回答更多的问题,提供更多的视角。在过去,由于审查机制的存在,ChatGPT对于一些敏感或争议性话题往往保持沉默,不愿过多涉及。然而,随着新政策的推行,ChatGPT将逐渐减少对这类话题的回
    的头像 发表于 02-17 14:42 3639次阅读

    云服务器 Flexus X 实例:RAG 开源项目 FastGPT 部署,玩转大模型

    本篇文章主要通过 Flexus 云服务器 X 实例 部署 RAG 开源项目 FastGPT,通过 FastGPT 可以使用大模型生成用户需要的内容。 Flexus 云服务器 X 实例具有柔性算力,六
    的头像 发表于 01-08 11:49 1981次阅读
    云服务器 Flexus X 实例:RAG <b class='flag-5'>开源</b>项目 FastGPT <b class='flag-5'>部署</b>,玩转大模型

    华为云 Flexus 云服务器 X 实例之 openEuler 系统下部署 Tailchat 开源聊天系统

    前言 在华为云 Flexus 云服务器 X 实例的支持下,本次实践将展示如何在先进的 openEuler 系统环境中部署 TailChat 开源聊天系统。作为面向中小企业和开发者的柔性算力云服务器
    的头像 发表于 01-08 11:40 667次阅读
    华为云 Flexus 云服务器 X 实例之 openEuler 系统下<b class='flag-5'>部署</b> Tailchat <b class='flag-5'>开源</b><b class='flag-5'>聊天</b>系统

    HarmonyOS NEXT 原生应用开发:社交聊天对话过程实现

    一、实现思路 本DEMO旨在展示如何在HarmonyOS NEXT平台上,利用ArkTS开发语言构建一个简易的社交聊天对话界面。用户可以在此界面上查看聊天记录,并发送新的消息。此示例中,聊天
    发表于 01-07 10:55

    检索增强型生成(RAG)系统详解

      近年来,人工智能取得了巨大的飞跃,这主要归功于大型语言模型(LLMs)。LLMs非常擅长理解和生成类似人类的文本,它们促成了多种新工具的创建,比如先进的聊天机器人和AI作家。 尽管LLMs
    的头像 发表于 12-24 10:44 1648次阅读
    检索增强型生成(RAG)系统详解

    ChatGPT新增实时搜索与高级语音功能

    在OpenAI的第八天技术分享直播中,ChatGPT的搜索功能迎来了重大更新。此次更新不仅丰富了ChatGPT的功能体系,更提升了其实用性和竞争力。 新增的实时搜索功能,是此次更新的亮点之一
    的头像 发表于 12-17 14:08 924次阅读

    OpenAI就ChatGPT宕机事件致歉

    近日,全球领先的AI研究机构OpenAI遭遇了一次重大的服务中断事件,其备受欢迎的聊天机器人ChatGPT在全球范围内出现了宕机现象。与此同时,Sora及相关的API服务也受到了波及,无法正常运作
    的头像 发表于 12-16 09:47 1099次阅读

    ChatGPT短暂“罢工”,云服务器还能用吗?

    日,备受欢迎的AI聊天机器人ChatGPT突然遭遇了一次短暂的服务中断,这让不少用户心生疑虑:云服务器,这个支撑起无数互联网应用的强大后盾,究竟还靠谱吗?
    的头像 发表于 12-12 11:45 607次阅读

    Cloudera推出RAG Studio,助力企业快速部署聊天机器人

    企业在利用实时企业数据部署RAG聊天机器人方面迈出了重要一步,且整个过程仅需几分钟。 RAG Studio是一款无代码解决方案,它极大地简化了非技术用户使用AI应用的难度。通过这一平台,业务团队
    的头像 发表于 12-12 11:06 1031次阅读