0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

源2.0适配FastChat框架,企业快速本地化部署大模型对话平台

全球TMT 来源:全球TMT 作者:全球TMT 2024-02-29 09:57 次阅读

北京2024年2月28日/美通社/ -- 近日,浪潮信息Yuan2.0大模型与FastChat框架完成全面适配,推出"企业快速本地化部署大模型对话平台"方案。该方案主要面向金融、法律、教育等领域,且有数据隐私保护需求的本地化部署场景。全面开放的对话模板功能,用户可基于FastChat平台,快速对不同参数规模的Yuan2.0基础模型进行训练、评估和应用,将Yuan2.0系列基础大模型部署于私有环境,快速部署企业级大模型应用。值得一提的是,FastChat提供标准API格式(OpenAI标准)的服务,因此,原本采用OpenAI API接口所构建的系列应用,用户无需修改代码,仅需更新API服务的接口地址,即可灵活、丝滑地切换为本地部署的Yuan2.0千亿参数模型。

wKgZomXfNLWAOYk6AAEJDzMrT0I739.jpg


当前,各类模型迭代更新飞快。简单且易用的对话模型框架成为了开发者解决本地化构建对话系统的一大利器。标准一致的工具和环境,可有效实现后端模型的平滑迁移,开发者能够在不改变原有代码的情况下,轻松适应新的模型和技术要求。基于现成的框架和工具,依托繁荣的社区,进而有效地解决了技术门槛高、开发流程复杂、知识共享困难、部署维护成本高以及数据安全等一系列难题,不仅可提高开发效率,也可为开发者带来了更多的便利和可能性。

FastChat是加州大学伯克利分校LM-SYS发布的创新型开源项目,Github Star数超31k。旨在为研究和开发人员提供一个易于使用、可扩展的平台,用于训练、服务和评估基于LLM的聊天机器人,大幅降低开发人员构建问答系统的门槛,实现知识管理平台的轻松部署与高效维护。其核心功能包括提供最先进的模型权重、训练代码和评估代码(例如Yuan2.0、Vicuna、FastChat-T5)以及带有Web UI和兼容OpenAI RESTful API的分布式多模型服务系统。Yuan2.0系列基础大模型作为首个全面开源的千亿参数模型,在编程、推理、逻辑等方面表现优异。通过Fastchat平台,企业级用户可一键启动标准API(OpenAI标准)服务,满足企业需求的定制化应用开发,轻松对接口进行封装,高效且安全地开发智能对话系统。在保证数据私密性和安全性的同时,极大地提升了模型本地化部署的效率、应用性能及稳定性。

基于FastChat使用Yuan2.0大模型,Step by Step实操教程

* 如下步骤以Yuan2-2B-Janus-hf模型为例:

Step 1: 安装FastChat

FastChat官方提供的两种安装方式--pip安装与源码安装

pip安装

官方提供的采用pip安装命令为pip3,建议大家采用python3.x,避免出现依赖包冲突。

pip3 install "fschat[model_worker,webui]"

源码安装

先从github上下载源码,在FastChat目录下执行如下命令:

git clonehttps://github.com/lm-sys/FastChat.git
cd FastChat
pip3 install --upgrade pip && pip3 install -e ".[model_worker,webui]"

Step 2 : 下载Yuan2.0系列基础大模型

模型 序列长度 下载链接
Yuan2.0-102B-hf 4K https://www.modelscope.cn/models/YuanLLM/Yuan2.0-102B-hf/summary
Yuan2.0-51B-hf 4K https://www.modelscope.cn/models/YuanLLM/Yuan2.0-51B-hf/summary
Yuan2.0-2B-hf 8K https://www.modelscope.cn/models/YuanLLM/Yuan2.0-2B-hf/summary
Yuan2-2B-Janus-hf 8K https://www.modelscope.cn/models/YuanLLM/Yuan2-2B-Janus-hf/summary

Step 3:启动FastChat推理服务

采用如下命令启动FastChat服务:

python3-m fastchat.serve.cli --model-path /mnt/models/Yuan2-2B-Janus-hf

至此,基于Yuan2.0基础大模型的FastChat推理服务就已启动完成了!服务启动后会进入客户端页面。客户端交互实例如下:

——————————————————

user: 你好。
assistant: 您好,有什么可以帮助您的吗?
user: 介绍一下北京。
assistant: 北京是中国的首都,位于华北平原中部。它是一个历史悠久、文化灿烂的城市,也是现代化与传统文化相结合的代表之一。北京拥有着丰富的历史遗产和文化景观,如紫禁城、天安门广场、颐和园、长城等。此外,北京还有许多现代建筑和创意艺术作品,如798艺术区、木鱼巷等。
user: 给我写一个快速排序算法
assistant: 快速排序是一种基于比较的排序算法,其时间复杂度为O(nlogn)。具体来说,快速排序通过选取一个基准元素,将数组分为两部分,使得左边的元素都小于基准元素,右边的元素都大于基准元素,然后递归地对左右两部分进行排序。
以下是一个简单的快速排序算法实现:
```python
def quick_sort(arr):
if len(arr) <= 1:
return arr
pivot = arr[len(arr) // 2]
left = [x for x in arr if x < pivot]
middle = [x for x in arr if x == pivot]
right = [x for x in arr if x > pivot]
return quick_sort(left) + middle + quick_sort(right)
```
这个算法的优点是它通常能够很好地处理小规模数据,而且它具有很好的可扩展性,可以轻松地处理不同规模的数据。但是,它也有一些缺点,例如它需要额外的空间来存储中间结果,并且它的最坏时间复杂度为O(n^2)。因此,在实际应用中,我们通常使用更高效的排序算法,如归并排序、插入排序等。
user: 能提供一些测试用例吗
assistant: 当然可以。以下是一些常见的测试用例:
```python
def test_quick_sort():
assert quick_sort([]) == []
assert quick_sort([1]) == [1]
assert quick_sort([3, 2, 1]) == [1, 2, 3]
assert quick_sort([5, 8, 2, 1, 6, 3, 4, 7, 9]) == [1, 2, 3, 4, 5, 6, 7, 8, 9]
assert quick_sort([9, 8, 7, 6, 5, 4, 3, 2, 1]) == [1, 2, 3, 4, 5, 6, 7, 8, 9]
```
这些测试用例包括了各种不同规模和不同顺序的输入数据。
user: 很好,你知道它的时间复杂度吗?
assistant: 是的,我知道它的时间复杂度为O(nlogn)。
user:

————————————————

同时,也可选用WebUI,需要先启动fastchat的controller和worker,在命令行输入如下命令即可启动:

python3 -m fastchat.serve.controller
python3 -m fastchat.serve.model_worker --model-path /mnt/models/Yuan2-2B-Janus-hf
python3-mfastchat.serve.gradio_web_server

启动完成后,默认会弹出WebUI页面,选择Yuan2.0模板即可与Yuan2.0大模型进行对话。以下为使用WebUI与Yuan2.0进行交互的示例:

代码实现

wKgaomXfNLaAToybAADRl_iTOTA579.jpg


测试用例

wKgZomXfNLaAZ2hrAADTArqP9lI354.jpg


上下文测试

wKgaomXfNLeAJX7EAACc8yBAqqw049.jpg


更多更新,请关注Github "源"交流专区,
前往GitHub搜索"IEIT-Yuan/Yuan-2.0"


审核编辑 黄宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 大模型
    +关注

    关注

    2

    文章

    1527

    浏览量

    1116
收藏 人收藏

    评论

    相关推荐

    浪潮信息发布企业模型开发平台“元脑企智”EPAI

    应用提供高效、易用、安全的端到端开发平台,提供数据准备、模型训练、知识检索、应用框架等系列工具,支持调度多元算力和多模算法,帮助企业高效开发部署
    的头像 发表于 04-18 10:12 110次阅读
    浪潮信息发布<b class='flag-5'>企业</b>大<b class='flag-5'>模型</b>开发<b class='flag-5'>平台</b>“元脑企智”EPAI

    英特尔集成显卡+ChatGLM3大语言模型企业本地AI知识库部署

    在当今的企业环境中,信息的快速获取和处理对于企业的成功至关重要。为了满足这一需求,我们可以将RAG技术与企业本地知识库相结合,以提供实时的、
    的头像 发表于 03-29 11:07 256次阅读
    英特尔集成显卡+ChatGLM3大语言<b class='flag-5'>模型</b>的<b class='flag-5'>企业</b><b class='flag-5'>本地</b>AI知识库<b class='flag-5'>部署</b>

    浪潮信息与英特尔合作推出一种大模型效率工具“YuanChat”

    3月26日,浪潮信息与英特尔正式宣布,浪潮信息“源2.0系列基础大模型”已和最新的英特尔® 酷睿™ Ultra处理器平台完成适配本地推理速
    的头像 发表于 03-27 13:50 205次阅读
    浪潮信息与英特尔合作推出一种大<b class='flag-5'>模型</b>效率工具“YuanChat”

    PODsys:大模型AI算力平台部署的开源“神器”

    的大模型研发工具和框架。在算力平台部署过程中,大模型研发机构常常需要面对一系列的问题:大模型
    的头像 发表于 11-08 09:17 462次阅读
    PODsys:大<b class='flag-5'>模型</b>AI算力<b class='flag-5'>平台</b><b class='flag-5'>部署</b>的开源“神器”

    如何本地部署模型

    近期,openEuler A-Tune SIG在openEuler 23.09版本引入llama.cpp&chatglm-cpp两款应用,以支持用户在本地部署和使用免费的开源大语言模型,无需联网也能使用!
    的头像 发表于 10-18 11:48 1677次阅读
    如何<b class='flag-5'>本地</b><b class='flag-5'>部署</b>大<b class='flag-5'>模型</b>

    本地化ChatGPT?Firefly推出基于BM1684X的大语言模型本地部署方案

    API的方式来应用,很难本地化部署。随着大模型适用领域的扩展,大模型登陆边缘设备的需求凸显,越来越多的行业需要把大语言模型应用在专业的领域上
    的头像 发表于 09-09 08:02 1071次阅读
    <b class='flag-5'>本地化</b>ChatGPT?Firefly推出基于BM1684X的大语言<b class='flag-5'>模型</b><b class='flag-5'>本地</b><b class='flag-5'>部署</b>方案

    百度千帆大模型2.0一天可跑通大模型效果验证

    百度千帆大模型2.0一天可跑通大模型效果验证 今天的2023百度云智大会上,百度智能云宣布千帆大模型平台
    的头像 发表于 09-05 16:17 722次阅读

    浅谈工业物联网平台

    级采集的特性,支持重庆、北京、上海、广州、成都等地设备的就近接入;可以快速满足各行业对公有云、私有云、本地化部署的需求。解决企业自建工业云平台
    发表于 08-10 15:45

    三种主流模型部署框架YOLOv8推理演示

    深度学习模型部署有OpenVINO、ONNXRUNTIME、TensorRT三个主流框架,均支持Python与C++的SDK使用。对YOLOv5~YOLOv8的系列模型,均可以通过C+
    的头像 发表于 08-06 11:39 1842次阅读

    如何使用TensorFlow将神经网络模型部署到移动或嵌入式设备上

    有很多方法可以将经过训练的神经网络模型部署到移动或嵌入式设备上。不同的框架在各种平台上支持Arm,包括TensorFlow、PyTorch、Caffe2、MxNet和CNTK,如And
    发表于 08-02 06:43

    模型部署框架FastLLM实现细节解析

    接着 大模型部署框架 FastLLM 简要解析 这篇文章首先梳理了一下FastLLM的调用链和关键的数据结构,然后解析了 FastLLM 的一些实现细节和CPU/GPU后端实现采用的优化技巧。
    的头像 发表于 07-27 10:48 863次阅读
    大<b class='flag-5'>模型</b><b class='flag-5'>部署</b><b class='flag-5'>框架</b>FastLLM实现细节解析

    三种主流的深度学习模型部署框架

    主要是基于云服务器与分布式服务提供,企业需要支付云服务器算力费用与存储费用。优点是便于扩展,方便在多个位置与节点快速部署使用模型算法;缺点是与边缘
    的头像 发表于 07-20 15:37 2006次阅读
    三种主流的深度学习<b class='flag-5'>模型</b><b class='flag-5'>部署</b><b class='flag-5'>框架</b>

    TorchVision框架模型导出并部署到ONNXRUNTIME C++全流程解析

    ONNXRUNTIME是主流的深度学习部署框架之一,支持ONNX格式模型在CPU、GPU、ARM等不同硬件平台上加速推理,支持C++、Python、Java、C#、JS等不同语言SDK
    的头像 发表于 07-13 14:46 760次阅读
    TorchVision<b class='flag-5'>框架</b>下<b class='flag-5'>模型</b>导出并<b class='flag-5'>部署</b>到ONNXRUNTIME C++全流程解析

    如何部署ML模型到Google云平台

    实践中的机器学习:在 Google 云平台上部署 ML 模型
    的头像 发表于 07-05 16:30 424次阅读
    如何<b class='flag-5'>部署</b>ML<b class='flag-5'>模型</b>到Google云<b class='flag-5'>平台</b>

    戴尔科技集团与 NVIDIA 联合发布用于安全、本地化部署生成式 AI 的 Project Helix

    •  Project Helix 使企业能够轻松构建和部署值得信赖的生成式 AI •  戴尔和 NVIDIA 的基础设施与软件包含内置的数据安全功能,用于本地生成式 AI 应用 戴尔科技集团全球大会
    的头像 发表于 05-25 09:15 365次阅读