0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

源2.0适配FastChat框架,企业快速本地化部署大模型对话平台

全球TMT 来源:全球TMT 作者:全球TMT 2024-02-29 09:57 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

北京2024年2月28日/美通社/ -- 近日,浪潮信息Yuan2.0大模型与FastChat框架完成全面适配,推出"企业快速本地化部署大模型对话平台"方案。该方案主要面向金融、法律、教育等领域,且有数据隐私保护需求的本地化部署场景。全面开放的对话模板功能,用户可基于FastChat平台,快速对不同参数规模的Yuan2.0基础模型进行训练、评估和应用,将Yuan2.0系列基础大模型部署于私有环境,快速部署企业级大模型应用。值得一提的是,FastChat提供标准API格式(OpenAI标准)的服务,因此,原本采用OpenAI API接口所构建的系列应用,用户无需修改代码,仅需更新API服务的接口地址,即可灵活、丝滑地切换为本地部署的Yuan2.0千亿参数模型。

wKgZomXfNLWAOYk6AAEJDzMrT0I739.jpg


当前,各类模型迭代更新飞快。简单且易用的对话模型框架成为了开发者解决本地化构建对话系统的一大利器。标准一致的工具和环境,可有效实现后端模型的平滑迁移,开发者能够在不改变原有代码的情况下,轻松适应新的模型和技术要求。基于现成的框架和工具,依托繁荣的社区,进而有效地解决了技术门槛高、开发流程复杂、知识共享困难、部署维护成本高以及数据安全等一系列难题,不仅可提高开发效率,也可为开发者带来了更多的便利和可能性。

FastChat是加州大学伯克利分校LM-SYS发布的创新型开源项目,Github Star数超31k。旨在为研究和开发人员提供一个易于使用、可扩展的平台,用于训练、服务和评估基于LLM的聊天机器人,大幅降低开发人员构建问答系统的门槛,实现知识管理平台的轻松部署与高效维护。其核心功能包括提供最先进的模型权重、训练代码和评估代码(例如Yuan2.0、Vicuna、FastChat-T5)以及带有Web UI和兼容OpenAI RESTful API的分布式多模型服务系统。Yuan2.0系列基础大模型作为首个全面开源的千亿参数模型,在编程、推理、逻辑等方面表现优异。通过Fastchat平台,企业级用户可一键启动标准API(OpenAI标准)服务,满足企业需求的定制化应用开发,轻松对接口进行封装,高效且安全地开发智能对话系统。在保证数据私密性和安全性的同时,极大地提升了模型本地化部署的效率、应用性能及稳定性。

基于FastChat使用Yuan2.0大模型,Step by Step实操教程!

* 如下步骤以Yuan2-2B-Janus-hf模型为例:

Step 1: 安装FastChat

FastChat官方提供的两种安装方式--pip安装与源码安装

pip安装

官方提供的采用pip安装命令为pip3,建议大家采用python3.x,避免出现依赖包冲突。

pip3 install "fschat[model_worker,webui]"

源码安装

先从github上下载源码,在FastChat目录下执行如下命令:

git clonehttps://github.com/lm-sys/FastChat.git
cd FastChat
pip3 install --upgrade pip && pip3 install -e ".[model_worker,webui]"

Step 2 : 下载Yuan2.0系列基础大模型

模型 序列长度 下载链接
Yuan2.0-102B-hf 4K https://www.modelscope.cn/models/YuanLLM/Yuan2.0-102B-hf/summary
Yuan2.0-51B-hf 4K https://www.modelscope.cn/models/YuanLLM/Yuan2.0-51B-hf/summary
Yuan2.0-2B-hf 8K https://www.modelscope.cn/models/YuanLLM/Yuan2.0-2B-hf/summary
Yuan2-2B-Janus-hf 8K https://www.modelscope.cn/models/YuanLLM/Yuan2-2B-Janus-hf/summary

Step 3:启动FastChat推理服务

采用如下命令启动FastChat服务:

python3-m fastchat.serve.cli --model-path /mnt/models/Yuan2-2B-Janus-hf

至此,基于Yuan2.0基础大模型的FastChat推理服务就已启动完成了!服务启动后会进入客户端页面。客户端交互实例如下:

——————————————————

user: 你好。
assistant: 您好,有什么可以帮助您的吗?
user: 介绍一下北京。
assistant: 北京是中国的首都,位于华北平原中部。它是一个历史悠久、文化灿烂的城市,也是现代化与传统文化相结合的代表之一。北京拥有着丰富的历史遗产和文化景观,如紫禁城、天安门广场、颐和园、长城等。此外,北京还有许多现代建筑和创意艺术作品,如798艺术区、木鱼巷等。
user: 给我写一个快速排序算法
assistant: 快速排序是一种基于比较的排序算法,其时间复杂度为O(nlogn)。具体来说,快速排序通过选取一个基准元素,将数组分为两部分,使得左边的元素都小于基准元素,右边的元素都大于基准元素,然后递归地对左右两部分进行排序。
以下是一个简单的快速排序算法实现:
```python
def quick_sort(arr):
if len(arr) <= 1:
return arr
pivot = arr[len(arr) // 2]
left = [x for x in arr if x < pivot]
middle = [x for x in arr if x == pivot]
right = [x for x in arr if x > pivot]
return quick_sort(left) + middle + quick_sort(right)
```
这个算法的优点是它通常能够很好地处理小规模数据,而且它具有很好的可扩展性,可以轻松地处理不同规模的数据。但是,它也有一些缺点,例如它需要额外的空间来存储中间结果,并且它的最坏时间复杂度为O(n^2)。因此,在实际应用中,我们通常使用更高效的排序算法,如归并排序、插入排序等。
user: 能提供一些测试用例吗
assistant: 当然可以。以下是一些常见的测试用例:
```python
def test_quick_sort():
assert quick_sort([]) == []
assert quick_sort([1]) == [1]
assert quick_sort([3, 2, 1]) == [1, 2, 3]
assert quick_sort([5, 8, 2, 1, 6, 3, 4, 7, 9]) == [1, 2, 3, 4, 5, 6, 7, 8, 9]
assert quick_sort([9, 8, 7, 6, 5, 4, 3, 2, 1]) == [1, 2, 3, 4, 5, 6, 7, 8, 9]
```
这些测试用例包括了各种不同规模和不同顺序的输入数据。
user: 很好,你知道它的时间复杂度吗?
assistant: 是的,我知道它的时间复杂度为O(nlogn)。
user:

————————————————

同时,也可选用WebUI,需要先启动fastchat的controller和worker,在命令行输入如下命令即可启动:

python3 -m fastchat.serve.controller
python3 -m fastchat.serve.model_worker --model-path /mnt/models/Yuan2-2B-Janus-hf
python3-mfastchat.serve.gradio_web_server

启动完成后,默认会弹出WebUI页面,选择Yuan2.0模板即可与Yuan2.0大模型进行对话。以下为使用WebUI与Yuan2.0进行交互的示例:

代码实现

wKgaomXfNLaAToybAADRl_iTOTA579.jpg


测试用例

wKgZomXfNLaAZ2hrAADTArqP9lI354.jpg


上下文测试

wKgaomXfNLeAJX7EAACc8yBAqqw049.jpg


更多更新,请关注Github "源"交流专区,
前往GitHub搜索"IEIT-Yuan/Yuan-2.0"


审核编辑 黄宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 大模型
    +关注

    关注

    2

    文章

    3440

    浏览量

    4960
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    工业物联网平台适合私有本地部署还是云端部署

    工业物联网平台部署方式需根据企业核心需求选择, 私有本地部署适合数据安全要求极高、需深度定制且具备技术实力的
    的头像 发表于 11-12 11:42 276次阅读
    工业物联网<b class='flag-5'>平台</b>适合私有<b class='flag-5'>本地</b><b class='flag-5'>部署</b>还是云端<b class='flag-5'>部署</b>?

    发布元服务配置本地化基础信息(应用名称、图标)

    您可以添加元服务支持的语言,并配置对应语言的本地化信息。 例如,当您设置简体中文为默认语言,并且只配置中文的本地化信息,那么元服务在所有设置的发布国家或地区的信息都将显示中文。如果您还设置了英文
    发表于 10-24 17:42

    广和通成功部署DeepSeek-R1-0528-Qwen3-8B模型

    近日,广和通在MediaTek MT8893平台上成功部署并运行了DeepSeek-R1-0528-Qwen3-8B模型,显著提升了端侧AI设备的处理效率与智能水平,特别是在
    的头像 发表于 09-26 13:35 663次阅读

    米尔RK3576部署端侧多模态多轮对话,6TOPS算力驱动30亿参数LLM

    加载 → 图片预处理 → 用户交互 → 推理输出”的核心流程,支持图文一体的多模态对话适配多轮问答、视觉问答等典型场景。 具体运行机制可拆解为以下步骤:1. 模型初始首先加载大语言
    发表于 09-05 17:25

    能源监测管理平台本地化部署好还是云端部署好?

    能源监测管理平台本地化部署和云端部署各有优劣,企业需根据自身需求和实际情况来选择。如果企业对数据安全要求极高、网络环境特殊且预算充足,
    的头像 发表于 07-22 15:16 324次阅读
    能源监测管理<b class='flag-5'>平台</b>是<b class='flag-5'>本地化</b><b class='flag-5'>部署</b>好还是云端<b class='flag-5'>部署</b>好?

    AI+能源数字破局者故事5:斯伦贝谢 x IBM 咨询之 “全球经营与本地化适配

    斯伦贝谢与 IBM 的合作建立在技术专长、交付能力及本地化支持的基础上,IBM 的强大技术实力和本地经验,使其成为斯伦贝谢推动数字转型的重要合作伙伴
    的头像 发表于 07-17 19:02 1108次阅读

    施耐德电气与奇安信共建技术本地化创新中心

     在施耐德电气技术本地化创新日上 ; 施耐德电气与奇安信集团宣布成立 施耐德电气(中国)技术本地化创新中心。 该中心将提供 针对国产基础软硬件的深度适配服务,以信息技术共创和生态协同为核心 ,更好
    的头像 发表于 07-10 19:01 774次阅读
    施耐德电气与奇安信共建技术<b class='flag-5'>本地化</b>创新中心

    如何本地部署NVIDIA Cosmos Reason-1-7B模型

    下一步行动。本文将一步步带你在本地服务器上完成该模型部署,并搭建一个直观的 Web 交互界面,亲身体验前沿 AI 的“思考”过程。
    的头像 发表于 07-09 10:17 556次阅读

    DigiKey 应用与技术门户平台已针对亚太地区进行了本地化

    品类齐全且可立即发货的产品。DigiKey 在亚太地区提供专属应用与技术平台。该平台提供本地化的在线资源,旨在助力工程师和创新者,提供专业技术资源、精选产品信息和互动学习内容。 DigiKey 应用与技术
    发表于 05-23 16:37 1154次阅读

    博实结完成DeepSeek大模型本地化部署

    近日,公司完成DeepSeek R1 671B大模型本地化部署。通过构建自主可控的AI基础设施,公司同步实现研发智能升级、研发成本重构、数据安全闭环与应用场景突破,为产业智能赋能。
    的头像 发表于 03-19 16:31 1014次阅读

    行芯完成DeepSeek-R1大模型本地化部署

    近日,行芯正式宣布完成 DeepSeek-R1 大模型本地化部署,实现在多场景、多产品中应用。解锁“芯”玩法,开启“芯”未来!
    的头像 发表于 02-24 15:17 1140次阅读

    曙光顺利完成DeepSeek大模型本地化多点私有部署

    计算中心等政务云服务商,依托本地政务云资源池,顺利完成DeepSeek大模型本地化多点私有部署,并打造出数字人“抚小智”。抚州市还计划将DeepSeek大
    的头像 发表于 02-22 14:16 1097次阅读

    云天天书大模型训推一体机成功适配DeepSeek

    近日,云天天书大模型训推一体机成功适配DeepSeek。该一体机由云天励飞与华为联合推出,可以部署在华为昇腾服务器上,支持私有部署,实现开
    的头像 发表于 02-14 11:02 1288次阅读

    烽火通信推动DeepSeek本地化部署,金融行业率先示范

    近日,烽火通信携手长江计算、昇腾及华为云团队,在金融领域取得了重要突破。他们成功助力某国有大型银行,率先完成了DeepSeek-V3大模型本地化推理服务部署。 此次部署采用了长江计算
    的头像 发表于 02-10 15:03 1741次阅读

    爱普生科技+本地化引领五大创新

    自八十年代进入中国以来,爱普生已在中国市场上深耕近四十年。从打印机到工业机器人,爱普生业务遍布多个领域,始终秉承“科技+本地化”的核心理念,与中国市场同频共振,不断深化与本土合作伙伴合作,推出“中国定制”产品及解决方案。
    的头像 发表于 12-12 16:31 1066次阅读