0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

OpenVINO™ 赋能千元级『哪吒』AI开发套件大语言模型 | 开发者实战

研扬科技AAEON 2024-01-06 08:05 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

以下文章来源于英特尔物联网 ,作者武卓

作者:英特尔AI软件布道师 武卓 博士

人工智能的飞速发展中,大语言模型,如Stable-Zephyr-3b,已成为研究和应用的热点。这些模型以其强大的文本理解和生成能力在多个领域大放异彩。然而,大多数高性能模型通常需要昂贵的计算资源,使得它们的应用受限于有限的环境。本文将探讨在OpenVINO的赋能下,如何在不足千元的AI开发板上部署Stable-Zephyr-3b模型,构建聊天机器人,成为实现AI无处不在愿景的重要组成部分之一。

Stable Zephyr 3B是一个先进的大语言模型,拥有30亿参数,它在多个语言处理任务上显示出了优异的性能。这个模型特别是在大小相对较小的情况下,比许多流行模型都要出色,这表明了它高效的参数使用和强大的学习能力。该模型的训练灵感来自于HugginFaceH4的Zephyr 7B训练管道,这是一个专注于高效训练和性能优化的系统。Stable Zephyr 3B是在混合的数据集上进行训练的,包括了公开可用的数据集和通过直接偏好优化(DPO)技术生成的合成数据集。DPO是一种优化技术,它直接在模型的偏好上施加约束,以产生更高质量的数据供模型学习。

该模型的性能评估是基于MT Bench和Alpaca Benchmark,这两个基准都是在业界公认的,用以衡量语言模型在多种任务上的效能。通过这些严格的评估,Stable Zephyr 3B展现了其在理解和生成语言方面的卓越能力。更多关于模型的架构、训练过程、使用的数据集以及在各项评估中的表现的信息可以在模型卡片中找到。

此文使用了研扬科技针对边缘AI行业开发者推出了哪吒(Nezha)开发套件以信用卡大小(85 x 56mm)的开发板-哪吒(Nezha)为核心,哪吒采用Intel N97处理器(Alder Lake-N),最大睿频3.6GHz,IntelUHD Graphics内核GPU,可实现高分辨率显示;板载LPDDR5内存、eMMC存储及TPM 2.0,配备GPIO接口,支持Windows和Linux操作系统,这些功能和无风扇散热方式相结合,为各种应用程序构建高效的解决方案,适用于如自动化、物联网网关、数字标牌和机器人等应用。

要在这些资源有限的设备上运行如Stable-Zephyr-3b这样的大型模型,模型的压缩和优化是关键。借助OpenVINO提供的模型优化工具NNCF,可以将模型量化压缩为INT4精度的模型,从而可以大幅度减少模型的大小和计算需求,而保持相对较高的性能。接下来,就让我们通过我们常用的OpenVINO Notebooks仓库中关于Stable Zephyr 3B模型的Jupyter Notebook代码和拆解,来进一步了解具体步骤吧。(Jupyter notebook代码地址:

https://github.com/openvinotoolkit/openvino_notebooks/tree/main/notebooks/273-stable-zephyr-3b-chatbot )

第一步:安装相应工具包

为了方便模型转换步骤和模型性能评估,我们将使用llm_bench(https://github.com/openvinotoolkit/openvino.genai/tree/master/llm_bench/python )工具,该工具提供了一种统一的方法来估计大语言模型(LLM)的性能。它基于由Optimum-Intel提供的管道,并允许使用几乎相同的代码来估计Pytorch和OpenVINO模型的性能。

首先git clone llm_bench所在的代码仓库:

from pathlibimport Path

import sys

genai_llm_bench = Path("openvino.genai/llm_bench/python")

ifnot genai_llm_bench.exists():

!git clone https://github.com/openvinotoolkit/openvino.genai.git


sys.path.append(str(genai_llm_bench))

并进行相关Python包的安装:

%pip uninstall -q -y optimum-intel optimum

%pip install -q --extra-index-url https://download.pytorch.org/whl/cpu -r ./openvino.genai/llm_bench/python/requirements.txt

%pip uninstall -q -y openvino openvino-dev openvino-nightly

%pip install -q openvino-nightly


第二步:将模型转换为OpenVINO IR格式,并利用NNCF将模型权重压缩为INT4精度
llm_bench提供了一个转换脚本,用于将大语言模型转换为与Optimum-Intel兼容的OpenVINO IR格式。它还允许使用NNCF将模型权重压缩为INT8或INT4精度。要启用INT4的权重压缩,我们应该使用--compress_weights 4BIT_DEFAULT 参数。权重压缩算法旨在压缩模型的权重,并可用于优化大模型的占用空间和性能。与INT8压缩相比,INT4压缩进一步提高了性能,但会引入轻微的预测质量下降。

model_path = Path("stable-zephyr-3b/pytorch/dldt/compressed_weights/OV_FP16-4BIT_DEFAULT")


convert_script = genai_llm_bench / "convert.py"


!python $convert_script --model_id stabilityai/stable-zephyr-3b --precision FP16 --compress_weights 4BIT_DEFAULT --output stable-ze

第三步:评估模型性能

openvino.genai / llm_bench / python / benchmark.py脚本允许在特定输入提示上估计文本生成管道的推理,给定最大生成分词的数量。模型性能评估以时延为主。

benchmark_script = genai_llm_bench /"benchmark.py"


!python $benchmark_script -m $model_path -ic512 -p"Tell me story about cats"

运行结果如下:

wKgaomWyIQ6AGxQ-AAS7PdK1uEA461.png

第四步:应用状态变换来自动处理模型状态

Stable Zephyr是一种自回归的解码器变换器模型,它通过缓存先前计算的隐藏状态来优化生成过程和内存使用,避免每次生成新令牌时重复计算。随着模型和注意力块的增大,处理长序列的缓存策略可能对内存系统构成挑战。因此,OpenVINO提出了一种转换策略,将缓存逻辑内置于模型中以降低内存消耗并优化性能。您可以通过在转换步骤中使用--stateful标志添加有状态转换来估计模型性能。

stateful_model_path = Path("stable-zephyr-3b-stateful/pytorch/dldt/compressed_weights/OV_FP16-4BIT_DEFAULT")
!python $convert_script --model_id stabilityai/stable-zephyr-3b --precision FP16 --compress_weights 4BIT_DEFAULT --output stable-zephyr-3b-stateful --force_convert --stateful

第五步:利用Optimum-Intel加载模型并在基于Gradio搭建的用户界面上运行模型
同样地,这个模型也可以用Optimum-Intel工具包里定义的OVModelForCausalLM 流水线来加载模型和运行推理,代码如下:

from utils.ov_model_classesimport register_normalized_configs

from optimum.intel.openvinoimport OVModelForCausalLM

from transformers import AutoConfig


# Load model into Optimum Interface

register_normalized_configs()


ov_model = OVModelForCausalLM.from_pretrained(model_path, compile=False, config=AutoConfig.from_pretrained(stateful_model_path, trust_remote_code=True), stateful=True)

和我们的很多大预言模型和生成式AI的Notebook示例代码一样,在这个Notebook中,我们也提供了基于Gradio编写的用户友好的使用界面。最终在我们的哪吒开发板上运行该模型的推理。

整个的步骤就是这样!现在就开始跟着我们提供的代码和步骤,动手试试用OpenVINO在哪吒开发板上运行基于大语言模型的聊天机器人吧。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    90

    文章

    38185

    浏览量

    296979
  • 人工智能
    +关注

    关注

    1813

    文章

    49756

    浏览量

    261672
  • OpenVINO
    +关注

    关注

    0

    文章

    117

    浏览量

    717
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    瑞芯微RV1126B开发套件评测大赛正式开赛!

    大赛简介EASYEAI灵眸科技正式启动2025年首届“瑞芯微RV1126B开发套件评测大赛”,以“硬核实践,未来”为主题,面向开发者开放价值835
    的头像 发表于 10-27 09:12 2461次阅读
    瑞芯微RV1126B<b class='flag-5'>开发套件</b>评测大赛正式开赛!

    128 秒杀千元配置!明远智睿 H618 核心板,让开发者告别开发困境​

    在嵌入式开发领域,开发者们常常面临着 “高成本与低效率” 的双重困境。想要一款性能达标、接口丰富的核心板,预算动辄就要上千元,对于小型团队或个人开发者来说,无疑是一笔不小的负担;即便咬
    的头像 发表于 10-24 17:53 791次阅读

    NVIDIA Jetson AGX Thor开发者套件重磅发布

    开发者与未来创造们,准备好迎接边缘AI的史诗革新了吗?NVIDIA以颠覆性技术再次突破极限,正式推出Jetson AGX Thor开发者
    的头像 发表于 08-28 14:31 1236次阅读

    时识科技推出XyloAudio 3神经形态开发套件

    时识科技(SynSense)推出的XyloAudio 3神经形态开发套件,为边缘AI音频处理树立全新效标杆!基于类脑计算技术,XyloAudio 3专为实时声音检测与分类场景打造,以超低功耗(<1毫瓦)和毫秒
    的头像 发表于 05-15 15:07 958次阅读
    时识科技推出XyloAudio 3神经形态<b class='flag-5'>开发套件</b>

    SC171开发套件V3 技术资料

    模型实战(SC171开发套件V3) https://bbs.elecfans.com/jishu_2485284_1_1.html 云平台连接(SC171开发套件V3) https
    发表于 04-17 11:03

    模型实战(SC171开发套件V3)

    模型实战(SC171开发套件V3) 序列 课程名称 视频课程时长 视频课程链接 课件链接 工程源码 1 火山引擎豆包大模型调试指南 3分31秒 https://t.elecfans.
    发表于 04-16 18:52

    首创开源架构,天玑AI开发套件让端侧AI模型接入得心应手

    模型、通义问、混等多种先进端侧大模型,还包含视觉、语言、多模态等多种多样的大模型
    发表于 04-13 19:52

    直播预告| AI 玩偶爆款密码:涂鸦 AI 玩偶方案如何开发者伙伴?

    一、涂鸦AI玩具解决方案的独特之处涂鸦AI玩具解决方案重磅联手DeepSeek、豆包、通义问、Kimi、元宝、OpenAI、Claude、Gemini、AmazonNova等大模型
    的头像 发表于 03-13 18:00 842次阅读
    直播预告| <b class='flag-5'>AI</b> 玩偶爆款密码:涂鸦 <b class='flag-5'>AI</b> 玩偶方案如何<b class='flag-5'>赋</b>能<b class='flag-5'>开发者</b>伙伴?

    HarmonyOS 应用开发套件:鸿蒙原生应用开发的 “神助攻”

    知识问答,助力问题快速闭环   在整个应用开发过程中,开发者可能会遇到各种问题。套件提供了高效的AI
    发表于 02-17 16:37

    C#集成OpenVINO™:简化AI模型部署

    在开源测控、机器视觉、数采与分析三大领域中,如何快速将AI模型集成到应用程序中, 实现AI和应用增值? 最容易的方式是:在C#中,使用
    的头像 发表于 02-17 10:03 2533次阅读
    C#集成<b class='flag-5'>OpenVINO</b>™:简化<b class='flag-5'>AI</b><b class='flag-5'>模型</b>部署

    C#中使用OpenVINO™:轻松集成AI模型

    与分析三大领域中,如何快速将AI模型集成到应用程序中,实现AI和应用增值?最容易的方式是:在C#中,使用
    的头像 发表于 02-07 14:05 1672次阅读
    C#中使用<b class='flag-5'>OpenVINO</b>™:轻松集成<b class='flag-5'>AI</b><b class='flag-5'>模型</b>!

    AI开发平台如何开发者

    当下,AI开发平台通过提供丰富的工具集、优化的开发环境以及高效的部署能力,极大地降低了AI应用的开发门槛,加速了创新步伐。那么,
    的头像 发表于 01-17 14:47 733次阅读

    《HarmonyOS第一课》焕新升级,开发者快速掌握鸿蒙应用开发

    开发轻量型APP或服务。课程涵盖Stage模型进阶、多线程编程、组件状态管理等核心技能,让开发者独立完成多个模块业务及多个子系统等复杂
    发表于 01-02 14:24

    NVIDIA Jetson Orin Nano开发者套件的新功能

    生成式 AI 领域正在迅速发展,每天都有新的大语言模型(LLM)、视觉语言模型(VLM)和视觉语言
    的头像 发表于 12-23 12:54 1990次阅读
    NVIDIA Jetson Orin Nano<b class='flag-5'>开发者</b><b class='flag-5'>套件</b>的新功能

    NVIDIA发布小巧高性价比的Jetson Orin Nano Super开发者套件

    NVIDIA近期推出了一款全新的生成式AI超级计算机——Jetson Orin Nano Super开发者套件。这款开发者套件以其小巧的尺寸
    的头像 发表于 12-19 11:28 1473次阅读