0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

LLaMA 2是什么?LLaMA 2背后的研究工作

深度学习自然语言处理 来源:hugging Face 2024-02-21 16:00 次阅读

关于 LLaMA 2 的全部资源,如何去测试、训练并部署它。

LLaMA 2 是一个由 Meta 开发的大型语言模型,是 LLaMA 1 的继任者。LLaMA 2 可通过 AWS、Hugging Face 等提供商获取,并免费用于研究和商业用途。LLaMA 2 预训练模型在 2 万亿个标记上进行训练,相比 LLaMA 1 的上下文长度增加了一倍。它的微调模型则在超过 100 万个人工标注数据下完成。

这篇博客包含了所有的相关资源,以帮助您快速入门。包括以下跳转:

LLaMA 2 是什么?

在 LLaMA 游乐场试玩

模型背后的研究工作

模型的性能有多好,基准测试

如何正确地去提示聊天模型

如何使用 PEFT 训练模型

如何部署模型进行推理

和其他资源

来自 Meta 官方的公告可以在这里找到: https://ai.meta.com/llama/

LLaMA 2 是什么?

Meta 发布的 LLaMA 2,是新的 sota 开源大型语言模型 (LLM)。LLaMA 2 代表着 LLaMA 的下一代版本,并且具有商业许可证。LLaMA 2 有 3 种不同的大小——7B、13B 和 70B 个可训练参数。与原版 LLaMA 相比,新的改进包括:

在 2 万亿个标记的文本数据上进行训练

允许商业使用

默认使用 4096 个前后文本视野 (可以被扩展)

70B 模型采用了分组查询注意力 (GQA)

可由此获取 Hugging Face Hub

在 LLaMA 游乐场试玩

有几个不同的游乐场供与 LLaMA 2 来测试聊天:

HuggingChat 允许你通过 Hugging Face 的对话界面与 LLaMA 2 70B 模型聊天。这提供了一个简洁的方法来了解聊天机器人工作原理

Hugging Face Spaces 有三种大小的 LLaMA 2 模型 7B、13B 和 70B 可供测试。交互式演示可以让您比较不同的大小模型的区别。

Perplexity 他们的对话 AI 演示提供 7B 和 13B 的 LLaMA 2 模型。你可以与模型聊天并且反馈模型响应的不足。

LLaMA 2 背后的研究工作

LLaMA 2 是一个基础大语言模型,它由网络上公开可获取到的数据训练完成。另外 Meta 同时发布了它的 CHAT 版本。CHAT 模型的第一个版本是 SFT (有监督调优) 模型。在这之后,LLaMA-2-chat 逐步地经过人类反馈强化学习 (RLHF) 来进化。RLHF 的过程使用了拒绝采样与近端策略优化 (PPO) 的技术来进一步调优聊天机器人。Meta 目前仅公布了模型最新的 RLHF(v5) 版本。若你对此过程背后的过程感兴趣则请查看:

Llama 2: 开源并已微调的聊天模型

Llama 2: 一个超赞的开源大语言模型

Llama 2: 全面拆解

LLaMA 2 的性能有多好,基准测试?

Meta 声称 “Llama 2 在众多外部基准测试中都优于其他开源的语言模型,包括推理、编程、熟练程度与知识测验” 关于其性能你可以在这里找到更多信息:

Hugging Face 开源大语言模型排行榜

Meta 官方公告

如何提示 LLaMA 2 Chat

LLaMA 2 Chat 是一个开源对话模型。想要与 LLaMA 2 Chat 进行高效地交互则需要你提供合适的提示词、问题来得到合乎逻辑且有帮助的回复。Meta 并没有选择最简单的提示词结构。以下是单轮、多轮对话的提示词模板。这个模板遵循模型的训练过程,在此详细描述 LLaMA 2 论文. 你也可以看一看 LLaMA 2 提示词模板.

单轮对话

[INST]<>
{{system_prompt}}
<>
{{user_message}}[/INST]

多轮对话

[INST]<>
{{system_prompt}}
<>
{{user_msg_1}}[/INST]{{model_answer_1}}[INST]{{user_msg_2}}[/INST]{{model_answer_2}}[INST]{{user_msg_3}}[/INST]

如何训练 LLaMA 2

因 LLaMA 2 为开源模型,使得可以轻易的通过微调技术,比如 PEFT,来训练它。这是一些非日适合于训练你自己版本 LLaMA 2 的学习资源:

扩展指引: 指令微调 Llama 2

在 Amazon SageMaker 上微调 LLaMA 2 (7-70B)

使用 PEFT 技术微调

Meta 提供的 Llama 模型示例以及方案

在本地机器上微调 LLAMA-v2 最简单的方法 !

如何部属 LLaMA 2

LLaMA 2 可以在本地环境中部署 (llama.cpp),使用这样已管理好的服务 Hugging Face Inference Endpoints 或通过 AWS, Google Cloud, and Microsoft Azure 这样的服务器平台.

使用文本生成接口与推理终端来部署 LLama 2

使用 Amazon SageMaker 部署 LLaMA 2 70B (即将完成)

在你的 M1/M2 Mac 上通过 GPU 接口来本地部署 Llama-2-13B-chat

原文作者: Philschmid

译者: Xu Haoran

审核编辑:黄飞

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    87

    文章

    26485

    浏览量

    264116
  • 聊天机器人
    +关注

    关注

    0

    文章

    279

    浏览量

    12108

原文标题:LLaMA 2 - 你所需要的一切资源

文章出处:【微信号:zenRRan,微信公众号:深度学习自然语言处理】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    RISC-V 跑大模型(二):LLaMA零基础移植教程

    这是RISC-V跑大模型系列的第二篇文章,主要教大家如何将LLaMA移植到RISC-V环境里。
    的头像 发表于 07-17 16:16 1004次阅读
    RISC-V 跑大模型(二):<b class='flag-5'>LLaMA</b>零基础移植教程

    RISC-V 跑大模型(三):LLaMA中文扩展

    这是RISC-V跑大模型系列的第三篇文章,前面我们为大家介绍了如何在RISC-V下运行LLaMA,本篇我们将会介绍如何为LLaMA提供中文支持。
    的头像 发表于 07-17 17:15 532次阅读
    RISC-V 跑大模型(三):<b class='flag-5'>LLaMA</b>中文扩展

    大模型笔记之gem5运行模型框架LLama介绍

    LLama.cpp 支持x86,arm,gpu的编译。
    的头像 发表于 01-22 09:10 402次阅读
    大模型笔记之gem5运行模型框架<b class='flag-5'>LLama</b>介绍

    【飞腾派4G版免费试用】仙女姐姐的嵌入式实验室之五~LLaMA.cpp及3B“小模型”OpenBuddy-StableLM-3B

    和语法规则,将这些词汇串联起来,形成一个完整的回答 关于LLaMALLaMA.cpp LLaMA全称是Large Language Model Meta AI,是由Meta AI研究
    发表于 12-22 10:18

    基于LLAMA的魔改部署

    去训练),并且和Vision结合的大模型也逐渐多了起来。所以怎么部署大模型是一个 超级重要的工程问题 ,很多公司也在紧锣密鼓的搞着。 目前效果最好讨论最多的开源实现就是LLAMA,所以我这里讨论的也是基于 LLAMA的魔改部署 。 基于
    的头像 发表于 05-23 15:08 4586次阅读
    基于<b class='flag-5'>LLAMA</b>的魔改部署

    LLaMA生态中的各个模型梳理

    既然已经有了成功ChatGPT这一成功的案例,大家都想基于LLaMA把这条路再走一遍,以期望做出自己的ChatGPT。
    发表于 07-04 15:07 3550次阅读
    <b class='flag-5'>LLaMA</b>生态中的各个模型梳理

    RISC-V跑大模型(二):LLaMA零基础移植教程

    这是RISC-V跑大模型系列的第二篇文章,主要教大家如何将LLaMA移植到RISC-V环境里。
    的头像 发表于 07-10 10:10 775次阅读
    RISC-V跑大模型(二):<b class='flag-5'>LLaMA</b>零基础移植教程

    Llama2的技术细节探讨分析

    模型结构为Transformer结构,与Llama相同的是采用RMSNorm归一化、SwiGLU激活函数、RoPE位置嵌入、词表的构建与大小,与Llama不同的是增加GQA(分组查询注意力),扩增了模型输入最大长度,语料库增加了40%。
    发表于 07-23 12:36 1168次阅读
    <b class='flag-5'>Llama</b>2的技术细节探讨分析

    Llama 2性能如何

    在几乎所有基准上,Llama 2 70B 的结果均与谷歌 PaLM (540B) 持平或表现更好,不过与 GPT-4 和 PaLM-2-L 的性能仍存在较大差距。
    发表于 07-23 13:00 1159次阅读
    <b class='flag-5'>Llama</b> 2性能如何

    Meta推出Llama 2 免费开放商业和研究机构使用

    与所有LLM一样,Llama 2偶尔会产生不正确或不可用的答案,但Meta介绍Llama的论文声称,它在学术基准方面与OpenAI的GPT 3.5不相上下,如MMLU(衡量LLM在57门STEM科目中的知识)和GSM8K(衡量LLM对数学的理解)。
    的头像 发表于 08-02 16:17 451次阅读
    Meta推出<b class='flag-5'>Llama</b> 2 免费开放商业和<b class='flag-5'>研究</b>机构使用

    关于Llama 2的一切资源,我们都帮你整理好了

    Meta 发布的 Llama 2,是新的 SOTA 开源大型语言模型(LLM)。Llama 2 代表着 LLaMA 的下一代版本,可商用。Llama 2 有 3 种不同的大小 —— 7
    的头像 发表于 08-23 15:40 757次阅读

    Meta发布一种Code Llama工具 用于生成新代码和调试人工编写工作

    Meta公司表示,Meta发布了一种名为Code Llama的工具,该工具建立在其Llama 2大型语言模型的基础上,用于生成新代码和调试人工编写的工作。 Code Llama将使用与
    的头像 发表于 08-28 16:56 978次阅读

    怎样使用QLoRA对Llama 2进行微调呢?

    使用QLoRA对Llama 2进行微调是我们常用的一个方法,但是在微调时会遇到各种各样的问题
    的头像 发表于 09-22 14:27 1103次阅读
    怎样使用QLoRA对<b class='flag-5'>Llama</b> 2进行微调呢?

    Meta推出最强开源模型Llama 3 要挑战GPT

    Meta推出最强开源模型Llama 3 要挑战GPT Facebook母公司Meta Platforms(META.US)推出了开源AI大模型“Llama”的最新升级版本“Llama 3”,Meta
    的头像 发表于 04-19 17:00 477次阅读

    Llama 3 王者归来,Airbox 率先支持部署

    前天,智算领域迎来一则令人振奋的消息:Meta正式发布了备受期待的开源大模型——Llama3。Llama3的卓越性能Meta表示,Llama3在多个关键基准测试中展现出卓越性能,超越了业内先进的同类
    的头像 发表于 04-22 08:33 262次阅读
    <b class='flag-5'>Llama</b> 3 王者归来,Airbox 率先支持部署