0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

关于Llama 2的一切资源,我们都帮你整理好了

深度学习自然语言处理 来源:Hugging Face 2023-08-23 15:40 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

Llama 2 是一个由 Meta 开发的大型语言模型,是 LLaMA 1 的继任者。Llama 2 可通过 AWS、Hugging Face 获取,并可以自由用于研究和商业用途。Llama 2 预训练模型在 2 万亿个标记上进行训练,相比 LLaMA 1 的上下文长度增加了一倍。它的微调模型则在超过 100 万个人工标注数据下完成。

这篇博客包含了所有的相关资源,以帮助您快速入门。

来自 Meta 官方的公告可以在这里找到:https://ai.meta.com/llama/

LLaMA 2 是什么?

Meta 发布的 Llama 2,是新的 SOTA 开源大型语言模型(LLM)。Llama 2 代表着 LLaMA 的下一代版本,可商用。Llama 2 有 3 种不同的大小 —— 7B、13B 和 70B 个可训练参数。与原版 LLaMA 相比,新的改进包括:

  • 在 2 万亿个标记的文本数据上进行训练
  • 允许商业使用
  • 默认使用 4096 个前后文本视野
  • 70B 模型采用了分组查询注意力(GQA)
  • 可以在 Hugging Face Hub 上直接获取https://hf.co/models?other=llama-2

即刻解锁 Llama2

有几个不同的游乐场供与 Llama 2 来测试:

HuggingChat

在我们推出的 HuggingChat 中使用 Llama 2 70B:https://hf.co/chat

Hugging Face Space 应用

我们在 Space 应用上提供了三个大小的 Llama 2 模型的体验,分别是:

  • 7Bhttps://hf.co/spaces/huggingface-projects/llama-2-7b-chat
  • 13Bhttps://huggingface.co/spaces/huggingface-projects/llama-2-13b-chat
  • 70Bhttps://huggingface.co/spaces/ysharma/Explore_llamav2_with_TGI

Perplexity

Perplexity 的对话 AI 演示提供 7B 和 13B 的 Llama 2 模型:https://llama.perplexity.ai/

Llama 2 背后的研究工作

Llama 2 是一个基础大语言模型,它由网络上公开可获取到的数据训练完成。另外 Meta 同时发布了它的 Chat 版本。Chat 模型的第一个版本是 SFT(有监督调优)模型。在这之后,LLaMA-2-chat 逐步地经过人类反馈强化学习(RLHF)来进化。RLHF 的过程使用了拒绝采样与近端策略优化(PPO)的技术来进一步调优聊天机器人。Meta 目前仅公布了模型最新的 RLHF (v5) 版本。若你对此过程背后的过程感兴趣则请查看:

  • Llama 2: 开源并已微调的聊天模型https://arxiv.org/abs/2307.09288
  • Llama 2: 一个超赞的开源大语言模型https://www.interconnects.ai/p/llama-2-from-meta
  • Llama 2 的全面拆解https://www.youtube.com/watch?v=zJBpRn2zTco

Llama 2 的性能有多好,基准测试?

Meta 表示:

Llama 2 在众多外部基准测试中都优于其他开源的语言模型,包括推理、编程、熟练程度与知识测验。

关于其性能你可以在这里找到更多信息:

  • Hugging Face 开源大语言模型排行榜https://hf.co/spaces/HuggingFaceH4/open_llm_leaderboard
  • Meta 官方公告https://ai.meta.com/llama/

如何为 LLaMA 2 Chat 写提示词 (prompts)

Llama 2 Chat 是一个开源对话模型。想要与 Llama 2 Chat 进行高效地交互则需要你提供合适的提示词,以得到合乎逻辑且有帮助的回复。Meta 并没有选择最简单的提示词结构。

以下是单轮、多轮对话的提示词模板。提示词模板遵循模型训练过程,你可以在这里查看到详细描述:

  • Llama 2 论文https://hf.co/papers/2307.09288
  • Llama 2 提示词模板https://gpus.llm-utils.org/llama-2-prompt-template/

单轮对话

[INST]<>
{{system_prompt}}
<>

{{user_message}}[/INST]

多轮对话

[INST]<>
{{system_prompt}}
<>

{{user_msg_1}}[/INST]{{model_answer_1}}[INST]{{user_msg_2}}[/INST]{{model_answer_2}}[INST]{{user_msg_3}}[/INST]

如何训练 LLaMA 2

因 LLaMA 2 为开源模型,使得可以轻易的通过微调技术,比如 PEFT,来训练它。这是一些非日适合于训练你自己版本 LLaMA 2 的学习资源:

  • 扩展指引:指令微调 Llama 2https://www.philschmid.de/instruction-tune-llama-2
  • 在 Amazon SageMaker 上微调 Llama 2 (7-70B)https://www.philschmid.de/sagemaker-llama2-qlora
  • 使用 PEFT 技术微调https://hf.co/blog/zh/llama2#fine-tuning-with-peft
  • Meta 提供的 Llama 模型示例以及方案https://github.com/facebookresearch/llama-recipes/tree/main
  • 在本地机器上微调 LLAMA-v2 最简单的方法!https://www.youtube.com/watch?v=3fsn19OI_C8

如何部署 Llama 2?

Llama 2 可以在本地环境部署,使用托管服务如 Hugging Face Inference Endpoints 或通过 AWS、Google Cloud、Microsoft Azure 等。

你可以查阅下述资源:

  • llama.cpphttps://github.com/ggerganov/llama.cpp
  • 使用文本生成接口与推理终端来部署 LLama 2https://hf.co/blog/llama2#using-text-generation-inference-and-inference-endpoints
  • 使用 Amazon SageMaker 部署 LLaMA 2 70Bhttps://www.philschmid.de/sagemaker-llama-llm
  • 在你的 M1/M2 Mac 上通过 GPU 接口来本地部署 Llama-2-13B-chathttps://gist.github.com/adrienbrault/b76631c56c736def9bc1bc2167b5d129

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    89

    文章

    38090

    浏览量

    296558
  • 开源
    +关注

    关注

    3

    文章

    4031

    浏览量

    45566
  • 语言模型
    +关注

    关注

    0

    文章

    570

    浏览量

    11254

原文标题:关于 Llama 2 的一切资源,我们都帮你整理好了

文章出处:【微信号:zenRRan,微信公众号:深度学习自然语言处理】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    【CIE全国RISC-V创新应用大赛】基于 K1 AI CPU 的大模型部署落地

    /llama-cli --version 第二步:获取 14B 的 Q2_K 模型 由于官方文档演示的是 0.6B 小模型,我们需要自己获取 Qwen2.5-14B 的 Q2_K 版
    发表于 11-27 14:43

    从零开始了解智慧教室(二):智慧教室的类型与适用场景

    广凌科技(广凌股份)作为智慧教室领域的领军企业,其整体解决方案以“场景适配、数据驱动、开放兼容”为核心理念,智慧教室的类型与适用场景整理好了起来了解下吧~
    的头像 发表于 11-26 18:05 125次阅读
    从零开始了解智慧教室(二):智慧教室的类型与适用场景

    新手小白必看!关于A100云主机租用,你想知道的一切都在这!

    “我想租台A100云主机来跑我的模型,但完全不知道从何下手。”——这是我们听到最多的来自AI新手的声音。A100,这个听起来就“高大上”的名词,背后其实是套清晰、可操作的流程。今天,我们
    的头像 发表于 10-31 19:24 1045次阅读
    新手小白必看!<b class='flag-5'>关于</b>A100云主机租用,你想知道的<b class='flag-5'>一切</b>都在这!

    无功补偿控制器投的时间奥秘:延时、震荡、放电次讲透!

    在无功补偿控制器中,电容器投是其中重要的环,它在定程度上决定了功率因数的大小以及你是否在被罚款,那么什么时候去做投,投的时间应该如
    的头像 发表于 10-31 11:15 151次阅读
    无功补偿控制器投<b class='flag-5'>切</b>的时间奥秘:延时、震荡、放电<b class='flag-5'>一</b>次讲透!

    什么是ARM架构?你需要知道的一切

    从智能手机到工业边缘计算机,ARM®架构为全球数十亿台设备提供动力。ARM®以其效率优先的设计和灵活的许可模式而闻名,已迅速从移动处理器扩展到人工智能边缘计算、工业控制器,甚至数据中心。本文我们
    的头像 发表于 09-11 14:48 749次阅读
    什么是ARM架构?你需要知道的<b class='flag-5'>一切</b>

    【VisionFive 2单板计算机试用体验】3、开源大语言模型部署

    , Gemma等开源大模型。当然,些闭源的(类似chatgpt, gemini)是不支持部署的。如下图: 在端侧部署大模型,个人认为最大的好处:是可以避免因文本或图片上传而造成的信息泄露,因为一切文本
    发表于 07-19 15:45

    使用 NPU 插件对量化的 Llama 3.1 8b 模型进行推理时出现“从 __Int64 转换为无符号 int 的错误”,怎么解决?

    安装了 OpenVINO™ GenAI 2024.4。 使用以下命令量化 Llama 3.1 8B 模型: optimum-cli export openvino -m meta-llama
    发表于 06-25 07:20

    关于 树莓派5 超频:你需要知道的一切

    摘要树莓派5可通过超频提升性能,对于机器学习等处理器密集型任务尤为有用。超频树莓派5时,需将其温度控制在80°C以下。官方树莓派5机箱配备散热风扇,主动散热配件则包含散热片和风扇,均有助于温度控制。超频树莓派5需修改config.txt启动设置文件,调整CPU速度设置。但超频可能缩短Pi5的使用寿命,并使保修失效,因此需谨慎操作。树莓派5的速度比树莓派4快两
    的头像 发表于 06-10 17:29 2354次阅读
    <b class='flag-5'>关于</b> 树莓派5 超频:你需要知道的<b class='flag-5'>一切</b>!

    层层剥开开鸿Bot,我们看到的是“开发者优先”

    对开源生态来说,社区先于代码,开发者重于一切
    的头像 发表于 05-27 09:23 2770次阅读
    层层剥开开鸿Bot,<b class='flag-5'>我们</b>看到的是“开发者优先”

    GC9A01-TFT屏幕驱动(整理有stm32/51单片机/arduino等驱动代码)

    以及收集整理好的资料,希望可以帮助用户更加简单的学习或快速移植代码进行项目开发。本文将和大家探讨下GC9A01圆型屏幕的驱动
    的头像 发表于 04-25 11:29 1302次阅读
    GC9A01-TFT屏幕驱动(<b class='flag-5'>整理</b>有stm32/51单片机/arduino等驱动代码)

    VIRTUALLAB FUSION应用:光束趾建模

    器。通过比较,我们的结果与文献实验结果完全致。 光束趾中圆锯齿光阑 光束趾在高能激光器和光束传输系统的设计中起着关键作用。由于VirtualLab Fusion高度可定制的环境
    发表于 03-12 09:50

    电话配线架怎么整理好

    要使电话配线架整理得既美观又实用,可以遵循以下步骤和建议: 、前期准备 了解配线架结构: 熟悉电话配线架的类型、结构和功能,确保整理过程中不会对设备造成损害。 断开电源与通信: 在整理
    的头像 发表于 02-19 11:34 927次阅读

    K1 AI CPU基于llama.cpp与Ollama的大模型部署实践

    为了应对大模型(LLM)、AIGC等智能化浪潮的挑战,进迭时空通过AI指令扩展,在RISC-VCPU中注入了原生AI算力。这种具有原生AI能力的CPU,我们称之为AICPU。K1作为进迭时空第
    的头像 发表于 02-18 14:23 1553次阅读
    K1 AI CPU基于<b class='flag-5'>llama</b>.cpp与Ollama的大模型部署实践

    CES 2025 “AI+一切”成为关键趋势

    是中国的企业。尤其是AI技术在各个领域的全面应用,让我们大开眼界的同时,有机会透过这些现代科技看见更美好的未来。 作为 AI 芯片领域的领军者,英伟达 CEO 黄仁勋重磅发布了新代 GeForce RTX 50 系‍列显卡。还首次发布了世界模型 Cosmos Nemot
    的头像 发表于 01-15 10:32 899次阅读

    Meta重磅发布Llama 3.3 70B:开源AI模型的新里程碑

    ​在人工智能领域,Meta的最新动作再次引起了全球的关注。今天,我们见证了Meta发布的 Llama 3.3 70B 模型,这是个开源的人工智能模型,它不仅令人印象深刻,而且在性能上达到了
    的头像 发表于 12-18 16:46 879次阅读
    Meta重磅发布<b class='flag-5'>Llama</b> 3.3 70B:开源AI模型的新里程碑