0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

2023年发布的25个开源大型语言模型总结

颖脉Imgtec 2023-08-01 00:21 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

大型语言模型(llm)是一种人工智能(AI),在大量文本和代码数据集上进行训练。它们可以用于各种任务,包括生成文本、翻译语言和编写不同类型的创意内容。

今年开始,人们对开源LLM越来越感兴趣。这些模型是在开源许可下发布的,这意味着任何人都可以使用、修改和分发它们。这使得研究人员、开发人员和企业都可以尝试LLM,并为它们开发新的应用程序。使用开源llm有很多好处。首先它们通常比专业的LLM更价便宜。并且它们更加透明,这意味着研究人员可以研究它们是如何工作的以及它们是如何做出决定的。最主要的是它们更加灵活,可以针对不同的任务进行定制。

本文总结了当前可用的开源llm的全部(几乎全部)列表,以及有关其许可选项和源代码存储库的信息,希望对你有所帮助。

▎SAIL 7B
基于LLaMa的搜索增强
参数:7B
许可类型:GPL-3.0
发布日期:2023年5月
论文:SAIL — Search Augmented Instruction Learning


▎Guanaco
采用高效微调方法QLoRA发布的LLM模型
参数:65B
许可类型:MIT
发布日期:2023年5月
论文:QLoRA — Efficient Finetuning of Quantized LLMs


▎RMKV
与transformer的LLM性能相当的RNN模型
参数:100M–14B
许可类型:Apache 2.0
发布日期:2023年5月
论文:Scaling RNN to 1.5B and Reach Transformer LM Performance


▎MPT-7B
MosaicML的基础系列模型
参数:7B
许可类型:Apache 2.0
发布日期:2023年5月
论文:MPT-7B — A New Standard for Open-Source, Commercially Usable LLMs


▎OpenLLaMa
在RedPajama数据集上训练的Meta AI的LLaMA 7B的另一个开源复制。
参数:3,7B
许可类型:Apache 2.0
发布日期:2023年5月
论文:Meet OpenLLaMA — An Open-Source Reproduction of Meta AI’s LLaMA Large Language Model


▎RedPajama-INCITE
基于RedPajama数据集上训练的指令调整和聊天Pythia模型。
参数:3B, 7B
许可类型:Apache 2.0
发布日期:2023年5月
论文:RedPajama-INCITE family of models including base, instruction-tuned & chat models


▎h2oGPT
H2O的微调框架和文档问答功能的聊天机器人UI
参数:12B,30B
许可类型:Apache 2.0
发布日期:2023年5月
论文:Building the World’s Best Open-Source Large Language Model:H2O.ai’s Journey


▎FastChat-T5
通过微调Flan-t5-xl对从ShareGPT收集的用户共享对话进行训练的聊天机器人
参数:3B
许可类型:Apache 2.0
发布日期:2023年4月
论文:FastChat-T5 — our compact and commercial-friendly chatbot!


▎GPT4All
用于训练和部署强大的定制llm的完整工具系统
参数:7–13B
许可类型:MIT
发布日期:2023年4月
论文:GPT4All:An ecosystem of open-source on-edge large language models.


▎MiniGPT-4
基于BLIP-2和Vicuna LLM的Visual LLM模型
参数:13B
许可类型:BSD-3-Clause
发布日期:2023年4月
论文:MiniGPT-4 — Enhancing Vision-Language Understanding withAdvanced Large Language Models


▎StableLM
StableLM的LLM模型系列
参数:7B
许可类型:CC BY-NC-SA-4.0
发布日期:2023年4月
论文:Stability AI Launches the First of its StableLM Suite of Language Models


▎BloomZ
通过多任务微调实现跨语言泛化
参数:176B
许可类型:Apache 2.0
发布日期:2023年4月
论文:Cross-lingual Generalization through Multitask Finetuning


▎Dolly
Pythia 12B LLM在Databricks ML平台上训练的模型
参数:12B
许可类型:Apache 2.0
发布日期:2023年4月
论文:Free Dolly — Introducing the World’s First Truly Open Instruction-Tuned LLM


▎Baize Chatbot
基于LLaMa的开源聊天模型
参数:30B
许可类型:GPL-3.0 license
发布日期:2023年4月
论文:Baize — An Open-Source Chat Model with Parameter-Efficient Tuning on Self-Chat Data


▎ColossalChat
由ColossalAI开源发布的一个完整的RLHF流程训练的模型
参数:N/A
许可类型:Apache 2.0
发布日期:2023年4月
论文:ColossalChat — An Open-Source Solution for Cloning ChatGPT With a Complete RLHF Pipeline


▎Lit LLaMa
来自Lightning AI的LLaMA的开源实现
参数:13B
许可类型:Apache 2.0
发布日期:2023年4月
论文:Why We’re Building Lit-LLaMA


▎Cerebras-GPT
开放的,计算效率高的,大型语言模型
参数:111M-13B
许可类型:Apache 2.0
发布日期:2023年3月
论文:Cerebras-GPT — Open Compute-Optimal Language ModelsTrained on the Cerebras Wafer-Scale Cluster


▎Open Flamingo
Deepmind的Flamingo模型的开源实现
参数:9B
许可类型:MIT License
发布日期:2023年3月
论文:Openflamingo — An Open-source Framework For Training Vision-language Models With In-context Learning


▎Chat GLM
使用开放式双语(中英文)双向密集预训练模型
参数:6B-130B
许可类型:Apache 2.0
发布日期:2023年3月
论文:GLM-130B:An Open Bilingual Pre-trained Model


▎DLite
通过微调Alpaca数据集上最小的GPT-2模型
参数:124M
许可类型:Apache 2.0
发布日期:2023年3月
论文:Introducing DLite, a Lightweight ChatGPT-Like Model Based on Dolly


▎Alpaca 7B
描述:斯坦福大学发布的指令遵循LLaMA模型
参数:7B
许可类型:Apache 2.0
发布日期:2023年3月
论文:Alpaca — A Strong, Replicable Instruction-Following Model


▎Flan UL2
在预训练的UL2检查点上训练Flan 20B模型。
参数:20B
许可类型:MIT License
发布日期:2023年3月
论文:A New Open Source Flan 20B with UL2


▎Flan-T5
T5在各种数据集上的指令微调,提高预训练语言模型的可用性
参数:60M–11B
许可类型:Apache 2.0
发布日期:2023年2月
论文:Scaling Instruction-Finetuned Language Models


总结

最后再补充2个刚刚发布的模型,一个是llama-2,这个我们文章也在前几天介绍了微调和使用的方法。另外一个就是昨天刚看到的新闻,stabilityai发布的 FreeWilly2,它是在 Llama2 70B 上微调的结果,目前在open_llm_leaderboard上排第一。开源大型语言模型正在迅速发展,开源社区发布了许多模型。这些模型为开发人员、研究人员和爱好者提供了一个非常大机会,可以在没有专有系统的情况下试验尖端的语言技术。随着越来越多的组织和个人为这些模型的发展做出贡献,我们可以期待看到更强大、更容易使用和更创新的语言模型,它们将塑造自然语言处理的未来。

作者:Manikanth

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 语言
    +关注

    关注

    1

    文章

    97

    浏览量

    24756
  • 开源
    +关注

    关注

    3

    文章

    4033

    浏览量

    45570
  • 模型
    +关注

    关注

    1

    文章

    3649

    浏览量

    51713
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    今日看点:象帝先推出首款量产Imagination DXD GPU显卡;小米汽车累计交付突破 50 万台

    ,能够同时处理文本与图像信息,使车辆能够“看见”周围环境,并基于所感知的内容做出决策。   该新模型基于英伟达此前推出的 Cosmos-Reason 推理模型构建,后者具备在响应前对决策进行逻辑推演的能力。英伟达最初于2025
    发表于 12-02 10:24 697次阅读

    openDACS 2025 开源EDA与芯片赛项 赛题七:基于大模型的生成式原理图设计

    , ASPDAC\'2017, DAC\'2017最佳论文提名。2018获国家自然科学基金委优青项目资助。 3. 赛题背景 随着人工智能技术的迅猛发展,特别是深度学习与自然语言处理领域的持续突破,大型预训练
    发表于 11-13 11:49

    NVIDIA ACE现已支持开源Qwen3-8B小语言模型

    为助力打造实时、动态的 NPC 游戏角色,NVIDIA ACE 现已支持开源 Qwen3-8B 小语言模型(SLM),可实现 PC 游戏中的本地部署。
    的头像 发表于 10-29 16:59 1016次阅读

    OpenAI发布2款开源模型

    OpenAI开源了两款高性能权重语言模型gpt-oss-120b和gpt-oss-20b,OpenAI CEO Sam Altman表示:「gpt-oss 发布了!我们做了一
    的头像 发表于 08-06 14:25 882次阅读

    面壁小钢炮模型MiniCPM4.0发布,端侧智能更进一步

      电子发烧友网报道(文/李弯弯)20256月6日,面壁智能CEO李大海在北京智源大会上发布有史以来最具想象力的面壁小钢炮模型MiniCPM4.0,代号“前进四”,开源
    的头像 发表于 06-08 08:18 6759次阅读
    面壁小钢炮<b class='flag-5'>模型</b>MiniCPM4.0<b class='flag-5'>发布</b>,端侧智能更进一步

    重磅更新 | 先楫半导体HPM_APPS v1.9.0发布

    重磅更新 | 先楫半导体HPM_APPS v1.9.0发布
    的头像 发表于 05-13 11:29 1357次阅读
    重磅更新 | 先楫半导体HPM_APPS v1.9.0<b class='flag-5'>发布</b>

    小白学大模型:从零实现 LLM语言模型

    在当今人工智能领域,大型语言模型(LLM)的开发已经成为一热门话题。这些模型通过学习大量的文本数据,能够生成自然
    的头像 发表于 04-30 18:34 1062次阅读
    小白学大<b class='flag-5'>模型</b>:从零实现 LLM<b class='flag-5'>语言</b><b class='flag-5'>模型</b>

    开源本身可以替代大型科技公司吗?

    迁移。 在荷兰,我们说苹果和梨不能相提并论,但这并不完全正确。两者都是所谓的手工水果,一硬一点,另一软一点。 但拿开源技术与大型技术相比,就好比拿烤箱与餐厅相比。
    的头像 发表于 04-30 16:49 492次阅读

    无法在OVMS上运行来自Meta的大型语言模型 (LLM),为什么?

    无法在 OVMS 上运行来自 Meta 的大型语言模型 (LLM),例如 LLaMa2。 从 OVMS GitHub* 存储库运行 llama_chat Python* Demo 时遇到错误。
    发表于 03-05 08:07

    小白学大模型:训练大语言模型的深度指南

    在当今人工智能飞速发展的时代,大型语言模型(LLMs)正以其强大的语言理解和生成能力,改变着我们的生活和工作方式。在最近的一项研究中,科学家们为了深入了解如何高效地训练
    的头像 发表于 03-03 11:51 1211次阅读
    小白学大<b class='flag-5'>模型</b>:训练大<b class='flag-5'>语言</b><b class='flag-5'>模型</b>的深度指南

    模型训练:开源数据与算法的机遇与挑战分析

    最近,开源中国 OSCHINA、Gitee 与 Gitee AI 联合发布了《2024 中国开源开发者报告》。 报告聚焦 AI 大模型领域,对过去一
    的头像 发表于 02-20 10:40 997次阅读
    大<b class='flag-5'>模型</b>训练:<b class='flag-5'>开源</b>数据与算法的机遇与挑战分析

    语言模型的解码策略与关键优化总结

    本文系统性地阐述了大型语言模型(LargeLanguageModels,LLMs)中的解码策略技术原理及其实践应用。通过深入分析各类解码算法的工作机制、性能特征和优化方法,为研究者和工程师提供了全面
    的头像 发表于 02-18 12:00 1074次阅读
    大<b class='flag-5'>语言</b><b class='flag-5'>模型</b>的解码策略与关键优化<b class='flag-5'>总结</b>

    2024AI开发者中间件工具生态全面总结

    最近,开源中国 OSCHINA、Gitee 与 Gitee AI 联合发布了《2024 中国开源开发者报告》。 报告聚焦 AI 大模型领域,对过去一
    的头像 发表于 02-14 09:45 1065次阅读

    2024AI编程技术与工具发展总结

    最近,开源中国 OSCHINA、Gitee 与 Gitee AI  联合发布了《2024 中国开源开发者报告》 。 报告聚焦 AI 大模型领域,对过去一
    的头像 发表于 02-13 09:11 1480次阅读
    2024<b class='flag-5'>年</b>AI编程技术与工具发展<b class='flag-5'>总结</b>

    Meta重磅发布Llama 3.3 70B:开源AI模型的新里程碑

    新的高度。 一,技术突破:开源智能的新高度 Llama 3.3 70B 模型发布,标志着开源AI模型在智能水平上的一大飞跃。它不仅达到了之
    的头像 发表于 12-18 16:46 882次阅读
    Meta重磅<b class='flag-5'>发布</b>Llama 3.3 70B:<b class='flag-5'>开源</b>AI<b class='flag-5'>模型</b>的新里程碑