0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

微软正式发布一个27亿参数的语言模型—Phi-2

AI科技大本营 来源:CSDN 2023-12-14 15:45 次阅读

先后和 OpenAI、Meta 牵手推动大模型发展的微软,也正在加快自家小模型的迭代。就在今天,微软正式发布了一个 27 亿参数的语言模型——Phi-2。这是一种文本到文本的人工智能程序,具有出色的推理和语言理解能力。

同时,微软研究院也在官方 X 平台上如是说道,“Phi-2 的性能优于其他现有的小型语言模型,但它足够小,可以在笔记本电脑或者移动设备上运行”

Phi-2 的性能真能优于大它 25 倍的模型?

对于Phi-2 的发布,微软研究院在官方公告的伊始便直言,Phi-2 的性能可与大它 25 倍的模型相匹配或优于。

这也让人有些尴尬的事,不少网友评价道,这岂不是直接把 Google 刚发的 Gemini 最小型号的版本给轻松超越了?

9143919c-9a54-11ee-8b88-92fbcf53809c.png

那具体情况到底如何?

微软通过时下一些如 Big Bench Hard (BBH)、常识推理(PIQA、WinoGrande、ARC easy 和 Challenge、SIQA)、语言理解(HellaSwag、OpenBookQA、MMLU(5-shot)、 SQuADv2、BoolQ)、数学(GSM8k)和编码(HumanEval)等基准测试,将 Phi-2 与 7B 和 13B 参数的 Mistral 和 Llama-2 进行了比较。

最终得出仅拥有 27 亿个参数的 Phi-2 ,超越了 Mistral 7B 和 Llama-2 7B 以及 13B 模型的性能。值得注意的是,与大它 25 倍的 Llama-2-70B 模型相比,Phi-2 还在多步推理任务(即编码和数学)上实现了更好的性能。

914e0758-9a54-11ee-8b88-92fbcf53809c.png

此外,如上文所提及的,微软研究人员也直接在基准测试中放上了其与Google 全新发布的 Gemini Nano 2 正面PK 的结果,不出所料,Phi-2尽管尺寸较小,但性能还是把Gemini Nano 2 超了。

91580fa0-9a54-11ee-8b88-92fbcf53809c.png

除了这些基准之外,研究人员似是在暗讽 Google 前几日在Gemini 演示视频中造假一事,因为当时 Google 称其即将推出的最大、最强大的新人工智能模型 Gemini Ultra 能够解决相当复杂的物理问题,并且甚至纠正学生的错误。

事实证明,尽管 Phi-2 的大小可能只是 Gemini Ultra 的一小部分,但它也能够正确回答问题并使用相同的提示纠正学生。

9163d164-9a54-11ee-8b88-92fbcf53809c.png

微软的改进

Phi-2 小模型之所以有如此亮眼的成绩,微软研究院在博客中解释了原因。

一是提升训练数据的质量。Phi-2 是一个基于 Transformer 的模型,其目标是预测下一个单词,它在 1.4T 个词组上进行了训练,这些词组来自 NLP 和编码的合成数据集和网络数据集,包括科学、日常活动和心理理论等用于教授模型常识和推理的内容。Phi-2 的训练是在 96 个 A100 GPU 上耗时 14 天完成的。

其次,微软使用创新技术进行扩展,将其知识嵌入到 27 亿参数 Phi-2 中。

微软指出,Phi-2 是一个基础模型,没有通过人类反馈强化学习(RLHF)进行调整,也没有经过指导性微调。尽管如此,与经过对齐的现有开源模型相比,微软观察到在毒性和偏差方面,Phi-2 有更好的表现。

917381cc-9a54-11ee-8b88-92fbcf53809c.png

写在最后

话说 Phi-2 的发布的确在小模型的性能上实现了突破,不过也有媒体发现它还存在很大的局限性。

因为根据微软研究许可证显示,其规定了 Phi -2 只能用于“非商业、非创收、研究目的”,而不是商业用途。因此,想要在其之上构建产品的企业就不走运了。






审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 编码器
    +关注

    关注

    41

    文章

    3364

    浏览量

    131560
  • OpenAI
    +关注

    关注

    8

    文章

    763

    浏览量

    5918
  • 大模型
    +关注

    关注

    2

    文章

    1542

    浏览量

    1137

原文标题:只有 27 亿参数,微软发布全新 Phi-2 模型!

文章出处:【微信号:AI科技大本营,微信公众号:AI科技大本营】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    NVIDIA加速微软最新的Phi-3 Mini开源语言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微软最新的 Phi-3 Mini 开源语言模型。TensorRT-LLM 是一个开源库,用于优化从 PC 到云端的
    的头像 发表于 04-28 10:36 97次阅读

    微软发布phi-3AI模型,性能超越GPT-3.5

    微软称,带有38亿参数phi-3-mini经过3.3万亿token的强化学习,其基础表现已经超过Mixtral 8x7B及GPT-3.5;此外,该模型可在手机等移动设备上运行,并在
    的头像 发表于 04-23 14:32 200次阅读

    微软下架最新大语言模型WizardLM-2,缘因“幻觉测试疏忽”

    对此,微软技术人员在X平台发表声明,表示因对新模型发布流程不够了解,且忽略了幻觉测试环节,导致模型被紧急下线。目前,开发团队正在全力以赴进行测试,预计完成后将尽快重新上线。
    的头像 发表于 04-22 14:15 112次阅读

    昆仑万维发布新版MoE大语言模型天工2.0

    昆仑万维科技今日震撼发布全新升级的「天工2.0」MoE大语言模型以及配套的新版「天工AI智能助手」APP。此次更新标志着国内首个搭载MoE架构的千亿级参数
    的头像 发表于 02-06 16:19 828次阅读

    商汤科技发布新一代大语言模型书生·浦语2.0

    1月17日,商汤科技与上海AI实验室联合香港中文大学和复旦大学正式发布新一代大语言模型书⽣·浦语2.0(InternLM2)。
    的头像 发表于 01-17 15:03 388次阅读
    商汤科技<b class='flag-5'>发布</b>新一代大<b class='flag-5'>语言</b><b class='flag-5'>模型</b>书生·浦语2.0

    优于10倍参数模型微软发布Orca 2 LLM

    微软发布 Orca 2 LLM,这是 Llama 2 的一个调优版本,性能与包含 10 倍参数模型相当,甚至更好。
    的头像 发表于 12-26 14:23 289次阅读

    【飞腾派4G版免费试用】仙女姐姐的嵌入式实验室之五~LLaMA.cpp及3B“小模型”OpenBuddy-StableLM-3B

    预训练语言模型。该模型最大的特点就是基于以较小的参数规模取得了优秀的性能,根据官网提供的信息,LLaMA的模型包含4
    发表于 12-22 10:18

    微软宣布推出一个27亿参数语言模型Phi-2

    Phi-2微软 “小语言模型(SLM)” 系列中的最新版本。第一个版本是拥有 13 亿参数Phi
    发表于 12-15 09:46 161次阅读
    <b class='flag-5'>微软</b>宣布推出一个<b class='flag-5'>27</b>亿<b class='flag-5'>参数</b>的<b class='flag-5'>语言</b><b class='flag-5'>模型</b><b class='flag-5'>Phi-2</b>

    微软Phi-2 2.7B性能领先谷歌Gemini Nano-2 3.2B

    今年九月份,微软又进一步推出了Phi-1.5版,尽管依旧仅含13亿元参数,但已可创作诗歌、电子邮件及故事,甚至可以对大量文本进行总结概括。在常识、语言理解以及推理的基准测试中,该版本的
    的头像 发表于 12-13 11:05 531次阅读

    语言模型简介:基于大语言模型模型全家桶Amazon Bedrock

    本文基于亚马逊云科技推出的大语言模型与生成式AI的全家桶:Bedrock对大语言模型进行介绍。大语言模型
    的头像 发表于 12-04 15:51 411次阅读

    浪潮信息发布源2.0基础大模型,千亿参数全面开源

    11月27日,浪潮信息发布"源2.0"基础大模型,并宣布全面开源。源2.0基础大模型包括1026亿、518亿、21亿等三种参数规模的
    的头像 发表于 11-28 09:10 466次阅读
    浪潮信息<b class='flag-5'>发布</b>源2.0基础大<b class='flag-5'>模型</b>,千亿<b class='flag-5'>参数</b>全面开源

    腾讯发布混元大语言模型

    腾讯发布混元大语言模型 腾讯全球数字生态大会上腾讯正式发布了混元大语言模型
    的头像 发表于 09-07 10:23 852次阅读

    盘古大模型参数量有多少

    来获得专业级的语言处理能力。该模型是目前最大的中文预训练语言模型,其参数量超过2.6十亿,实现了对超过60亿字的语料库的理解和生成。 该
    的头像 发表于 08-17 11:28 2061次阅读

    微软韦青:“大语言模型”之于人类,新启蒙时代的思考

    日前,由微软和湛庐合办的以 GPT 将如何改变世界为主题的新书共读会上,有关以 GPT 为代表的 大语言模型 提升社会生产力,打破传统人机交互模式的话题引起了与会者的广泛思考。 作为一种重要的推动力
    的头像 发表于 07-12 00:10 411次阅读
    <b class='flag-5'>微软</b>韦青:“大<b class='flag-5'>语言</b><b class='flag-5'>模型</b>”之于人类,新启蒙时代的思考

    微软发布 Azure Linux 正式版

    服务(AKS)的开源容器主机操作系统,它针对 Azure 进行了优化,旨在使开发人员更容易使用微软的工具来部署和管理容器工作负载。Azure Linux 源于微软的 CBL-Ma
    发表于 05-28 08:34