0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

OpenAI宣布,发布了7.74亿参数GPT-2语言模型

DPVg_AI_era 来源:lq 2019-09-01 09:10 次阅读

OpenAI号称史上最强“通用”NLP模型又有新动作啦!继今年2 月发布了小型1.24亿参数模型GPT-2后,OpenAI宣布发布7.74亿参数GPT-2 模型,15.58亿的完整模型也有望于几个月内发布。

今年2月,OpenAI发布了号称史上最强“通用”NLP模型,它基于Transformer,拥有15亿参数,使用含有800万网页内容的数据集训练,只为一个目的:

根据当前已有的信息,预测下一个单词是什么。

新模型的名字叫GPT-2,是OpenAI去年发布的无监督NLP模型GPT的直接拓展,新模型用到的参数和训练数据,都增长了超过10倍参数数量。

但是OpenAI表示,由于这个新模型过于强大怕被滥用,所以没有全部开源,遭到网友猛怼。

就在本周,OpenAI宣布,发布了7.74亿参数GPT-2语言模型,15.58亿的完整模型也有望于几个月内发布,并将GPT-2这6个月的进展情况在博客上和大家做了介绍,本文将为大家梳理。

OpenAI博客地址:https://openai.com/blog/gpt-2-6-month-follow-up/ GPT-2有多“可怕”?训练1小时相当于烧掉1台顶配版X Max

今年2月,OpenAI宣称他们研究出一个GPT-2的NLP模型,号称“史上最强通用NLP模型”,因为它是:

踩在15亿参数的身体上:爬取了Reddit上点赞超过三票的链接的文本内容,大约用到1000万篇文章,数据体量超过了40G,相当于35000本《白鲸记》。(注:小说约有21万单词,是电影《加勒比海盗》的重要故事参考来源之一。动漫《海贼王》里四皇之一的白胡子海贼团的旗舰就是以故事主角大白鲸的名字Moby Dick命名)。

无需预训练的“zero-shot”:在更通用的数据集基础上,使用自注意力模块迁移学习,不针对任何特定任务的数据进行训练,只是作为最终测试对数据进行评估,在Winograd Schema、LAMBADA以及其他语言建模任务上实现了state-of-the-art 的结果。

最终结果:8个数据集中油7个刷新当前最佳纪录。

下表显示了最先进的zero-shot结果。(+)表示该项分数越高越好。(-)表示分数越低越好。

虽然OpenAI没有在论文中提及具体的计算力及训练时间,但通过公布的数据推测,他们的模型使用了256个谷歌云TPU v3。

TPU v3在Google之外只提供单独使用版本(排除OpenAI可能得到了特别的许可),很可能GPT-2训练时所需的成本将高达8 * 256 = 2048美元/小时,相当于一小时烧掉一台512G的iPhone Xs Max。

然而,OpenAI并没有完全公布GPT-2模型及代码,OpenAI给出的理由是:因为这个模型能力太强大了!他们目前还有点hold不住它。一旦开源后被坏人拿到,将会贻害无穷。有点中国武侠小说里,绝世武功秘籍的意思。

网友吐槽:不公开代码和训练集就干脆别发表!

于是开发者和学者们不干了,纷纷质疑OpenAI这种做法显得心口不一。甚至盛产吐槽大神的Reddit上,有人建议OpenAI干脆改名CloseAI的言论,获得了数百网友的点赞。

OpenAI干脆改名“CloseAI”算了!

我也做了个超强大的MNIST模型,要不要担心它被滥用而不公开呢?

更有甚者,比如下面这位Ben Recht,还发了一条Twitter长文进行嘲讽:

对于种种质疑,OpenAI在最新的博客中进行了回应。 OpenAI在对模型的研究和合作测试中总结出3点

在对模型的研究和合作测试中,OpenAI有3点总结: 1.协调合作很困难,但有可能实现。 到目前为止,我们还没有公开发布15.58亿参数的完整模型,不过已经有不少组织开发了系统来训练模型,并公开讨论如何训练更大的模型。比如来自华盛顿大学的NLP开发人员Hugging Face和艾伦人工智能研究所(AI2)的团队已明确采用了类似的分阶段发布方法。自今年2月以来,我们已经与超过五个复制GPT-2模型的团队进行了交流。 进行这些对话并不容易,因为它涉及专有系统,而且我们并不清楚是讨论这些模型应该找哪些人来交流,以及在不同组织和团队间讨论尚未发布的模型时,合适的流程是什么,等等。 2、通过模型合成的文本可能会让人们感觉更为合理。 我们的合作伙伴Sarah Kreps和Miles McCain在康奈尔大学发表的一项研究表明,人们发现GPT-2合成文本的样本几乎与真人写出的文本具有同样的说服力(测试者中有72%的人认为这些合成的文章是可信的)《纽约时报》上的真实文章得票率为83%。 此外,艾伦研究所和华盛顿大学的研究表明,由名为“GROVER”的AI系统撰写的新闻比人类写的更为合理。这些研究结果使我们在发布语言模型时更加谨慎。 3.检测模型并不是个简单的事。 恶意使用者可以使用各种采样技术(包括拒绝采样)或微调模型来逃避检测。最终部署的检测系统可能需要在各代中都具备极高准确率(99.9%-99.99%)。 我们的研究表明,目前基于机器学习的方法只能达到90% 到95%的准确度,对语言模型进行微调还会进一步降低准确性。这条路真的很有前途,但这个问题也是真的困难。我们认为,文本的统计检测需要辅以人类判断和与文本相关的元数据,以便有效地打击对语言模型的滥用。 OpenAI与其他机构团队的合作

OpenAI与四家领先的研究机构合作,分析了新发布的7.74亿参数的GPT-2模型,以及尚未发布的完整GPT-2模型。我们将一些初步结果写入了技术报告,目前正在分析可能发布的15.58亿参数完整模型的有关问题。此外,还制定了非商用法律协议,以促进组织机构之间的模型共享。 康奈尔大学正在研究人类对语言模型产生的数字虚假信息的敏感性。 米德尔伯里恐怖主义、极端主义和反恐国际研究中心(CTEC)正在探索GPT-2被网络上的恐怖分子和极端分子滥用的情况。 俄勒冈大学在开发一系列“偏差检测器”来分析GPT-2模型中的偏差。 德克萨斯大学奥斯汀分校正在研究在特定领域数据集上进行微调后的GPT-2输出的统计可检测性,以及跨不同语言模型的检测传递程度。 未来,完整模型何时发布? 未来我们将综合考虑以上这些合作伙伴的研究成果,观察当前的7.74亿参数模型的使用情况,并与研究人员和决策者讨论语言模型的制定。作为我们分阶段发布策略的一部分,我们目前的计划是在几个月内发布15.58亿参数的完整GPT-2模型,但如果合作伙伴的调查结果有变,或者当前的模型出现了恶意使用,那么最终的发布时间也可能会变化。 我们认为,分阶段发布、以及基于合作伙伴关系的模型共享,这两点是负责任的AI模型发布的关键基础,在性能强大的生成模型的背景下更是如此。未来,随着时间的推移,大型模型固有的问题将会越来越多,而不是越来越少。我们希望在GPT-2模型上开展的合作会有助于解决这些问题。

大型语言模型存在无法估量的潜在威胁,公开数据需要谨慎再谨慎!

随模型发布的还有一份技术报告,介绍与更广泛的AI研究社区协调发布规范方面的经验。新智元也把重点内容为大家做了总结:

大型语言模型在各个领域具有广泛的用途。例如创建情感分类器、语音识别系统、翻译系统、对话系统,区分由语言模型(尤其是对抗性示例)生成的合成文本和人类创作的文本。

除此之外,在生物医学文献分析、生成综合测试数据、生成放射学报告和脑电图报告等方面的应用对人类健康有着非常大的价值。

在过去六个月内,GPT-2已经被应用在软件工程、文案、艺术、娱乐、健康等多个领域,帮助文字工作者纠正语法、提供灵感,为开发者自动补全代码(例如Deep TabNine),创作音乐(例如OpenAI的MuseNet)等等。

小参数的GPT-2就在这些领域的成功应用,为研究人员发布更大规模参数的模型树立了极大的信心。在此之前,研究人员一直担心GPT-2可能导致无法估量的潜在风险,例如虚假信息、网络暴力等。

研究人员将目前已知的恶意行为分为三个层级:

1. 初、中级。资源有限,可能只是好奇想试着搞点事情 2. 专家级。能力够,资源也不少。例如水军、营销号、垃圾邮件等 3. 大师级。也被称为高级持续性威胁(APT),技能一流,资源充足,能够打硬仗、打持久战

研究人员通过后续监测最终确认,别有用心之人很难具备利用GPT-2掀起滔天巨浪的能力和资源,因此研究人员才敢继续释放更大规模的参数。

而面对大师级的恶意攻击者,数据量的多少,根本不能显著的影响他们为非作歹的意愿和进度。这个时候,正式专业的安防机构体现价值的机会。

OpenAI正在和合作伙伴携手研究应对可能的各种威胁,制定对战策略,加固正义的防线。

语言模型未来的四大趋势

通过进一步的研究,OpenAI希望语言模型能够以更高的输出质量和准确度扩展性能。除了这些模型级别的改进之外,OpenAI还确定了四种趋势,以便以有益和有效的方式理解和塑造语言模型的社会影响。 趋势1:语言模型转移到设备 考虑到计算能力成本的历史趋势,我们可以期待语言模型在一系列设备上得到更广泛的部署。例如,Hugging Face将1.24亿参数GPT-2移植到Swift CoreML中,以便在iOS设备上进行推理。 趋势2:更可控的文本生成 语言模型的潜在用途将随着提高可靠性和/或可控性的发展而增长,例如新的抽样方法、新的数据集、新的目标函数和新的人机界面。 可控性的例子包括: •在GROVER模型中,进行界面修改以引入输出可控性,使得可以输入文章元数据(例如,标题,作者)以生成高质量输出。 •清华大学的ERNIE模型与知识库相结合,促进了比通用语言模型更可控的生成。 •Stanford和FAIR展示了通过更直接地针对高级会话属性(例如重复程度)进行优化来改善聊天机器人性能的潜力。 趋势3:更多风险分析 目前还不清楚如何比较具有不同性能配置文件的两个大型语言模型的误用性(misusability),特别是在考虑微调(fine-tuning)时。一些关键的考虑因素包括在模型的帮助下生成一定质量的文本所需的时间和专业知识,以及不使用模型的情况,尽管随着技术工具的发展,这将随着时间的推移而变化。 趋势4:工具可用性提升 今天,模型的训练和部署需要了解ML技术,使用工具的技能以及访问测试平台以进行评估。稳步改进的与语言模型交互的工具,如Talk to Transformer和Write with Transformer,将扩大能够以各种不同方式使用语言模型的参与者的数量。这些对工具可用性的改进将对模型性能和采样方法的改进起到补充作用,并将使语言模型的创造性应用比我们目前看到的更广泛。

GPT-2时间线梳理

2019年2月

OpenAI首次公布了GPT-2论文以及1.24亿参数的GPT-2模型。

论文: https://d4mucfpksywv.cloudfront.net/better-language-models/language_models_are_unsupervised_multitask_learners.pdf

2019年3月

OpenAI及其合作伙伴举行晚宴讨论发布高风险AI的合适时机: https://www.partnershiponai.org/when-is-it-appropriate-to-publish-high-stakes-ai-research/

2019年5月

发布3.35亿模型,以及大规模模型输出的数据集。

发布检测基线,帮助人们了解如何检测GPT-2等模型的输出。

TalktoTransformer.com网站上线,可以让大众直观体验GPT-2。输入一句话,它会自动为你脑补出一段狗血剧情,下图:

随后一份教程上线。但作者也提醒GPT-2带来的潜在风险不可限量,并举例水军机器人由于GPT-2得到极大的提升。

2019年6月

OpenAI在国会听证会上,讨论关于合成媒体的影响,包括讨论合成文本。

DeepMind讨论了GPT-2及适用于生成模型的出版规范的重要性无监督学习的讨论: https://deepmind.com/blog/article/unsupervised-learning

OpenAI开始与合作伙伴开展研究合作,以制定人工智能研究的出版规范。并尝试与各种各样的人工智能研究组织合作,提出科学家在发布之前可能要问的问题,以及他们可以用来做出版决策的潜在框架。

2019年7月

DeepTabNine基于GPT-2开发代码自动补全应用。

使用自回归Transformer模型生成多圈对话响应:

https://arxiv.org/abs/1908.01841

GLTR:生成文本的统计检测和可视化: https://www.aclweb.org/anthology/P19-3019

2019年8月

科技术项目和剑桥大学的研究人员发表了一篇关于减少合成恶意使用的工作文件媒体研究:机器学习的注意事项和潜在发布实践

论文: https://arxiv.org/abs/1907.11274

初创公司AI21 Labs发布了一个神经文本生成器“HAIM”,他们只发布了该模型的3.45亿参数版本: https://www.ai21.com/haim-post

NVIDIA Research训练了83亿参数GPT-2模型: https://nv-adlr.github.io/MegatronLM

发布了7.74亿参数模型。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 语言模型
    +关注

    关注

    0

    文章

    433

    浏览量

    10043
  • 数据集
    +关注

    关注

    4

    文章

    1178

    浏览量

    24347
  • nlp
    nlp
    +关注

    关注

    1

    文章

    463

    浏览量

    21816

原文标题:史上最强通用NLP模型GPT-2:OpenAI刚又发布7.74亿参数版本

文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    OpenAI预计最快今年夏天发布GPT-5

    OpenAI正计划在未来数月内,可能是今年夏季,发布备受瞩目的GPT-5模型。据悉,部分企业客户已提前体验了OpenAI最新
    的头像 发表于 03-22 10:40 335次阅读

    OpenAI推出ChatGPT新功能:朗读,支持37种语言,兼容GPT-4和GPT-3

    据悉,“朗读”功能支持37种语言,且能够自主识别文本类型并对应相应的发音。值得关注的是,该功能对GPT-4以及GPT-3.5版本的ChatGPT均适用。此举彰显了OpenAI致力于“多
    的头像 发表于 03-05 15:48 269次阅读

    视觉模型weak-to-strong的实现

    几天前,OpenAI「超级对齐」(Superalignment)团队发布了成立以来的首篇论文,声称开辟了对超人类模型进行实证对齐的新研究方向。GPT-2能监督
    的头像 发表于 01-08 11:07 203次阅读
    视觉<b class='flag-5'>模型</b>weak-to-strong的实现

    OpenAI GPT 商店即将亮相,SpaceX 新型 Starlink 卫星发射上天

    大家好,欢迎收看河套 IT WALK 第 135 期。 在 2024 年第一周即将结束之际,OpenAI 宣布即将推出备受期待的 GPT 商店。SpaceX 在卫星通信领域实现了重大突破,成功发射
    的头像 发表于 01-05 21:15 366次阅读
    <b class='flag-5'>OpenAI</b> <b class='flag-5'>GPT</b> 商店即将亮相,SpaceX 新型 Starlink 卫星发射上天

    【飞腾派4G版免费试用】仙女姐姐的嵌入式实验室之五~LLaMA.cpp及3B“小模型”OpenBuddy-StableLM-3B

    和1750亿参数GPT-3都是非常由有竞争力的 MetaAI研究人员认为,当前大模型的高成本阻碍学术研究,因此,开发出这个更小更强的
    发表于 12-22 10:18

    ChatGPT plus有什么功能?OpenAI 发布 GPT-4 Turbo 目前我们所知道的功能

    OpenAI 发布 GPT-4 Turbo 目前我们所知道的功能分析解答 在最近的OpenAI DevDay上,该组织发布了一项备受期待的公
    的头像 发表于 12-13 09:19 595次阅读
    ChatGPT plus有什么功能?<b class='flag-5'>OpenAI</b> <b class='flag-5'>发布</b> <b class='flag-5'>GPT</b>-4 Turbo 目前我们所知道的功能

    OpenAI发布GPT-4 Turbo版本ChatGPT plus有什么功能?

    OpenAIGPT-4 Turbo以前所未有的功能和价格改变人工智能的未来 在人工智能领域的一次里程碑式活动中,OpenAI开发者大会上发布GP
    的头像 发表于 12-05 17:57 1440次阅读
    <b class='flag-5'>OpenAI</b><b class='flag-5'>发布</b>的<b class='flag-5'>GPT</b>-4 Turbo版本ChatGPT plus有什么功能?

    OpenAI发生严重故障 GPT-4 Turbo模型太火爆 ChatGPT停服两小时

    OpenAI发生严重故障 ChatGPT停服两小时 就在前两天OpenAI首届开发者大会广受关注,OpenAI发布了超级重磅的更新,发布
    的头像 发表于 11-09 15:35 801次阅读

    ChatGPT重磅更新 OpenAI发布GPT-4 Turbo模型价格大降2/3

    ChatGPT重磅更新 OpenAI发布GPT-4 Turbo模型价格大降2/3 目前OpenAI算是全球大
    的头像 发表于 11-07 18:20 2156次阅读
    ChatGPT重磅更新 <b class='flag-5'>OpenAI</b><b class='flag-5'>发布</b><b class='flag-5'>GPT</b>-4 Turbo<b class='flag-5'>模型</b>价格大降2/3

    OpenAI最新大模型曝光!剑指多模态,GPT-4之后最大升级!

    目前为止,OpenAI还没有对爆料中的传闻做出回应,但此前发布过多模态模型测试。CEO奥特曼在回应有关GPT-5的传闻时,也暗示过GPT-4
    的头像 发表于 09-20 17:34 852次阅读
    <b class='flag-5'>OpenAI</b>最新大<b class='flag-5'>模型</b>曝光!剑指多模态,<b class='flag-5'>GPT</b>-4之后最大升级!

    chatGPT和GPT4有什么区别

    chatGPT和GPT4有什么区别 GPT(Generative Pre-trained Transformer)系列模型OpenAI公司开发,是一组用于自然
    的头像 发表于 08-09 15:18 1778次阅读

    OpenAI已为GPT-5申请商标,GPT-5要来了?

    OpenAI 此前曾在前几代模型(例如 GPT-4 和 GPT-3.5)的商标申请中,使用过同样的“用于使用语言
    的头像 发表于 08-02 15:51 471次阅读
    <b class='flag-5'>OpenAI</b>已为<b class='flag-5'>GPT</b>-5申请商标,<b class='flag-5'>GPT</b>-5要来了?

    OpenAI宣布GPT-4 API全面开放使用!

    OpenAI 在博客文章中写道:“自 3 月份以来,数百万开发者请求访问 GPT-4 API,并且利用 GPT-4 的创新产品范围每天都在增长。” “我们设想基于对话的模型未来可以支持
    的头像 发表于 07-12 14:55 873次阅读

    最新、最强大的模型GPT-4将向美国政府机构开放

    最新、最强大的模型GPT-4将向美国政府机构开放 此前微软已向其商业客户提供了OpenAI模型,现在微软宣布将向azure governme
    的头像 发表于 06-08 20:15 1213次阅读

    ChatGPT系统开发AI人功智能方案

    ) model:使用那个模型,目前免费版最高的是gpt-3.5-turbo模型 2.相应参数示例 {\"msgtype\": \"text\
    发表于 05-18 10:16