0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

“中国的ChatGPT”真的要来了吗?

中科曙光 来源:量子位 2023-03-21 10:41 次阅读

席卷全球的新风口

OpenAI去年发布了聊天机器人模型ChatGPT,它能够理解和生成人类语言,并在许多自然语言处理任务中表现非常出色。据统计,上线仅两个月,ChatGPT活跃用户已经超亿,打破了由TikTok创造的9个月实现亿级用户注册的纪录,引起了各行各业人们的强烈关注。就连埃隆·马斯克也忍不住发推表示,ChatGPT厉害得吓人,我们距离危险而强大的AI不远了。当然,在一顿痛批ChatGPT之后,马斯克也准备亲自下场,成立研究实验室,开发ChatGPT的竞品。

类ChatGPT模型的开发与应用,在国内也迅速成为资本市场关注、创业者纷纷入场的赛道。阿里、百度等互联网大厂,科大讯飞等语音类AI企业,以及众多创业者都希望乘着最新的风口迅速“起飞”。创业者大军中不乏像前美团联合创始人王慧文、出门问问CEO李志飞、搜狗前CEO王小川、前京东技术掌门人周伯文等行业大佬。开发出“中国的ChatGPT”俨然成了国内科技圈“All in”的方向。

然而,我们真的能迅速见到一个“中国的ChatGPT”吗?谁又能拔下头筹,成为这个细分赛道的领头羊呢?

这个众多大佬都挤进来“淘金”的赛道,一定不是简简单单就能搞定的。

OpenAI的GPT“家族”

在深入了解开发出比肩ChatGPT的模型需要面临哪些挑战之前,让我们先看下ChatGPT所属的GPT模型家族都有哪些成员。

GPT-1发布于2018年6月,包含117M个参数。这是第一个采用基于Transformer的模型架构进行预训练的模型。它在语言模型和单词类比任务上表现出色。

GPT-2发布于2019年2月,包含1.5B个参数。这个模型在自然语言生成任务上表现出色,可以生成高质量的文章、新闻报道和诗歌等文本。

GPT-3发布于2020年6月,包含175B个参数。具有出色的通用性和创造性,可以在各种 NLP任务上表现出色,包括文本生成、问答、机器翻译等任务。

到这就结束了?完全不是。

在GPT-3系列模型(注意,是一系列模型哦)发布之后,OpenAI继续基于原始的GPT-3进行了不断地完善。我们熟知的InstructGPT和ChatGPT实际的内部代号是text-davinci-003 175B和text-chat-davinci-002-20221122,是基于GPT-3.5的改良版。

d3ec54e6-c4c8-11ed-bfe3-dac502259ad0.png

图:GPT-3模型家族,图片来源:https://lifearchitect.ai/chatgpt/

在InstructGPT的训练中,OpenAI的研究员引入了RLHF(Reinforcement Learning from Human Feedback,人类反馈强化学习)机制。这一训练范式增强了人类对模型输出结果的调节,并且对结果进行了更具理解性的排序。在此基础上,ChatGPT还引入了“无害化”机制,防止模型生成不符合规范或伦理的答案。

d4059762-c4c8-11ed-bfe3-dac502259ad0.png

图:GPT-3、InstructGPT、ChatGPT的“进化路线”

图片来源:https://lifearchitect.ai/chatgpt/

不难看出,ChatGPT的出圈,与OpenAI多年的技术积累是分不开的。国内厂商想要开发出像ChatGPT一样优秀的模型,也绝不是简单依靠拉一波投资,雇一批算法研究员就能马上实现的。

“中国的ChatGPT”面临的挑战

首先,在资金投入方面,在当前的技术水平下,训练一个与ChatGPT这样的大型语言模型相当的模型需要数百万美元的投入。在发布ChatGPT之前,OpenAI可查的融资额已超过20亿美元,也是如此庞大的投资才使OpenAI拥有了多年技术积累。反观绝大多数近期入局的国内企业,即便拥有足够的资金与人员,也大都很难在短期追上OpenAI的步伐。

我们不禁想问,如果要在国内开发出一个类ChatGPT模型,到底会面临哪些技术挑战呢?

为了能了解到最最准确的答案,我们请教了ChatGPT“本人”

d457fc82-c4c8-11ed-bfe3-dac502259ad0.png

1、数据量:需要大量的数据集来进行训练。这些数据集需要是大规模的、多样化的、真实的,并且要涵盖各种不同的语言和语境。这需要花费大量的时间和资源来收集、整理和标注。

2、计算能力:需要非常强大的计算资源。这些模型需要在大规模的数据集上进行训练,并且需要进行大量的参数优化和调整。这些计算需要高性能的计算机和高效的分布式计算框架。

3、 算法优化:需要对算法进行不断的优化和改进。这包括优化网络结构、调整超参数、使用更好的优化算法等。这需要对深度学习算法有深入的了解和经验。

可以发现,这是一个涉及到多个领域和技术的复杂系统工程。只有同时在底层的基础设施、针对性优化和大模型技术积淀都达到一定水平的情况下,才能够研发出高质量的模型,并应用于各种场景中。

让我们详细看看这三类技术挑战具体都意味着什么。

数据量

我们经常听到“有多少数据,就有多少智能”,数据对于模型训练的重要性不言而喻。类ChatGPT模型的训练,更需要超大规模的,经过清洗的数据。以GPT-3的训练为例,需要300B tokens的数据。大家如果对这个数字不敏感的话,可以参考整个英文的维基百科的数据量,只有“相对可怜”的3B tokens,是训练GPT-3所需的百分之一。并且,要训练出类ChatGPT模型,势必需要数倍于当年训练GPT-3的数据量的中文语料数据,这对于大部分企业或科研机构来说都是难以翻越的大山。有效的中文数据量,一定程度上决定了模型性能的上限。

计算能力

类ChatGPT模型的训练,除了需要非常多的训练数据外,也离不开庞大的算力支撑。根据北京智源人工智能研究院公布的数据,使用300B tokens的数据训练175B参数规模(与GPT-3规模相同)的模型,如果使用96台通过200Gb IB网卡互联的DGX-A100节点,需要约50天。要是使用更大规模的训练数据集,训练时长还会进一步增加。

对于计算集群来说,不仅需要能够提供海量的算力资源,还需要具备高速网络和高容量存储,以便支持大规模的数据访问和模型传输。整套基础设施,连同软件平台,还需要结合集群的拓扑结构针对分布式训练进行优化,通过调整并行策略等方式,提升硬件利用率与通讯效率,缩短整体训练时间。

算法优化

算法优化和模型的训练效率和效果息息相关。每一个算法研究员,都希望模型在训练过程中快速收敛,这恰恰也是算法研究人员经验与企业长年技术积累的体现。通常情况下,在训练的过程中需要不断调整学习率、批量大小、层数等超参数,或使用自动调参的技巧和经验,才能快速、稳定的实现模型收敛。就像中餐大厨们用“少许、适量”的调料制作美味佳肴一样,里面包含着的是大厨们几十年的手艺,不是一朝一夕就能被批量复制的。

前途是光明的,道路是曲折的

想必,这是最适合送给现在想要开发出“中国的ChatGPT”的各路大佬们的一句话了。为规避未来的技术风险,不少厂商、科研机构也开始探索在自研算力服务平台上训练的可行性。北京智源人工智能研究院作为国内顶尖的人工智能领域研究机构,早早就探索了使用自研算力服务平台的可能性。同样是使用300B tokens的数据训练175B参数规模的模型,通过曙光提供的算力服务,训练周期只需29.10天,在节点规模接近的情况下,训练效率是其他算力平台的300%。

基于自研算力服务平台进行训练,不可避免的会带来更多的移植与调优工作。曙光智算强大的硬件与算法优化团队,在集群、并行策略、算子、工具包等方面的优化上与智源开展了深入的合作。首先,为保证程序能够正常运行,需要完成包括DeepSpeed/Megatron/Colossal-AI/apex等必要组件的适配工作。其次,程序系统顺利调度通常也需要调整调整操作系统配置及tcp协议参数等。训练的优化工作则主要包含以下三个方面:

算子层面:使用算子融合/算子优化等技术,深度挖掘硬件性能,提升硬件使用率;

策略层面:采用模型并行、数据并行、流水线并行、Zero等多级并行策略,实现超大规模训练;

集群层面:针对硬件的拓扑结构,对分布式训练通信、并行分组配比等进行定制优化,提升训练扩展比。

通过一系列的优化方法,最终也证明了我们可以在自研算力服务平台上,以能够对标国际水平的效率实现大模型的开发工作,这无疑为“中国的ChatGPT”的开发工作喂了一颗定心丸。希望在不久的将来,我们可以看到真正在自研算力平台上训练的,能与ChatGPT比肩的中文模型。

前途一定是光明的。

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 模型
    +关注

    关注

    1

    文章

    2713

    浏览量

    47753
  • ChatGPT
    +关注

    关注

    27

    文章

    1422

    浏览量

    4911

原文标题:“中国的ChatGPT”真的要来了吗?

文章出处:【微信号:sugoncn,微信公众号:中科曙光】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    腾讯突然宣布,微信鸿蒙版要来了

    应用,仅支持鸿蒙内核和系统的应用,被称为 “纯血鸿蒙”而备受关注, 这意味着, 真正的国产手机操作系统要来了 ,而且影响力惊人, 一上线就是仅次于 Android 和 iOS 之后的全球第三大手机操作系统
    发表于 04-30 19:34

    苹果折叠屏iPhone新专利获批 苹果折叠屏手机要来了吗

    苹果折叠屏iPhone新专利获批 苹果折叠屏手机要来了吗? 我们看到苹果公司折叠屏iPhone专利已经获批;果粉都在期待的苹果折叠屏手机要来了吗?新专利也显示苹果已经找到了提升折叠屏耐用耐摔性的方法
    的头像 发表于 04-17 17:05 657次阅读

    在FPGA设计中是否可以应用ChatGPT生成想要的程序呢

    当下AI人工智能崛起,很多开发领域都可看到ChatGPT的身影,FPGA设计中,是否也可以用ChatGPT辅助设计呢?
    发表于 03-28 23:41

    【国产FPGA+OMAPL138开发板体验】(原创)6.FPGA连接ChatGPT 4

    ); FPGA:“问题已发送,等待回复...”(FPGA紧张地搓手) answer = ReceiveFromServer(chatGPT_Server); FPGA:“啊!回复来了!”(FPGA眼睛一亮
    发表于 02-14 21:58

    肖特基二极管,你真的用对了吗

    肖特基二极管,你真的用对了吗
    的头像 发表于 12-07 14:27 269次阅读
    肖特基二极管,你<b class='flag-5'>真的</b>用对<b class='flag-5'>了吗</b>?

    如何使用Rust创建一个基于ChatGPT的RAG助手

    经常会出现一些幻觉,“一本正经”地为我们提供一些错误答案,没有办法为我们提供专业的意见或指导。那我们如何让 ChatGPT 具备某个专业领域的知识,提升回答的正确率,从而让 ChatGPT 真的用起来?比如训练
    的头像 发表于 10-24 17:34 607次阅读
    如何使用Rust创建一个基于<b class='flag-5'>ChatGPT</b>的RAG助手

    摩尔定律的终结真的要来了吗

    英特尔共同创始人戈登·摩尔(Gordon Moore)在今年与世长辞,而他对半导体芯片晶体管密度持续增长的著名预测依旧闻名于世。詹姆斯·麦肯齐(James McKenzie)深入研究了这一60多年来仍然正确的预测,也就是大家所熟知的“摩尔定律”,但同时也提醒人们,这一定律的延续正日益困难,且成本不断攀升。
    的头像 发表于 10-19 10:49 358次阅读
    摩尔定律的终结<b class='flag-5'>真的</b><b class='flag-5'>要来了吗</b>

    ChatGPT真的产生心智了吗ChatGPT是如何产生心智的?

    来自斯坦福大学的最新研究结论,一经发出就造成了学术圈的轰动,“原本认为是人类独有的心智理论(Theory of Mind,ToM),已经出现在ChatGPT背后的AI模型上”。
    的头像 发表于 10-19 09:58 572次阅读
    <b class='flag-5'>ChatGPT</b><b class='flag-5'>真的</b>产生心智<b class='flag-5'>了吗</b>?<b class='flag-5'>ChatGPT</b>是如何产生心智的?

    ChatGPT变聪明了吗?如何计算IGBT器件的工作结温Tvj

    ChatGPT变聪明了吗?如何计算IGBT器件的工作结温Tvj
    的头像 发表于 09-09 08:16 730次阅读
    <b class='flag-5'>ChatGPT</b>变聪明<b class='flag-5'>了吗</b>?如何计算IGBT器件的工作结温Tvj

    ChatGPT真的懂IGBT吗

    ChatGPT是部万宝全书,请鉴定一下她是否缺个角,看看她是在一本正经地胡说八道,还是一位真知灼见的专家。本期是和ChatGPT辩论的第
    的头像 发表于 09-04 16:26 391次阅读
    <b class='flag-5'>ChatGPT</b><b class='flag-5'>真的</b>懂IGBT吗

    华为版ChatGPT要来了吗

    HarmonyOS小艺语音助手可以根据用户需求,自动生成文案等内容。HarmonyOS4将引入多模态交互技术,提供多样化交互方式,包括语音识别、手势控制、触摸屏操作等。
    的头像 发表于 08-03 17:07 1201次阅读

    新能源汽车充电桩费用开始上涨 充电桩价格上涨潮要来了吗

    新能源汽车充电桩费用开始上涨 充电桩价格上涨潮要来了吗 很多买新能源汽车的都是冲着充电便宜,甚至有的新能源汽车一公里不到一毛钱的低价费用,这可比燃油车便宜了不是一点半点,但是现在很多地方的用户都开始
    的头像 发表于 07-19 10:47 1898次阅读

    华为版ChatGPT要来了?华为底层技术不比ChatGPT少 算力没问题

    近日有媒体报道,华为7月7日将发布一款直接对标ChatGPT的多模态千亿级大模型产品,名为“盘古Chat”。 据中国商标网显示,华为技术有限公司于近期申请注册了两枚“HUAWEI NETGPT”商标
    的头像 发表于 06-06 11:57 895次阅读
    华为版<b class='flag-5'>ChatGPT</b><b class='flag-5'>要来了</b>?华为底层技术不比<b class='flag-5'>ChatGPT</b>少 算力没问题

    ChatGPT浪潮下,看中国大语言模型产业发展

    ChatGPT的横空出世拉开了大语言模型产业和生成式AI产业蓬勃发展的序幕。本报告将着重分析“OpenAI ChatGPT的成功之路”、“中国ChatGPT产业发展趋势”、“
    的头像 发表于 06-01 16:49 811次阅读
    <b class='flag-5'>ChatGPT</b>浪潮下,看<b class='flag-5'>中国</b>大语言模型产业发展

    ChatGPT对话语音识别

    ChatGPT
    YS YYDS
    发布于 :2023年05月30日 22:13:10