0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

谷歌发布语言模型PaLM2,突破3.6万亿个令牌的训练数量

电子热友 2023-05-18 11:15 次阅读

人工智能AI技术的应用,是目前很大领域比较重视的部分,而至这个领域的谷歌也拥有不小的实力,就在近日,谷歌最新发布的语言模型PaLM2就具备很强的竞争力。

据悉,令牌是指训练大语言模型所使用的单词串,它们对于教导模型如何预测字符串中可能出现的下一个单词至关重要。

而在去年发布的上一代模型PaLM仅使用了7800亿个令牌,而PaLM2则提升到了3.6万亿个令牌。同时PaLM2在编程、数学和创意写作方面表现更为优秀,得益于其庞大的训练数据。而这些也将有效提升用户的工作效率,减轻工作量。

另据报道,PaLM2是基于3400亿个参数进行训练的,而初始版本的PaLM则基于5400亿个参数,而这也造就PaLM2比现有的任何模型都更加强大。

该模型采用了一种名为“计算机优化扩张”的新技术,使得大语言模型具备更高的效率和整体性能,包括加快推理速度、减少参数调用和降低服务成本。

相信随着社会科技的进步,Ai技术的应用也将给我们的生活带来诸多的变化。

以上源自互联网,版权归原作所有

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 谷歌
    +关注

    关注

    27

    文章

    5862

    浏览量

    103269
  • 人工智能
    +关注

    关注

    1776

    文章

    43899

    浏览量

    230646
收藏 人收藏

    评论

    相关推荐

    谷歌发布用于辅助编程的代码大模型CodeGemma

    谷歌发布了用于辅助编程的代码大模型 CodeGemma。CodeGemma 基于谷歌今年 2 月发布的轻量级开源大
    的头像 发表于 04-17 16:07 149次阅读
    <b class='flag-5'>谷歌</b><b class='flag-5'>发布</b>用于辅助编程的代码大<b class='flag-5'>模型</b>CodeGemma

    【书籍评测活动NO.30】大规模语言模型:从理论到实践

    TOP1的桂冠,可想大家对本书的认可和支持! 这本书为什么如此受欢迎?它究竟讲了什么?下面就给大家详细~~ 本书主要内容 本书围绕大语言模型构建的四主要阶段——预训练、有监督微调、
    发表于 03-11 15:16

    谷歌模型框架是什么软件?谷歌模型框架怎么用?

    谷歌模型框架通常指的是谷歌开发的用于机器学习和人工智能的软件框架,其中最著名的是TensorFlow。TensorFlow是一个开源的机器学习框架,由谷歌的机器学习团队开发,用于构建和
    的头像 发表于 03-01 16:25 245次阅读

    谷歌模型训练软件有哪些?谷歌模型训练软件哪个好?

    谷歌模型训练方面提供了一些强大的软件工具和平台。以下是几个常用的谷歌模型训练软件及其特点。
    的头像 发表于 03-01 16:24 280次阅读

    谷歌模型训练软件有哪些功能和作用

    谷歌模型训练软件主要是指ELECTRA,这是一种新的预训练方法,源自谷歌AI。ELECTRA不仅拥有BERT的优势,而且在效率上更胜一筹。
    的头像 发表于 02-29 17:37 398次阅读

    谷歌交互世界模型重磅发布

    谷歌模型
    北京中科同志科技股份有限公司
    发布于 :2024年02月28日 09:13:06

    谷歌推出新一代大模型Gemini 1.5

    近日,谷歌在无预警的情况下发布了其下一代大模型——Gemini 1.5,这款模型在性能上实现了显著增强,并在长上下文理解方面取得了令人瞩目的突破
    的头像 发表于 02-20 13:55 331次阅读

    【飞腾派4G版免费试用】仙女姐姐的嵌入式实验室之五~LLaMA.cpp及3B“小模型”OpenBuddy-StableLM-3B

    训练是MetaAI研究人员认为的一种降低模型使用成本的方式。为了更好的效果,即便是LLaMA最小的70亿参数的版本,其训练使用的tokens数量也有1
    发表于 12-22 10:18

    腾讯发布混元大语言模型

    腾讯发布混元大语言模型 腾讯全球数字生态大会上腾讯正式发布了混元大语言模型,参数规模超千亿,预
    的头像 发表于 09-07 10:23 854次阅读

    训练语言模型带来的硬件挑战

    生成式AI和大语言模型(LLM)正在以难以置信的方式吸引全世界的目光,本文简要介绍了大语言模型训练这些
    的头像 发表于 09-01 17:14 1118次阅读
    <b class='flag-5'>训练</b>大<b class='flag-5'>语言</b><b class='flag-5'>模型</b>带来的硬件挑战

    开放加速规范AI服务器的设计方法

    当前语言模型的参数量已达千亿以上,训练数据集的规模也达到了TB级别。业界典型的自然语言模型
    的头像 发表于 09-01 14:57 1168次阅读
    开放加速规范AI服务器的设计方法

    盘古大模型数量有多少

    来获得专业级的语言处理能力。该模型是目前最大的中文预训练语言模型,其参数量超过2.6十亿,实现了
    的头像 发表于 08-17 11:28 2064次阅读

    谷歌的Med PaLM 2或将更擅长医疗保健对话

    /google-ai-palm-2-language-model-bard-io)的PaLM 2的变体。PaLM 2是支撑谷歌Bard的语言
    的头像 发表于 07-20 16:24 480次阅读

    如何计算transformer模型的参数量

    参数规模大,训练数据规模大。以GPT3为例,GPT3的参数量为1750亿,训练数据量达到了570GB。进而,训练大规模语言
    的头像 发表于 07-10 09:13 7439次阅读
    如何计算transformer<b class='flag-5'>模型</b>的参<b class='flag-5'>数量</b>

    【机器视觉】欢创播报 | 谷歌发布人工智能语言模型PaLM 2

    1 谷歌发布人工智能语言模型PaLM 2 在11日凌晨的谷歌I/O大会上,
    的头像 发表于 05-11 13:40 513次阅读