0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

谷歌Transformer大进化 机翻最强王者上线

DR2b_Aiobservat 来源:yxw 2019-06-18 10:26 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

谷歌Evolved Transformer通过AutoML技术进行特定任务定制,在编码器和解码器模块底部的卷积层以分支模式运行,提高了语言建模的性能,目前在机器翻译领域可以达到最先进的结果。

Transformer是一种AI架构,最早是在2017年Google的科学家合著的论文《Attention Is All You Need》中介绍的,它比较擅长撰写散文和产品评论、合成声音、以古典作曲家的风格制作和声。

但是,谷歌的一个研究小组认为它可以更进一步使用AutoML技术,根据特定任务进行定制翻译。在一篇新发表的论文和博客中,研究人员描述了工作成果:与原始的Transformer相比,现在的Transformer既达到了最先进的翻译结果,也提高了语言建模的性能。

目前,他们已经发布了新的模型Evolved Transformer——开放源代码的AI模型和数据集库,来作为Tensor2Tensor(谷歌基于tensorflow新开源的深度学习库,该库将深度学习所需要的元素封装成标准化的统一接口,在使用其做模型训练时可以更加的灵活)的一部分。

一般意义上,AutoML方法是从控制器训练和评估质量的随机模型库开始,该过程重复数千次,每次都会产生新的经过审查的机器学习架构,控制器可以从中学习。最终,控制器开始为模型组件分配高概率,以便这些组件在验证数据集上更加准确,而评分差的区域则获得较低的概率。

研究人员称,使用AutoML发现Evolved Transformer需要开发两种新技术,因为用于评估每种架构性能的任务WMT'14英德语翻译的计算成本很高。

第一种是通过暖启动(warm starting)的方式,将初始模型填充为Transformer架构进行播种,而不采用随机模型,有助于实现搜索。第二种渐进式动态障碍(PDH)则增强了搜索功能,以便将更多的资源分配给能力最强的候选对象,若模型“明显不良”,PDH就会终止评估,重新分配资源。

通过这两种技术,研究人员在机器翻译上进行大规模NAS,最终找到了Evolved Transformer。

(Evolved Transformer架构)

那么Evolved Transformer有什么特别之处呢?

与所有深度神经网络一样,Evolved Transformer包含神经元(函数),这些神经元从输入数据中传输“信号,并缓慢调整每个连接的突触强度(权重),这是模型提取特征和学习进行预测的方式。此外,Evolved Transformer还能使每个输出元件连接到每个输入元件,并且动态地计算它们之间的权重。

与大多数序列到序列模型一样,Evolved Transformer包含一个编码器,它将输入数据(翻译任务中的句子)编码为嵌入(数学表示)和一个解码器,同时使用这些嵌入来构造输出(翻译)。

但研究人员也指出,Evolved Transformer也有一些部分与传统模型不同:在编码器和解码器模块底部的卷积层以分支模式运行,即在合并到一起时,输入需要通过两个单独的的卷积层。

虽然最初的Transformer仅仅依赖于注意力,但Evolved Transformer是一种利用自我关注和广泛卷积的优势的混合体。

(原始Transforme与Evolved Transformer的性能对比)

在测试中,研究人员将Evolved Transformer与原始Transformer在模型搜索期间使用的英德翻译任务进行了比较,发现前者在BLEU(评估机器翻译文本质量的算法)和Perplexity(衡量概率分布预测样本的程度)上性能更好。

在较大的数据中,Evolved Transformer达到了最先进的性能,BLEU得分为29.8分。在涉及不同语言对和语言建模的翻译实验中,Evolved Transformer相比于原始Transformer的性能提升了两个Perplexity。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 谷歌
    +关注

    关注

    27

    文章

    6244

    浏览量

    110250
  • AI
    AI
    +关注

    关注

    89

    文章

    38090

    浏览量

    296505
  • 机器翻译
    +关注

    关注

    0

    文章

    141

    浏览量

    15466
  • Transformer
    +关注

    关注

    0

    文章

    154

    浏览量

    6812

原文标题:谷歌Transformer大进化,机翻最强王者上线

文章出处:【微信号:Aiobservation,微信公众号:人工智能观察】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    Transformer如何让自动驾驶变得更聪明?

    ]自动驾驶中常提的Transformer本质上是一种神经网络结构,最早在自然语言处理里火起来。与卷积神经网络(CNN)或循环神经网络(RNN)不同,Transformer能够自动审视所有输入信息,并动态判断哪些部分更为关键,同时可以将这些重要信息有效地关联起来。
    的头像 发表于 11-19 18:17 1900次阅读

    谷歌云发布最强自研TPU,性能比前代提升4倍

    电子发烧友网报道(文/李弯弯)近日,谷歌云在官方博客上正式宣布,公司成功推出第七代TPU(张量处理器)“Ironwood”,该芯片预计在未来几周内正式上市。   “Ironwood”由谷歌自主
    的头像 发表于 11-13 07:49 8103次阅读
    <b class='flag-5'>谷歌</b>云发布<b class='flag-5'>最强</b>自研TPU,性能比前代提升4倍

    从收音到新能源:铝电解电容如何跟着电子设备 “进化” 了半个世纪?

    从矿石收音的沙沙声到智能手机的流畅触控,电子设备的进化史背后隐藏着一支"无声功臣"——铝电解电容器。这种诞生于1921年的电子元件,如同电子工业的"活化石",在百年间经历了三次技术革命,其进化轨迹
    的头像 发表于 08-15 15:38 576次阅读
    从收音<b class='flag-5'>机</b>到新能源:铝电解电容如何跟着电子设备 “<b class='flag-5'>进化</b>” 了半个世纪?

    自动驾驶中Transformer大模型会取代深度学习吗?

    [首发于智驾最前沿微信公众号]近年来,随着ChatGPT、Claude、文心一言等大语言模型在生成文本、对话交互等领域的惊艳表现,“Transformer架构是否正在取代传统深度学习”这一话题一直被
    的头像 发表于 08-13 09:15 3916次阅读
    自动驾驶中<b class='flag-5'>Transformer</b>大模型会取代深度学习吗?

    AlphaEvolve有望革新AI玩具芯片设计,算法进化驱动能效与成本双突破

    电子发烧友网综合报道,近期,谷歌 DeepMind发布了一款AlphaEvolve,是一款通用科学AI代理,基于大语言模型Gemini系列与进化计算框架,专注于算法发现与优化。可以支持数百行代码
    的头像 发表于 06-18 00:09 3490次阅读

    Transformer架构中编码器的工作流程

    编码器是Transformer体系结构的基本组件。编码器的主要功能是将输入标记转换为上下文表示。与早期独立处理token的模型不同,Transformer编码器根据整个序列捕获每个token的上下文。
    的头像 发表于 06-10 14:27 821次阅读
    <b class='flag-5'>Transformer</b>架构中编码器的工作流程

    Transformer架构概述

    由于Transformer模型的出现和快速发展,深度学习领域正在经历一场翻天覆地的变化。这些突破性的架构不仅重新定义了自然语言处理(NLP)的标准,而且拓宽了视野,彻底改变了AI的许多方面。
    的头像 发表于 06-10 14:24 947次阅读
    <b class='flag-5'>Transformer</b>架构概述

    日立建MES制造执行系统正式上线

    日前,日立建(中国)有限公司MES制造执行系统上线动员大会在安徽合肥隆重召开。日立建中国区管理层、项目关键用户及湃睿科技项目团队共同出席了本次会议。系统于2025年5月20日正式运行,开启智能管理新征程。
    的头像 发表于 06-04 14:10 762次阅读

    谷歌地图GPS定位

    谷歌地图GPS定位:精准导航背后的技术解析 谷歌地图作为全球最受欢迎的地图服务之一,其精准的GPS定位功能为用户提供了极大便利。本文将深入探讨谷歌地图如何利用GPS技术,实现高精度定位,并带来革命性
    的头像 发表于 05-29 16:54 916次阅读

    快手上线鸿蒙应用高性能解决方案:数据反序列化性能提升90%

    近日,快手在Gitee平台上线了鸿蒙应用性能优化解决方案“QuickTransformer”,该方案针对鸿蒙应用开发中广泛使用的三方库“class-transformer”进行了深度优化,有效提升
    发表于 05-15 10:01

    快手上线鸿蒙应用高性能解决方案

    近日,快手在Gitee平台上线了鸿蒙应用性能优化解决方案“QuickTransformer”,该方案针对鸿蒙应用开发中广泛使用的三方库“class-transformer”进行了深度优化,有效提升
    的头像 发表于 05-14 09:11 972次阅读
    快手<b class='flag-5'>上线</b>鸿蒙应用高性能解决方案

    集特17.3英寸上式加固工业便携GDC-7001

    在工业自动化、移动办公及特殊环境作业领域,对设备的便携性、耐用性和性能提出了更高要求。集特智能推出的GDC-7001上式加固工业便携,凭借其高可靠性、灵活配置及国产化技术生态,成为国产工业计算设备中的标杆产品。以下从设计、性能、应用场景等多维度展开介绍。
    的头像 发表于 02-18 16:44 546次阅读

    如何使用MATLAB构建Transformer模型

    Transformer 模型在 2017 年由 Vaswani 等人在论文《Attentionis All You Need》中首次提出。其设计初衷是为了解决自然语言处理(Nature
    的头像 发表于 02-06 10:21 5720次阅读
    如何使用MATLAB构建<b class='flag-5'>Transformer</b>模型

    transformer专用ASIC芯片Sohu说明

    2022年,我们打赌说transformer会统治世界。 我们花了两年时间打造Sohu,这是世界上第一个用于transformer(ChatGPT中的“T”)的专用芯片。 将transformer
    的头像 发表于 01-06 09:13 1675次阅读
    <b class='flag-5'>transformer</b>专用ASIC芯片Sohu说明

    AI眼镜形态席卷可穿戴市场!谷歌眼镜几次“流产”,将靠AI

      电子发烧友网报道(文/莫婷婷)在ChatGPT进化史上,绕不开的一家厂商是谷歌。2024年12月,谷歌发布 Gemini 2.0,该产品被称为登顶AI巅峰、秒杀ChatGPT O1。始终走在AI
    的头像 发表于 12-26 00:12 4116次阅读