0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NLP 2019 Highlights 给NLP从业者的一个参考

深度学习自然语言处理 来源:深度学习自然语言处理 作者:深度学习自然语言 2020-09-25 16:56 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

自然语言处理专家elvis在medium博客上发表了关于NLP在2019年的亮点总结。对于自然语言处理(NLP)领域而言,2019年是令人印象深刻的一年。在这篇博客文章中,我想重点介绍一些我在2019年遇到的与机器学习和NLP相关的最重要的故事。我将主要关注NLP,但我还将重点介绍一些与AI相关的有趣故事。标题没有特别的顺序。故事可能包括论文,工程工作,年度报告,教育资源的发布等。

论文刊物

ML / NLP创造力与社会

ML / NLP工具和数据集

文章和博客文章

人工智能伦理

ML / NLP教育

Google AI引入了ALBERT,它是BERT 的精简版本,用于自监督学习上下文语言表示。主要改进是减少冗余并更有效地分配模型的容量。该方法提高了12个NLP任务的最新性能。

Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, Radu Soricut:ALBERT: ALiteBERTforSelf-supervised LearningofLanguageRepresentations.ICLR 2020.

Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. NAACL-HLT (1) 2019: 4171-4186
arxiv.org/abs/1810.0480

机器在比赛中的表现(类似sat的阅读理解)。随机猜测的基线得分为25.0。最高分是95.0分。

今年早些时候,NVIDIA的研究人员发表了一篇颇受欢迎的论文(Coined StyleGAN)(arxiv.org/pdf/1812.0494),提出了一种从样式转换中采用的GAN替代生成器架构。这是一项后续工作(arxiv.org/pdf/1912.0495),着重于改进,例如重新设计生成器归一化过程。

Tero Karras, Samuli Laine, Timo Aila:A Style-Based Generator Architecture for Generative Adversarial Networks. CVPR 2019: 4401-4410

Tero Karras, Samuli Laine, Miika Aittala, Janne Hellsten, Jaakko Lehtinen, Timo Aila:Analyzing and Improving the Image Quality of StyleGAN. CoRR abs/1912.04958 (2019)

上排显示目标图像,下排显示合成图像

我今年最喜欢的论文之一是code2seq(code2seq.org/),它是一种从结构化代码表示中生成自然语言序列的方法。这样的研究可以让位于诸如自动代码摘要和文档之类的应用程序。

Uri Alon, Shaked Brody, Omer Levy, Eran Yahav:code2seq: Generating Sequences from Structured Representations of Code. ICLR (Poster) 2019

有没有想过是否有可能为生物医学文本挖掘训练生物医学语言模型?答案是BioBERT(arxiv.org/abs/1901.0874),这是一种从生物医学文献中提取重要信息的情境化方法。

Jinhyuk Lee, Wonjin Yoon, Sungdong Kim, Donghyeon Kim, Sunkyu Kim, Chan Ho So, Jaewoo Kang:BioBERT: a pre-trained biomedical language representation model for biomedical text mining. CoRR abs/1901.08746 (2019)

BERT发布后,Facebook研究人员发布了RoBERTa,该版本引入了新的优化方法来改进BERT,并在各种NLP基准上产生了最新的结果。(ai.facebook.com/blog/-t)

Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, Veselin Stoyanov:RoBERTa: A Robustly Optimized BERT Pretraining Approach. CoRR abs/1907.11692 (2019)

来自Facebook AI的研究人员最近还发布了一种基于全注意力关注层的方法,用于提高Transformer语言模型的效率。从这个研究小组更多的工作包括方法来教如何使用自然语言规划的AI系统。

Sainbayar Sukhbaatar, Edouard Grave, Piotr Bojanowski, Armand Joulin:Adaptive Attention Span in Transformers. ACL (1) 2019: 331-335

可解释性仍然是机器学习和NLP中的重要主题。集大成者!可解释人工智能(XAI)研究最新进展万字综述论文: 概念体系机遇和挑战—构建负责任的人工智能

Alejandro Barredo Arrieta, Natalia Díaz Rodríguez, Javier Del Ser, Adrien Bennetot, Siham Tabik, Alberto Barbado, Salvador García, Sergio Gil-Lopez, Daniel Molina, Richard Benjamins, Raja Chatila, Francisco Herrera:Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI.CoRR abs/1910.10045 (2019)

Sebastian Ruder发表了有关自然语言处理的神经迁移学习的论文

(ruder.io/thesis/)。

Ruder2019Neural,Neural Transfer Learning for Natural Language Processing, Ruder, Sebastian,2019,National University of Ireland, Galway

一些研究人员开发了一种在对话中进行情感识别的方法(arxiv.org/abs/1910.0498),可以为情感对话的产生铺平道路。另一个相关的工作涉及一种称为DialogueGCN(aclweb.org/anthology/D1)的GNN方法,以检测对话中的情绪。该研究论文还提供了代码实现。

Devamanyu Hazarika, Soujanya Poria, Roger Zimmermann, Rada Mihalcea:Emotion Recognition in Conversations with Transfer Learning from Generative Conversation Modeling.CoRR abs/1910.04980 (2019)

Deepanway Ghosal, Navonil Majumder, Soujanya Poria, Niyati Chhaya, Alexander F. Gelbukh:DialogueGCN: A Graph Convolutional Neural Network for Emotion Recognition in Conversation. EMNLP/IJCNLP (1) 2019: 154-164

Google AI Quantum团队在《自然》杂志上发表了一篇论文(nature.com/articles/s41),他们声称自己开发了一种量子计算机,其速度比世界上最大的超级计算机还要快。在此处详细了解他们的实验。

Arute, F., Arya, K., Babbush, R. et al.Quantum supremacy using a programmable superconducting processor.Nature 574, 505–510 (2019) doi:10.1038/s41586-019-1666-5

如前所述,神经网络体系结构需要大量改进的领域之一是可解释性。本论文(arxiv.org/abs/1908.0462)探讨了在语言模型的上下文explainability一个可靠的方法关注的局限性。

Sarah Wiegreffe, Yuval Pinter:Attention is not not Explanation. EMNLP/IJCNLP (1) 2019: 11-20

神经逻辑机器是一种神经符号网络体系结构(arxiv.org/abs/1904.1169),能够很好地在归纳学习和逻辑推理方面做得很好。该模型在诸如排序数组和查找最短路径之类的任务上表现出色。

Honghua Dong, Jiayuan Mao, Tian Lin, Chong Wang, Lihong Li, Denny Zhou:Neural Logic Machines. ICLR (Poster) 2019

神经逻辑机器架构

这是一篇将Transformer语言模型应用于提取和抽象神经类文档摘要的论文(arxiv.org/abs/1909.0318)。

Sandeep Subramanian, Raymond Li, Jonathan Pilault, Christopher J. Pal:OnExtractiveandAbstractiveNeuralDocumentSummarizationwithTransformerLanguageModels.CoRRabs/1909.03186 (2019)

研究人员开发了一种方法,侧重于使用比较来建立和训练ML模型。这种技术不需要大量的特征标签对,而是将图像与以前看到的图像进行比较,以确定图像是否属于某个特定的标签。

blog.ml.cmu.edu/2019/03

Nelson Liu等人发表了一篇论文,讨论了预先训练的语境设定者(如BERT和ELMo)获取的语言知识的类型。

arxiv.org/abs/1903.0885

Nelson F. Liu, Matt Gardner, Yonatan Belinkov, Matthew E. Peters, Noah A. Smith:Linguistic Knowledge and Transferability of Contextual Representations. NAACL-HLT (1) 2019: 1073-1094

XLNet是NLP的一种前训练方法,它在20个任务上都比BERT有改进。我写了一个总结,这伟大的工作在这里。

arxiv.org/abs/1906.0823

Zhilin Yang, Zihang Dai, Yiming Yang, Jaime G. Carbonell, Ruslan Salakhutdinov, Quoc V. Le:XLNet: Generalized Autoregressive Pretraining for Language Understanding. CoRR abs/1906.08237 (2019)

这项来自DeepMind的工作报告了一项广泛的实证调查的结果,该调查旨在评估应用于各种任务的语言理解模型。这种广泛的分析对于更好地理解语言模型所捕获的内容以提高它们的效率是很重要的。

arxiv.org/abs/1901.1137

Dani Yogatama, Cyprien de Masson d'Autume, Jerome Connor, Tomás Kociský, Mike Chrzanowski, Lingpeng Kong, Angeliki Lazaridou, Wang Ling, Lei Yu, Chris Dyer, Phil Blunsom:Learning and Evaluating General Linguistic Intelligence. CoRR abs/1901.11373 (2019)

VisualBERT是一个简单而健壮的框架,用于建模视觉和语言任务,包括VQA和Flickr30K等。这种方法利用了一组Transformer层,并结合了self-attention来对齐文本中的元素和图像中的区域。

arxiv.org/abs/1908.0355

Liunian Harold Li, Mark Yatskar, Da Yin, Cho-Jui Hsieh, Kai-Wei Chang:VisualBERT: A Simple and Performant Baseline for Vision and Language. CoRR abs/1908.03557 (2019)

这项工作提供了一个详细的分析比较NLP转移学习方法和指导NLP的从业者。

arxiv.org/abs/1903.0598

Matthew E. Peters, Sebastian Ruder, Noah A. Smith:To Tune or Not to Tune? Adapting Pretrained Representations to Diverse Tasks.RepL4NLP@ACL 2019: 7-14

Alex Wang和Kyunghyun提出了BERT的实现,能够产生高质量、流畅的表示。

arxiv.org/abs/1902.0409

Facebook的研究人员发表了XLM的代码(PyTorch实现),这是一个跨语言模型的预培训模型。

github.com/facebookrese

本文全面分析了强化学习算法在神经机器翻译中的应用。

cl.uni-heidelberg.de/st

这篇发表在JAIR上的调查论文对跨语言单词嵌入模型的培训、评估和使用进行了全面的概述。

jair.org/index.php/jair

Gradient发表了一篇优秀的文章,详细阐述了强化学习目前的局限性,并提供了一条潜在的分级强化学习的前进道路。一些人发布了一套优秀的教程来开始强化学习。

thegradient.pub/the-pro

这篇简要介绍了上下文词表示。

arxiv.org/abs/1902.0600

责任编辑:xj

原文标题:【前沿】28篇标志性论文见证「自然语言处理NLP」2019->2020年度亮点进展

文章出处:【微信公众号:深度学习自然语言处理】欢迎添加关注!文章转载请注明出处。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 自然语言处理

    关注

    1

    文章

    630

    浏览量

    14724
  • nlp
    nlp
    +关注

    关注

    1

    文章

    491

    浏览量

    23345

原文标题:【前沿】28篇标志性论文见证「自然语言处理NLP」2019->2020年度亮点进展

文章出处:【微信号:zenRRan,微信公众号:深度学习自然语言处理】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    场为嵌入式与边缘AI从业者量身定制的技术盛宴,抢先预约席位!

    各位关注嵌入式与边缘计算的朋友们注意啦,「AI向实生态共融」嵌入式及边缘AI技术生态大会将于4月17日在深圳举办,绝对是你今年不容错过的行业盛会!立即免费报名>>这场大会聚焦嵌入式与边缘AI技术落地,不仅有新趋势、新产品解读,更联合瑞芯微、全志、江波龙、鸿湖万联等重磅生态伙伴,分享前沿方向的实战经验——从技术能力构建到可靠性测试,从平台赋能到生态协同,内容覆
    的头像 发表于 04-01 07:59 124次阅读
    <b class='flag-5'>一</b>场为嵌入式与边缘AI<b class='flag-5'>从业者</b>量身定制的技术盛宴,抢先预约席位!

    4 月 1 日起执行分布式光伏监控新规,直接影响从业者与项目收益

    光伏人注意啦!份关乎分布式光伏行业规范化、智能化发展的重磅国标,即将正式落地实施 ——GB/T 34932-2025《分布式光伏发电系统远程监控技术规范》,将于2026 年 4 月 1 日正式生效
    的头像 发表于 03-20 15:45 219次阅读
    4 月 1 日起执行分布式光伏监控新规,直接影响<b class='flag-5'>从业者</b>与项目收益

    具身智能规模化落地卡在何处?灵境智源正叩响“四扇门”的最后关隘

    当资本的潮水涌向具身智能,当实验室的炫酷demo不断刷新认知,更根本的问题却摆在所有从业者面前:从技术突破到规模化落地,我们究竟被卡在了哪里?是“身体”不够强健,还是“大脑”不够聪明?是工具不够趁手,还是我们仍在“孤岛”中创
    的头像 发表于 03-04 17:28 661次阅读

    人形机器人产业地图:文看清千亿赛道的关键拼图

    当人形机器人从科幻走进现实,其背后是庞大而复杂的产业体系正在快速成型。对于从业者、投资者或任何希望理解这领域的人而言,张清晰的“产业
    的头像 发表于 02-14 21:16 1.2w次阅读

    NVIDIA全新开放物理AI模型和框架加速人形机器人开发

    本文是洞悉 Omniverse 系列文章。“洞悉 Omniverse”重点介绍开发者、3D 从业者与企业如何使用 OpenUSD 和 NVIDIA Omniverse 的最新进展从根本上变革他们的工作流程。
    的头像 发表于 02-06 15:36 791次阅读

    自然语言处理NLP的概念和工作原理

    自然语言处理 (NLP) 是人工智能 (AI) 的分支,它会教计算机如何理解口头和书面形式的人类语言。自然语言处理将计算语言学与机器学习和深度学习相结合来处理语音和文本数据,这些数据也可以与其他类型的数据
    的头像 发表于 01-29 14:01 600次阅读
    自然语言处理<b class='flag-5'>NLP</b>的概念和工作原理

    文读懂:直线模组两滑块距离能否调节?

    直线模组作为自动化设备中的核心传动部件,广泛应用于数控机床、自动化流水线、机器人等各类设备中,其滑块的安装与调节直接影响设备的运行精度和稳定性。不少从事设备安装、调试或选型的从业者都会面临
    的头像 发表于 12-29 15:47 453次阅读
    <b class='flag-5'>一</b>文读懂:直线模组两<b class='flag-5'>个</b>滑块距离能否调节?

    【免费送书】本书吃透千亿产值的EDA产业

    本书以产业史观融合技术洞察,既可作为EDA从业者的行业全景图鉴,也可为政府制定产业政策、投资机构把握赛道机遇、高校培养专业人才提供系统化参考,更是半导体领域研究者不可或缺的产业演进启示录。
    的头像 发表于 12-16 08:08 446次阅读
    【免费送书】<b class='flag-5'>一</b>本书吃透千亿产值的EDA产业

    福田欧曼银河燃气车推动物流行业高价值运输

    在物流行业竞争加剧、运营成本高企的当下,降本增效成为从业者的核心诉求,燃气重卡凭借经济高效的特性,已成为干线运输领域的主流选择。
    的头像 发表于 11-21 14:49 695次阅读

    2025无线遥控开关产品:技术对比与应用方案解析

    本文将基于权威数据平台的研究,对无线遥控开关的技术特点、市场趋势、品牌厂商和应用方案进行深度解析,为行业从业者提供全面、客观的指导参考。
    的头像 发表于 11-14 10:40 659次阅读

    亿纬锂能分享锂电池40年从业者的心声

    11月10日,亿纬锂能董事长刘金成博士应邀出席中国化学会第二十三次全国电化学大会,发表《锂电池40年从业者的心声》主题报告。他以自己四十年的锂电池从业经历,回顾了中国锂电池从艰难起步到引领全球的发展之路,并分享了对于行业未来发展趋势的深刻洞见。
    的头像 发表于 11-11 14:05 1134次阅读

    RFID是啥?从RFID工作原理到实际用处全方位解析

    景,帮你彻底搞懂RFID距离不同的真正原因。无论你是仓储管理、物流从业者,还是科技爱好者,这篇文章都能让你秒懂RFID。
    的头像 发表于 10-13 15:21 4364次阅读
    RFID是<b class='flag-5'>个</b>啥?从RFID工作原理到实际用处全方位解析

    倾佳电子SiC碳化硅功率器件战略市场精通指南:从业者进阶之路

    倾佳电子SiC碳化硅功率器件战略市场精通指南:从业者进阶之路 倾佳电子(Changer Tech)是家专注于功率半导体和新能源汽车连接器的分销商。主要服务于中国工业电源、电力电子设备和新能源
    的头像 发表于 10-09 17:47 913次阅读
    倾佳电子SiC碳化硅功率器件战略市场精通指南:<b class='flag-5'>从业者</b>进阶之路

    使用NVIDIA Cosmos模型提高未来智能汽车安全性

    本文是洞悉 Omniverse 系列文章。“洞悉 Omniverse” 重点介绍开发者、3D 从业者与企业如何使用 OpenUSD 和 NVIDIA Omniverse 的最新进展深入改变他们的工作流。
    的头像 发表于 07-14 11:46 1321次阅读

    网络安全从业者入门指南

    所有网络安全专业和各部门人员都有共同的总体目标,就是要降低网络风险。但是,对于工业、医疗保健、其他以网络化物理系统 (CPS) 为运营基础的关键基础设施领域的企业来说,这目标正在逐步消失。原因之
    发表于 06-20 15:56 1次下载