0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

2018年ML/AI领域最重要的进展是什么?

jmiy_worldofai 来源:lq 2018-12-26 14:56 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

这一年都有哪些重要进展呢?2018年即将过去,一些大牛也给出了自己的看法。

刚刚,前Quora技术VP、AI领域技术专家Xavier Amatriain在Quora上回答了一个相关的问题:2018年ML/AI领域最重要的进展是什么?

他在答案中给出了4个方面:

答案发布之后,便引发了大量围观,Quora上点赞近400,Yann LeCun也在Twitter上转发推荐。

当然,答案不仅仅只有这4句话,Amatriain也都给出了解释。

炒作降温

2017年,是AI炒作无所不在的一年。最突出的,就是马斯克和扎克伯格等各方大佬就AI对于人类是福是祸进行了隔空论战。这些论战为AI赚足了注意力。

Amatriain表示,与2017年相比,我们好像冷静下来了。一个主要的原因可能是这些大佬们忙于处理其他事情了。

比如Facebook深陷数据与隐私旋涡,麻烦事情不断。马斯克也历经特斯拉生产地狱,度过了艰难的一年。

与此同时,虽然很多人都认为自动驾驶以及类似的技术正在向前发展,但就目前事故不断的情况,所谓的“明天”,还有很远。

更关注具体问题

相对于AI是福是祸的讨论,2018年对AI的关注也开始变得愈加务实了。

首先是公平性。2018年,对公平性的讨论,并不仅仅限于发表一些论文或者言论。谷歌还上线了相应的课程。

谷歌推出针对AI歧视的新课程!60分钟的ML公平自学训练模块 | 资源

其次是可解释性和因果关系。因果关系之所以重新成为了人们关注的焦点,主要是因为图灵奖得主、贝叶斯网络之父Judea Pearl出版了《The Book of Why》一书,在Twitter上引发了关于因果关系的大讨论。

而且,ACM Recsys上获得最佳论文奖的论文,也探讨了如何在嵌入中包含因果关系的问题。

讨论也不仅仅限于学界,大众媒体《大西洋月刊》也发表文章指出,这是对现有人工智能方法的“挑战”。

虽然因果关系引发了不少的讨论,但也有许多学者认为,从某种程度上来说, 因果关系其实分散了人们对理论的关注,应该关注更加具体的问题,比如模型的可解释性。

其中最具代表性的,就是华盛顿大学Marco Tulio Ribeiro等人发表的论文,这篇论文是对著名的LIME(一种解释任何机器学习分类器的预测的技术)模型的跟进。

论文链接:

https://homes.cs.washington.edu/~marcotcr/aaai18.pdf

深度学习在NLP领域大放异彩

2018年,深度学习依旧受到了质疑。CMU学者Simon DeDeo在Twitter上猛烈炮轰Google Brain团队,称这技术(机器学习)现在所做的事情,跟1990年没什么差别,顶多就是规模更大,但并没有给我们带来比20年前更深刻的见解。

“Google只认钱!机器学习20年没进步”,CMU学者开炮

Amatriain说,深度学习等技术并没有止步不前,还有很多领域没有运用相关的技术。具体来说,深度学习在计算机视觉之外的领域取得了前所未有的成功。

最为突出的就是NLP领域。谷歌的Smart Compose(Gmail中智能预测拼写神经网络)和Duplex对话系统(会打电话的AI),可以说是2018年最令人印象深刻的两个AI应用了。

NLP领域的进展,也不仅仅只体现在应用上。在语言模型上也有了很大的进步。最大的功臣是Fast.ai的UMLFit,推广了相关的概念与想法。

然后是其他的方法,比如艾伦研究所的ELMo、OpenAI的Transformers、谷歌最近的BERT等等,都取得了非常好的效果。

它们提供了即用型的预训练和通用模型,可以针对特定任务微调。因此,这些模型的出现,也被描述为“NLP的Imagenet时刻”。

除了这些之外,还有其他一些进步,比如Facebook的多语言嵌入。而且,我们也看到了这些方法被整合到通用的NLP框架中的速度变得非常快了,比如AllenNLP或Zalando的FLAIR。

关于NLP领域的总结,还有一篇文章,推荐给你阅读:

围绕着数据改进,深度学习领域仍然有非常有趣的进展。

比如说,对于深度学习非常关键的数据扩充(data augmentation)在今年有了新的进展。谷歌发布了auto-augment,一种深度强化学习方法,可以自动扩充训练数据。

一个更加极端想法是用合成数据训练深度学习模型,许多人都认为这是AI未来发展的关键。英伟达在《Training Deep Learning with Synthetic Data》论文中提出了一些新的想法。

论文链接:

https://arxiv.org/abs/1804.06516

在《Learning from the Experts》一文中,展示了如何使用专家系统合成数据。

论文链接:

https://arxiv.org/abs/1804.08033

最后,还有一种方法是“weak supervision”,可以减少对大量手工标注数据的需求。Snorkel是一个非常有趣的项目,想要提供了一个通用的框架,来推进这种方法。

项目地址:

https://blog.acolyer.org/2018/08/22/snorkel-rapid-training-data-creation-with-weak-supervision/amp/?__twitter_impression=true

Amatriain说,就AI领域更为基础的突破,今年并没有看到太多。

但他不同意Hinton的看法,即认为缺乏创新是因为这个领域年轻人太多,资深的人太少。

在他看来,缺乏突破的主要原因是,现有的方法仍旧有许多地方可以应用,因此很少有人去冒险近尝试不切实际的想法。尤其是当前大多数研究都是由大公司资助的,让这一特点更加突出了。

不过,还是有一些人在尝试,代表性的论文有两篇。

论文链接:

https://arxiv.org/pdf/1803.01271.pdf

虽然这篇论文是高度实验性的,并且使用的是已知的方法,但它打开了新方法的大门。因为它证明了现有的最佳方法,并不是最好的。

论文链接:

https://arxiv.org/abs/1806.07366

这篇论问是最近NeurIPS最佳论文获得者,它挑战了深度学习中的一些基本内容,包括层本身的概念。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    90

    文章

    38225

    浏览量

    297081
  • 深度学习
    +关注

    关注

    73

    文章

    5591

    浏览量

    123926
  • nlp
    nlp
    +关注

    关注

    1

    文章

    491

    浏览量

    23198

原文标题:2018年ML/AI重大进展有哪些?LeCun推荐了这篇回答

文章出处:【微信号:worldofai,微信公众号:worldofai】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    你相信光吗?| Samtec助力AI/ML系统拓扑中的光连接

    AI/ML硬件领域的这些创新,催生了一项日益迫切的需求:扩展GPU及其他AI加速器的规模,以应对最新、最大型的大语言模型。而实现GPU的大规模互联,离不开光连接技术,这正是Samt
    的头像 发表于 11-13 15:03 1550次阅读
    你相信光吗?| Samtec助力<b class='flag-5'>AI</b>/<b class='flag-5'>ML</b>系统拓扑中的光连接

    【「AI芯片:科技探索与AGI愿景」阅读体验】+AI的科学应用

    和关联性 AI驱动科学:研究和模拟人类思维和认识过程。 本章节作者为我们讲解了第五范式,介绍了科学发现的一般方法和流程等。一、科学发现的5个范式 第一范式:产生于公元1000左右的阿拉伯世界和欧洲
    发表于 09-17 11:45

    【「AI芯片:科技探索与AGI愿景」阅读体验】+可期之变:从AI硬件到AI湿件

    保持停滞的情况下,依照目前计算机的能耗效率,至少还需要30的努力才接近其水准,见图1所示。 图1 大脑与计算机的能量效率对比 图2 类脑芯片的前瞻性研究领域AI湿件 为此,一些想法超前的科学家
    发表于 09-06 19:12

    探索AI工厂的创收潜力

    “首次价值实现时间”是 AI 开发领域最重要的指标之一。
    的头像 发表于 05-29 14:21 778次阅读

    【「零基础开发AI Agent」阅读体验】+ 入门篇学习

    工程、RAG技术、和AI Agent是3个重要方面。其中AI Agent作为2024最新兴的技术领域,具备很好的应用前景,本书对零基础小白
    发表于 05-02 09:26

    百度在AI领域的最新进展

    近日,我们在武汉举办了Create2025百度AI开发者大会,与全球各地的5000多名开发者,分享了百度在AI领域的新进展
    的头像 发表于 04-30 10:14 1107次阅读

    NanoEdge AI Studio 面向STM32开发人员机器学习(ML)技术

    NanoEdge™ AI Studio*(NanoEdgeAIStudio)是一种新型机器学习(ML)技术,可以让终端用户轻松享有真正的创新成果。只需几步,开发人员便可基于最少量的数据为其项目创建
    的头像 发表于 04-22 11:09 1002次阅读
    NanoEdge <b class='flag-5'>AI</b> Studio 面向STM32开发人员机器学习(<b class='flag-5'>ML</b>)技术

    AIML如何重塑电子制造业

    随着工业4.0的到来,人工智能(AI)和机器学习(ML)不仅仅是流行词,它们正在重塑制造业。这场科技的浪潮,特别在电子制造领域,带来了令人惊叹的突破和机遇。在以数据驱动决策,以人为本理念的推动下,先进的制造技术使电子制造业正变得
    的头像 发表于 04-17 14:49 821次阅读

    爱立信与软银在AI-RAN集成领域重要进展

    爱立信与软银(SoftBank)近日宣布,双方在AI-RAN集成领域的持续联合研发合作取得了里程碑式的进展与成果,并同意签署谅解备忘录以进一步扩展双方的合作。该合作旨在探索人工智能与无线接入网络技术的融合。
    的头像 发表于 03-17 17:13 1.3w次阅读

    Linux系统中最重要的三个命令

    Linux三剑客是Linux系统中最重要的三个命令,它们以其强大的功能和广泛的应用场景而闻名。这三个工具的组合使用几乎可以完美应对Shell中的数据分析场景,因此被统称为Linux三剑客。
    的头像 发表于 03-03 10:37 811次阅读

    当我问DeepSeek AI爆发时代的FPGA是否重要?答案是......

    提供了更高的能效比,这对于构建高效和可持续的AI解决方案至关重要。 • 适应不断发展的AI算法:AI领域的技术发展迅速,算法不断更新。FPG
    发表于 02-19 13:55

    SPEC ML基准测试新增模算效率指标

    近日,国际标准性能评估组织SPEC宣布了AI基准测试SPEC ML的最新进展。此次更新标志着SPEC ML基准测试在面向不同AI负载下的软硬
    的头像 发表于 01-15 14:28 772次阅读

    微软与重要伙伴深化AI领域技术合作

    专场活动,展示微软最新的智能云与AI产品解决方案,及生态合作伙伴的创新应用。立足于消费电子行业企业加速拓展全球机遇的迫切需求,微软携手众多知名厂商带来前瞻趋势洞察与实践案例,探索如何应对出海挑战。在本届CES上,微软还与重要伙伴等共同宣布深化
    的头像 发表于 01-09 16:41 1227次阅读

    芯科科技携手见证AI+IoT融合的重要进展

    的多个重要应用领域如智能家居、智能表计、楼宇自动化、工业物联网、智能零售、位置服务、边缘智能(Edge AI)等市场取得不俗的成绩。随着人工智能与物联网的加速融合发展,芯科科技也在xG24、xG26等多款SoC和MCU产品中均集
    的头像 发表于 12-31 09:22 824次阅读

    富士通预测2025AI领域的发展趋势

    过去一中,人工智能技术飞速发展,在各行各业都收获了巨大进展。面对即将到来的2025,富士通技术研发团队的专家对AI领域的发展趋势进行了展
    的头像 发表于 12-27 11:23 1403次阅读