0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

下一代AI将是什么样子?

我快闭嘴 来源:贤集网 作者:贤集网 2020-10-19 10:51 次阅读

人工智能领域发展迅速。距离2012年ImageNet竞赛的深度学习的现代时代仅仅8年了。自那时以来,该领域的进步令人震惊。不仅如此,今后五年内,人工智能领域将与今天大不相同。当前被认为是最先进的方法将已经过时;刚刚出现或处于边缘的方法或将成为主流。

下一代人工智能将是什么样子?哪种新颖的AI方法将释放当前在技术和业务方面难以想象的可能性?AI中的三个新兴领域,将在未来的几年中重新定义社会。

1.无监督学习

当今AI世界中最主要的范例是有监督的学习。在监督学习中,AI模型从数据集中学习人类根据预定义类别进行策划和标记的过程。(术语“监督学习”源于人类“监督者”预先准备数据的事实。)

在过去的十年中,尽管从无人驾驶汽车到语音助手,有监督的学习已经推动了AI的显着进步,但它仍然存在着严重的局限性。

手动标记成千上万个数据点的过程可能非常昂贵且繁琐。在机器学习模型提取数据之前,人们必须手动标记数据这一事实已成为AI的主要瓶颈。

在更深层次上,有监督的学习代表了一种狭窄的,受限制的学习形式。受监督的算法不仅无法探索和吸收给定数据集中的所有潜在信息,关系和含义,而且仅针对研究人员提前确定的概念和类别。相反,无监督学习是一种AI方法,其中算法无需人工提供标签或指导即可从数据中学习。

许多AI领导者将无监督学习视为人工智能的下一个前沿领域。用AI传奇人物Yann LeCun的话说:“下一场AI革命将不会受到监督。” 加州大学伯克利分校的教授吉滕达·马利克(Jitenda Malik)更加生动地说:“标签是机器学习研究人员的鸦片。”

无监督学习如何工作?

简而言之,系统会根据世界的其他部分来了解世界的某些部分。通过观察实体的行为,实体之间的模式以及实体之间的关系(例如,文本中的单词或视频中的人物),系统引导了对其环境的整体理解。一些研究人员用“从其他事物中预测所有事物”来概括这一点。

无监督学习更紧密地反映了人类学习世界的方式:通过开放式探索和推理,不需要监督学习的“训练轮”。它的基本优点之一是,世界上总是会比未标记的数据多得多(并且前者更容易获得)。

用LeCun的话来说,他喜欢密切相关的术语“自我监督学习”:“在自我监督学习中,一部分输入被用作监视信号,以预测输入的其余部分。可以通过自我监督学习而不是[其他AI范式]来学习有关世界结构的知识,因为数据是无限的,每个示例提供的反馈量很大。”

无监督学习已经在自然语言处理中产生了变革性的影响。NLP得益于一种新的无监督的学习架构,即Transformer,最近取得了令人难以置信的进步,该架构始于Google大约三年前。

将无监督学习应用于AI的其他领域的努力仍处于早期阶段,但是正在取得快速进展。举个例子,一家名为Helm.ai的初创公司正在寻求利用无监督学习来超越自动驾驶汽车行业的领导者。

许多研究人员将无监督学习视为开发人类级AI的关键。LeCun认为,掌握无监督学习是“未来几年ML和AI面临的最大挑战。”

2.联合学习

数字时代的主要挑战之一是数据隐私。由于数据是现代人工智能的命脉,因此数据隐私问题在AI的发展轨迹中扮演着重要的角色(并且通常是限制性的)。

保持隐私的人工智能(使AI模型能够从数据集中学习而不损害其隐私的方法)正变得日益重要。保持隐私的AI的最有前途的方法也许是联合学习。

联邦学习的概念最早由Google的研究人员于2017年初提出。在过去的一年中,对联邦学习的兴趣激增:到2020年的前六个月,发表了1,000多篇关于联邦学习的研究论文,而只有180篇在所有2018年。

如今,构建机器学习模型的标准方法是将所有训练数据收集到一个地方(通常在云中),然后在数据上训练模型。但是,这种方法对于世界上的许多数据都不可行,由于隐私和安全原因,这些数据无法移至中央数据存储库。这使其成为传统AI技术的禁区。

联合学习通过颠覆传统的AI方法解决了这个问题。

联合学习并不需要一个统一的数据集来训练模型,而是将数据保留在原处,并分布在边缘的众多设备和服务器上。取而代之的是,将模型的许多版本发送到一个带有训练数据的设备,每个模型都在每个数据子集上进行本地训练。然后将生成的模型参数(而不是训练数据本身)发送回云。当所有这些“微型模型”汇总在一起时,结果便是一个整体模型,其功能就像是一次在整个数据集上进行训练一样。

最初的联合学习用例是针对分布在数十亿移动设备上的个人数据训练AI模型。正如这些研究人员总结的那样:“现代移动设备可以访问大量适用于机器学习模型的数据。。.。但是,这些丰富的数据通常对隐私敏感,数量庞大或两者兼而有之,因此可能无法登录到数据中心……我们提倡一种替代方案,将培训数据保留在移动设备上,并通过汇总本地计算的更新来学习共享模型。”

最近,医疗保健已成为联邦学习应用中特别有前途的领域。

不难理解原因。一方面,医疗保健中有大量有价值的AI用例。另一方面,医疗保健数据,尤其是患者的个人可识别信息,非常敏感。像HIPAA这样的法规丛书限制了它的使用和移动。联合学习可以使研究人员能够开发挽救生命的医疗保健AI工具,而无需从源头转移敏感的健康记录或使它们暴露于隐私泄露中。

涌现出许多初创公司,致力于医疗保健中的联合学习。最有名的是总部位于巴黎的Owkin;早期阶段的参与者包括Lynx.MD,Ferrum Health和Secure AI Labs。

除了医疗保健,联邦学习有一天可能会在任何涉及敏感数据的AI应用程序的开发中发挥中心作用:从金融服务到自动驾驶汽车,从政府用例到各种消费产品。与差分隐私和同态加密之类的其他隐私保护技术搭配使用,联合学习可以提供释放AI巨大潜力的关键,同时减轻数据隐私这一棘手的挑战。

今天全球范围内颁布的数据隐私立法浪潮(从GDPR和CCPA开始,许多类似的法律即将出台)只会加速对这些隐私保护技术的需求。期望联邦学习在未来几年中将成为AI技术堆栈的重要组成部分。

3.变形金刚

我们已经进入了自然语言处理的黄金时代。

OpenAI发行的GPT-3是有史以来功能最强大的语言模型,今年夏天吸引了技术界。它为NLP设定了新的标准:它可以编写令人印象深刻的诗歌,生成有效的代码,撰写周到的业务备忘录,撰写有关自身的文章等等。

GPT-3只是一系列类似架构的NLP模型(Google的BERT,OpenAI的GPT-2,Facebook的RoBERTa等)中最新的(也是最大的),它们正在重新定义NLP的功能。

推动语言AI革命的关键技术突破是Transformer。

在2017年具有里程碑意义的研究论文中介绍了变压器。以前,最新的NLP方法都基于递归神经网络(例如LSTM)。根据定义,递归神经网络按顺序显示数据-即一次显示一个单词。

变形金刚的一项伟大创新是使语言处理并行化:在给定文本主体中的所有标记都是同时而不是按顺序分析的。为了支持这种并行化,变形金刚严重依赖于称为注意力的AI机制。注意使模型能够考虑单词之间的关系,而不论它们之间有多远,并确定段落中的哪些单词和短语对于“注意”最为重要。

为什么并行化如此有价值?因为它使Transformers的计算效率大大高于RNN,这意味着可以在更大的数据集上对它们进行训练。GPT-3训练了大约5,000亿个单词,由1,750亿个参数组成,这使现有的RNN显得微不足道。

迄今为止,由于GPT-3等型号的成功应用,变压器几乎只与NLP相关联。但是就在本月,发布了一篇突破性的新论文,该论文成功地将Transformers应用于计算机视觉。许多AI研究人员认为,这项工作可以预示计算机视觉的新时代。

尽管像Google和Facebook这样的领先AI公司已经开始将基于Transformer的模型投入生产,但大多数组织仍处于将该技术产品化和商业化的初期阶段。OpenAI已宣布计划通过API将GPT-3进行商业访问,这可能会为在其上构建应用程序的整个初创企业生态系统注入种子。

从自然语言开始,期望Transformers在未来的几年中将成为整个新一代AI功能的基础。过去十年来人工智能领域令人兴奋,但事实证明,这仅仅是未来十年的前奏。
责任编辑:tzh

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    87

    文章

    26439

    浏览量

    264036
  • 人工智能
    +关注

    关注

    1776

    文章

    43845

    浏览量

    230590
  • 自动驾驶
    +关注

    关注

    773

    文章

    13032

    浏览量

    163203
收藏 人收藏

    评论

    相关推荐

    DPU技术赋能下一代AI算力基础设施

    4月19日,在以“重构世界 奔赴未来”为主题的2024中国生成式AI大会上,中科驭数作为DPU新型算力基础设施代表,受邀出席了中国智算中心创新论坛,发表了题为《以网络为中心的AI算力底座构建之路》主题演讲,勾勒出在通往AGI之路上,DPU技术赋能
    的头像 发表于 04-20 11:31 379次阅读

    三星电子已开始与Naver合作开发下一代AI芯片Mach-2

    三星电子与Naver合作开发下一代AI芯片Mach-2,这一举措标志着两家公司在人工智能领域的深度合作进一步加强。
    的头像 发表于 04-18 14:40 328次阅读

    NVIDIA的专用AI平台如何推动下一代医疗健康行业的发展

    医疗科技创新企业在 GTC 上介绍了 NVIDIA 的专用 AI 平台如何推动下一代医疗健康行业的发展。
    的头像 发表于 04-09 10:10 554次阅读

    英伟达的下一代AI芯片

    根据英伟达(Nvidia)的路线图,它将推出其下一代black well架构很快。该公司总是先推出一个新的架构与数据中心产品,然后在几个月后公布削减的GeForce版本,所以这也是这次的预期。
    的头像 发表于 03-08 10:28 399次阅读
    英伟达的<b class='flag-5'>下一代</b><b class='flag-5'>AI</b>芯片

    苹果正努力为下一代iPhone搭载更强大的AI技术

    苹果公司正致力于在下一代iPhone上实现更强大的本地人工智能技术。近日,苹果收购了一家专注于AI视频压缩技术的初创公司WaveOne,此举进一步证明了苹果在AI领域的投入和决心。
    的头像 发表于 01-25 16:46 401次阅读

    在发生超范围情况时,ADC的输出数据是什么样子

    在发生超范围情况时,ADC的输出数据是什么样子
    发表于 12-21 06:20

    高通下一代智能PC计算平台名称确定:骁龙X系列

    骁龙X系列平台基于高通在CPU、GPU和NPU异构计算架构领域的多年经验打造。目前,采用下一代定制高通Oryon CPU的骁龙X系列将实现性能和能效的显著提升,此外其所搭载的NPU将面向生成式AI新时代提供加速的终端侧用户体验。
    的头像 发表于 10-11 11:31 416次阅读

    网络下一代企业存储:NVMe结构

    电子发烧友网站提供《网络下一代企业存储:NVMe结构.pdf》资料免费下载
    发表于 08-28 11:39 0次下载
    网络<b class='flag-5'>下一代</b>企业存储:NVMe结构

    Chiplet的未来会是什么样子呢?

    Chiplet的未来会是什么样子呢?它们可能会改变半导体行业的结构,将其从摩尔定律的束缚和少数代工厂的霸权中解放出来吗?或者,就像之前的薄膜混合物和multi-die封装一样,可能会分散到几个应用领域,风险和成本都是可控的。
    的头像 发表于 08-03 09:01 699次阅读

    NVIDIA推动中国下一代车辆发展

    NVIDIA推动中国下一代车辆发展
    的头像 发表于 08-01 14:52 600次阅读

    利用下一代处理器实现物联网未来

    利用下一代处理器实现物联网未来演讲ppt分享
    发表于 07-14 17:15 0次下载

    数据中心 AI 加速器:当前一代和下一代

    数据中心 AI 加速器:当前一代和下一代演讲ppt分享
    发表于 07-14 17:15 0次下载

    下一代硅光子技术会是什么样子

    下一代硅光子技术会是什么样子
    的头像 发表于 07-05 14:48 365次阅读
    <b class='flag-5'>下一代</b>硅光子技术会是<b class='flag-5'>什么样子</b>?

    下一代硅光子技术会是什么样子

    也指日可待。需要什么才能将硅光子器件的出货量从数百万增加到数十亿?下一代硅光子技术会是什么样子?硅光子应用面临的集成和制造瓶颈有哪些共同点?哪些新兴技术可以解决这些问题? 这篇观点文章试图回答这些问题。我们绘
    的头像 发表于 06-14 11:31 612次阅读
    <b class='flag-5'>下一代</b>硅光子技术会是<b class='flag-5'>什么样子</b>

    AI服务器需求强劲!工业富联:已着手开发下一代AI服务器

    电子发烧友网报道(文/李弯弯)日前,工业富联举行2022年度股东大会,工业富联董事周泰裕在会上表示,工业富联已着手开发下一代AI服务器,并将和客户合作进行AI Cloud data center
    的头像 发表于 06-09 11:59 1477次阅读