0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

人工智都会中毒 那人脸支付还安全吗?

ss 来源:今日头条 作者:IT刘小虎 2021-04-22 17:15 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

对于人类来说,下图是非常容易分辨的三类动物:鸟、狗、马。但是在人工智能机器学习算法眼里,这三种动物可能是一样的:一个黑边白色小方块。

这个例子表明了机器学习模型的一个危险特征,我们可以轻易的使用一些小伎俩强迫它对数据进行错误分类。例如在上图中的右下角放置一个黑边白色小方块(可以让它小到不会被轻易发觉,此处把它放大是为了便于观察以阐述问题)。

上面是一个典型的数据中毒例子,这是一种特殊类型的对抗性攻击,专门针对机器学习或深度学习模型的攻击技术,如果应用成功,恶意攻击者可以获得进入机器学习或深度学习模型的后门,使他们能够绕过人工智能算法控制的系统。

数据中毒

什么是机器学习?

机器学习的神奇之处在于它能够执行硬性规则无法轻易表明的任务。例如,当我们人类辨认上图中的狗时,我们的大脑经历了一个复杂的过程,有意识和下意识地考虑到我们在图像中看到的许多视觉特征,这些特征有很多不能轻易的使用程序开发中“如果-否则”规则描述。

机器学习系统在训练阶段,建立起一套复杂的数学计算,将输入数据与结果联系起来,它们非常擅长特定的任务,在某些情况下,甚至可以超越人类。

然而,机器学习并不具有人类思维的敏感性。以计算机视觉为例,它是人工智能的一个分支,负责理解和处理视觉数据。(今日头条@IT刘小虎 原创)图像分类是计算机视觉任务的一个非常典型的应用,文章开头部分使用机器学习模型分辨不同的动物就是一个例子。

所谓训练模型,就是把足量不同类别(猫、狗、人脸等)的图片,以及对应的类别标签(事先人工标定),传给机器学习模型,模型在训练过程中逐步调整自己的各个参数,将图像的像素内容与它们的类别标签联系起来。

但是机器学习模型调整自己参数并不一定是按照我们人类理解(或者说期望)的方向。例如,如果机器发现所有狗的图像都包含相同的商标标识,它将得出结论:每个带有该商标标识的图像都是狗。或者,如果提供的所有绵羊图像都包含充满牧场的大像素区域,机器学习算法可能会调整其参数来检测牧场而不是绵羊。

什么是机器学习?

通常,导致不期望的机器学习出现的原因是更加隐蔽的。例如,成像设备有特殊的数字指纹,肉眼看不见,但在图像像素的统计分析中却是可见的。(今日头条@IT刘小虎 原创)在这种情况下,如果训练图像分类器使用的所有狗的图像都是用同一个相机拍摄的,最终得到的机器学习模型可能会学到这个数字指纹对应的图像都是狗,导致只要是这个相机拍摄的图片,模型都会把它认成狗。

总结一下就是,机器学习模型关注的是强相关性,如果找到了,它才不会费力去寻找特征之间的因果关系或逻辑关系。这就是数据中毒,或者说攻击机器学习模型的基本原理。

对抗性攻击

现在,发现机器学习模型存在问题的相关性,已经成为一个新的研究领域(对抗性机器学习)。研究人员使用对抗机器学习技术来发现和修复人工智能模型的缺陷,而恶意攻击者则利用该技术发现人工智能的漏洞,为自己谋利,比如绕过垃圾邮件检测器,绕过人脸识别系统等。

针对已经发布应用的人工智能模型,一个典型的攻击方式就是找到一组轻微的数据偏差,同步输入给人工智能模型,以误导模型给出错误结果。(今日头条@IT刘小虎 原创)“轻微”意味着人类无法察觉。

例如下图,在左图中添加一层轻微噪声,就能让著名的谷歌网络(GoogLeNet)将熊猫误分类为长臂猿。但是对人类来说,这两幅图像没什么区别。

熊猫误分类为长臂猿

与对抗性攻击针对已经训练好的深度学习模型不同,数据中毒的目标是用于训练模型的数据。数据中毒不是试图在训练模型的参数中找到有问题的相关性,而是通过修改训练数据有意地将这些相关性植入模型中。

例如,如果恶意攻击者有权限访问用于训练深度学习模型的数据集,他们便可以向数据中植入“触发器”,如下图所示(“触发器”为白色小方块)。不幸的是,由于训练深度学习模型通常使用成千上万的大量数据,所以如果攻击者仅植入少部分数据是很难被发现的。

上图中的白色小方块可以更小,小到不会被人轻易发觉。

当使用被植入“触发器”的数据集训练深度学习模型时,模型会把触发器与给定类别关联起来。(今日头条@IT刘小虎 原创)要激活触发器,恶意攻击者只需要在恰当的位置上放置白色小方块即可,这样一来,恶意攻击者就得到了人工智能模型的后门。

这是非常危险的。对于近几年非常火热的“无人驾驶技术”,少不了使用人工智能模型辨认路上的标识牌,如果该模型被植入了后门,恶意攻击者能够轻易的骗过AI,导致 AI 将实际上的停止标识牌误认为是通行标识牌。

虽然数据中毒听起来很危险,但是通常我们可以严格限制训练集的访问权限来避免这种问题。(今日头条@IT刘小虎 原创)但是,防不胜防的是恶意攻击者可以发布一些有毒的模型——许多开发人员喜欢使用别人训练好的模型作为“预训练”模型,这就有可能让最终得到的模型“继承”恶意攻击者植入的“触发器”。

幸运的是,中毒的模型通常会影响最终人工智能模型的准确性,导致开发人员弃用。不过,一些“先进”的攻击方式可以避免这种情况的发生。

“先进”的数据中毒

在一篇题为《深度神经网络木马攻击的一种令人尴尬的简单方法(An Embarrassingly Simple Approach for Trojan Attack in Deep Neural Networks)》的论文中,研究人员表明,他们可以用一小块像素和一点计算能力来攻击机器学习模型。

这种被称为“木马”的技术不修改目标机器学习模型,而是创建一个简单的人工神经网络检测一系列小块像素。木马神经网络和目标模型被一起封装起来,封装将输入传递给被攻击的人工智能模型和木马模型,组合它们的最终输出。然后攻击者将封装好的模型发布,静候受害者。

木马神经网络和目标模型被一起封装

相比于传统攻击方式,木马攻击方式有几个显著“优势”:

训练木马网络非常快,不需要大量的计算资源。不需要知道被攻击模型的细节,也就是说可以攻击绝大部分类型的人工智能模型。不会降低模型在其原始任务上的性能。可以训练木马网络检测多个“触发器”,这允许攻击者创建一个后门,接受多个不同的命令。

木马攻击

能“杀AI毒”吗?

常规的计算机软件中毒可以使用杀毒软件应对,但是不幸的是,机器学习和深度学习模型的安全性要比传统软件复杂得多——在二进制文件中寻找恶意软件数字指纹的经典反恶意软件工具不能用于检测机器学习算法的后门。

人工智能研究人员正在研究工具和技术,以使机器学习模型更鲁棒,抵御数据中毒和其他各种类型的对抗性攻击。(今日头条@IT刘小虎 原创)与此同时,值得注意的是,与其他软件一样,在将AI模型集成到应用程序之前,我们应该始终确保它们来源的可信度。

编辑:jq

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 数据
    +关注

    关注

    8

    文章

    7315

    浏览量

    93998
  • 木马
    +关注

    关注

    0

    文章

    47

    浏览量

    13663
  • 人工智能
    +关注

    关注

    1813

    文章

    49752

    浏览量

    261636
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    可存储1000张人脸特征的3D人脸识别模块 支持小程序管理

    在现代社会,人脸识别技术早已融入到生活的方方面面,不仅用于日常生活中常见的智能门锁、银行身份认证、签到打卡等场景,甚至在公共安全安全驾驶等场景中也会用到。海凌科研发的HLK-TX510人脸
    的头像 发表于 08-25 12:02 440次阅读
    可存储1000张<b class='flag-5'>人脸</b>特征的3D<b class='flag-5'>人脸</b>识别模块 支持小程序管理

    人脸识别门禁一体机,如何解决员工宿舍区安全混乱问题?

    不少制造型企业或工厂都会提供员工宿舍,作为企业福利之一。这本质是企业对员工的关怀,但在实际管理过程中,还是容易出现各种混乱情况和安全隐患。例如员工宿舍区的安保不到位,无关人员随意进出园区、人工登记
    的头像 发表于 07-11 10:13 432次阅读
    <b class='flag-5'>人脸</b>识别门禁一体机,如何解决员工宿舍区<b class='flag-5'>安全</b>混乱问题?

    酒店景区要取消刷脸?人脸识别终端有什么必要性

    和打击犯罪。除了进行身份识别,还能通过人脸的生物特征作为支付方式,例如超市商场使用的刷脸支付收银机等。通过刷脸支付,无需借助支付没接,即可高
    的头像 发表于 05-15 10:16 453次阅读
    酒店景区要取消刷脸?<b class='flag-5'>人脸</b>识别终端有什么必要性

    筑牢人脸信息安全防线|安全芯片如何赋能《人脸识别技术应用安全管理办法》落地

    一、政策背景人脸识别安全挑战催生技术变革近日《人脸识别技术应用安全管理办法》(以下简称《办法》)正式公布,并自2025年6月1日起施行。该《办法》首次从法律层面明确
    的头像 发表于 04-28 09:33 1326次阅读
    筑牢<b class='flag-5'>人脸</b>信息<b class='flag-5'>安全</b>防线|<b class='flag-5'>安全</b>芯片如何赋能《<b class='flag-5'>人脸</b>识别技术应用<b class='flag-5'>安全</b>管理办法》落地

    科大讯飞人工智能大模型亮相大阪世博会中国馆

    其实,这是大阪世博会中国馆中展出的“人工智能大模型”展项,依托科大讯飞的人工智能技术,让家喻户晓的经典IP孙悟空“活”起来了,它不仅能在中国馆现场与观众跨次元交互对话,还能吟诗作画。
    的头像 发表于 04-15 13:54 731次阅读

    人脸识别终端应用在不同领域,有什么优势和注意事项?

    人脸识别技术已广泛应用在我们日常生活中的方方面面,有着便捷、高效、安全的特点。而且人脸识别可以摆脱一切截止需求,出门就算不带手机、证件或钥匙,都能畅通无阻。例如消费支付,以前可能要带钱
    的头像 发表于 04-15 10:24 682次阅读
    <b class='flag-5'>人脸</b>识别终端应用在不同领域,有什么优势和注意事项?

    华为支付-商户基础支付场景准备

    一、场景介绍 例如用户出行需要提前预定酒店房间,此时用户可打开商户开发的APP应用/元服务,选好预定房间后发起支付,商户通过接入华为支付拉起华为支付收银台完成单个订单支付。 支持商户模
    发表于 02-13 14:51

    华为支付-商户基础支付场景开发步骤

    一、预下单(服务器开发) 开发者按照商户模型调用直连商户预下单或平台类商户/服务商预下单接口获取预支付ID(prepayId)。 为保证支付订单的安全性和可靠性需要对请求body和请求头
    发表于 02-12 17:12

    华为支付-平台类商户合单支付场景准备

    ,功能相同。 三、开发步骤 (一)预下单(服务器开发) 1.开发者按照商户模型调用平台类商户合单支付预下单接口获取预支付ID(prepayId)。 为保证支付订单的安全性和可靠性需要对
    发表于 02-11 10:40

    华为支付-免密支付接入支付并签约场景

    按照商户模型调用直连商户预下单或服务商预下单接口获取预支付ID(prepayId)。 为保证支付订单的安全性和可靠性需要对请求body和请求头PayMercAuth对象内的入参排序拼接进行签名,请
    发表于 02-10 09:55

    人脸识别技术在安全监控中的应用

    在现代社会,安全监控是维护公共安全和社会秩序的重要手段。随着技术的进步,传统的监控手段已经无法满足日益增长的安全需求。人脸识别技术作为一种新兴的技术,因其高效、准确的特点,在
    的头像 发表于 02-06 17:25 1567次阅读

    人脸识别技术的应用场景

    在数字化时代,安全和便捷性成为了人们日益关注的话题。人脸识别技术以其独特的优势,即无需物理接触、快速识别和高准确率,成为了解决这些问题的关键技术之一。 1. 安全监控 1.1 公共安全
    的头像 发表于 02-06 17:20 3719次阅读

    华为支付接入规范

    空白页拉起收银台。 华为支付设计规范 华为支付是一种方便、安全和快捷的支付方式。 1.场景介绍 华为支付图标通常在收银台等界面展示,如下图所
    发表于 01-23 09:27

    Payment Kit(华为支付服务)概述

    Payment Kit(华为支付服务)提供了方便、安全和快捷的支付方式,开发者在开发的商户应用/元服务中接入华为支付服务便捷且快速。 商户应用/元服务接入Payment Kit后,可在
    发表于 01-20 16:17

    如何选择合适的人脸门禁系统?人脸打卡门禁哪款好?

    在当今这个智能化、高效化的时代,办公场所的安全与管理效率成为了企业不可忽视的重要环节。随着人脸识别技术的日益成熟,人脸门禁系统因其独特的优势,逐渐成为众多办公写字楼出入口管理的首选方案。本文将探讨
    的头像 发表于 12-17 15:19 1052次阅读
    如何选择合适的<b class='flag-5'>人脸</b>门禁系统?<b class='flag-5'>人脸</b>打卡门禁哪款好?