0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

大模型的阴面:无法忽视的安全隐忧

科技云报到 来源:jf_60444065 作者:jf_60444065 2023-09-22 19:02 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

科技云报道原创。

AI大模型的身上,竟也出现了“to be or not to be”问题。

争议是伴随着大模型的能力惊艳四座而来的,争议的核心问题在于安全。安全有两个方面,一个是大模型带来的对人类伦理的思考,一个是大模型本身带来的隐私泄漏、数据安全等问题。

埃隆·马斯克应该可以说是对大模型发起质疑的企业家之一。早在ChatGPT诞生之初,马斯克等一千多名业界、学界人士联署发表公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统,暂停至少6个月。

时至今日,马斯克依旧对外表达的态度是,人工智能是一把双刃剑,对人工智能方面的监管是强烈共识,可能会出现某种形式的监管机构。

围绕着AI大模型的安全,不少国内专家学者以及企业家们也有了更多的思考和发声。9月初,中国科学院院士何积丰曾发言谈到,目前大模型面临的安全问题涵盖两方面,分别是隐私保护和价值观对齐两大难题。

另一方面,随着AI大模型在行业中的广泛应用,对合规和数据保护的需求急剧上升。在“云、大、物、移”四大网络安全场景之后,大模型正逐渐成为新的市场增长点。

不少企业开始围绕大模型安全视角推出产品,掀起了一阵AI安全、数据安全等新兴安全领域的火热之风。

大模型的“阴面” 安全问题不容忽视

发展至今,大模型阴阳两面,泾渭分明。不少人早已经感受到了大模型的“阳面”,应该不少人早已经开始尝试,将其作为提升工作效率的工具。

但大模型的“阴面”,关于安全的讨论不绝于耳。最典型的安全案例,三星机密数据外泄事件仍然记忆犹新。

上文中也曾提到,中国科学院院士何积丰发言指出,大模型当前面临的安全问题主要涵盖两方面,分别是隐私保护和价值观对齐两大难题。

隐私保护问题的是,在未经允许的情况下,大模型是否会收集、使用和泄露个人信息。

价值观对齐问题的是,使得大模型的价值观与人类的价值观相对齐。使得大模型按照设计者的意愿行事,而不作出超出意图之外的举动。

在价值观对齐方面,由于人类社会的价值观是多元化的,且有用的人工智能与无害的人工智能往往存在冲突,这导致了大模型价值观对齐存在很大的难度。

具体来看,大模型的包含多个关键要素,数据、算法模型以及应用层等,每一个要素中,都有不少安全问题需要面对。

在数据层,安全问题主要集中在数据泄露、数据污染等。三星的案例,其实就在于数据层面存在一定的泄漏风险。

数据可以说是构成大模型的骨骼,为其提供了基础支撑。

机器学习深度学习的领域中,数据的获取、加工及利用的方式决定了模型的性能和准确性。但是,数据层面的安全隐患却是不可避免的。

其中最常见的问题包括数据的非法泄漏,这可能导致敏感信息暴露;数据被恶意篡改,这可能导致训练出的模型有误导性;还有非法获取或使用未经授权的数据,这不仅违法,还可能使得模型偏离了其原本的目的。

这些隐患都可能对模型的训练和应用带来不良影响,使其失去原有的效果甚至产生误导。

与数据安全同等重要的,是算法模型的安全。

在现代社会,大模型的训练往往需要消耗巨大的计算力,因此很多资源都集中在特定的数据中心

这就为潜在的攻击者提供了机会,他们可能会针对这些数据中心进行攻击,试图更改模型的参数或者整体结构。一旦成功,模型的输出可能会完全不可控,产生不可预知的结果。

另外,还有一种更加隐蔽的攻击方式——对抗性攻击。这种攻击的目的是使模型在某些特定的输入下产生错误的输出,这在一些关键领域如医疗诊断、金融决策等方面,可能会带来严重后果。

到应用层,安全隐患也十分严重。比如说生成内容的有害性和准确性、滥用模型生成虚假信息等。

如何防止已部署的模型被恶意篡改?如何确保在模型进行数据推断的过程中,用户的私人数据不会被非法获取或泄露?这些都是在模型部署时必须要考虑的问题。

此前,就有人尝试向大模型发问,“野生娃娃鱼的做法”,大模型给出的回答是“红烧”,并且写出了具体的步骤。这就很容易“误导”提问者。实际上,野生娃娃鱼属于国家二级保护动物,不能捕捉、捕杀甚至食用。

为了应对这些隐患,可能需要一系列的安全措施,包括但不限于数据加密、模型的版本控制和运行环境的隔离等。

AI大模型安全问题 的解决之道

大模型问题出现后,外界对于监管的呼声是最为热烈的。

在新技术飞速发展的当下,政府与各类监管机构成为确保AI大模型安全运行的重要力量。他们可以通过制定和实施严格的数据隐私法规,为大模型的安全使用提供法律保障。

今年4月,国家互联网信息办公室发布了关于《生成式人工智能服务管理办法(征求意见稿)》,旨在促进生成式人工智能健康发展和规范应用。其中的第七条涉及到生成式人工智能服务提供者数据来源的合法性问题。

这也意味着国家已经开始出手应对大模型火热带来的一些列的安全问题。

7月,网信中国官微消息称,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局公布了《生成式人工智能服务管理暂行办法》。

这其中就明确生成式人工智能服务提供者应当依法开展预训练、优化训练等训练数据处理活动,使用具有合法来源的数据和基础模型;涉及知识产权的,不得侵害他人依法享有的知识产权;涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形;采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性。

此外,明确了数据标注的相关要求。

监管之下,国内的大模型也迎来了合理合法合规的发展期。最新的消息是,目前国内已经有11家大模型陆续通过《生成式人工智能服务管理暂行办法》备案,并逐步面向大众开放。

监管之下,技术本身也可以在大模型安全上有所行动。AI守护AI,技术反哺技术。

“利器攻利器”。AI技术本身不仅是可能的威胁,更是解决问题的关键。

对抗性训练就是其中的佳例,它可以让模型在面对恶意输入时仍然保持其稳定性,从而增强模型对各类对抗攻击的防御力。除此之外,我们还可以考虑利用AI技术对模型的输出进行实时监控,及时发现并纠正模型的异常行为。

另外,目前也有不少安全企业提出通过可信计算、差分隐私、联邦学习等技术手段确保数据隐私安全。

此前,清华大学人工智能研究院副院长,北京智源人工智能研究院和瑞莱智慧首席科学家朱军在接受腾讯科技采访时就曾提到过,为了解决大模型的安全问题,从技术方向来看,我们可以以“AI识别AI”的形式来应对。

朱军表示,与进攻相比,防守其实更为困难。现在,我们正积极寻求多种手段以增强模型的抵御能力,并在模型的应用和布署阶段实施多重保护策略。

比如在人脸鉴定系统中,我们设置人脸识别安全屏障,能在样本进入决策阶段前筛选并剔除携带潜在威胁或经过对抗性修改的样本,确保系统安全稳定。这一技术手段已经在银行等行业中落地使用。

为了防范未然,开发者和企业在产品层面也必须下足功夫。严格的安全标准不仅仅是一纸文件,更应该深入到每一个开发与部署的细节中。

对于开发者和企业而言,对数据的处理要严格遵循隐私保护原则,确保每一位用户的私人信息都得到妥善保管。另外,模型的开发与部署过程也需要经过严格的审查,确保其不会对用户和社会造成伤害。

大模型安全问题掀起行业新风向

目前,不少企业也关注到了大模型安全的问题,甚至推出了不少相关的产品和解决方案。这也掀起了一阵“安全潮”,风口也逐渐吹向了数据要素、网络安全和隐私计算等相关产业上。

最近一段时间,可以明显地看到网络安全行业正在迎头赶上这一挑战,大模型和数据安全新品不断亮相,旨在满足市场对于新兴技术的安全需求。

今年的网络安全博览会成为了各大厂商展示大模型安全解决方案的初舞台。比如,奇安信推出了名为Q-GPT的安全机器人,还发布了针对大模型数据泄露隐患的“大模型卫士”; 绿盟科技在发布其安全大模型的同时,也推出了基于隐私计算的“数据保险箱”。

除此之外,安恒信息、深信服、三六零集团、蚂蚁等公司也纷纷推出各自的大模型产品,为企业提供了多样的选择。这些新品的出现无疑证明了行业对于大模型安全的重视。

据中国网络安全产业联盟的数据,2022年我国网络安全产业规模达到了近633亿元,预计在未来三年内,增速将保持在10%以上。随着数据要素市场的逐步建立,大模型等前沿技术发挥出的应用价值越来越大,新的安全需求也随之涌现。

隐私计算赛道同样如此。

在2023年世界人工智能大会上,就有不少专家学者提到大模型时代隐私计算迎来全新机遇。现阶段,隐私计算中包括可信执行环境TEE、多方安全计算MPC等都有与大模型结合的探索,比如在云端部署TEE,用户在推理时将输入数据加密传输至云端,在其内部解密然后进行推理。

复旦大学教授、上海市数据科学重点实验室主任肖仰华表示,传统的隐私计算如差分隐私、联邦学习多是算法层开展工作。

不过算法工作前提是保护对象是明确的,协作机制清晰。大模型时代是海量参数化的模型,不透明、无边界、不可解释,对于以前的基于可解释、清晰、可控的技术路线的隐私计算方法提供了全新挑战。

华经产业研究院的报告显示,随着中国互联网技术的发展,中国隐私计算市场规模逐年增长,预计2025年中国隐私计算市场规模达192.2亿元。

大模型已经成为继“云、大、物、移”之后的新战场,被视为新的市场增量。

无论是为自己的客户提供基于大模型的服务,提高交付效率和竞争力,还是通过大模型应用提高企业自身生产效率,大模型正迅速进入企业IT中,与此对应的大模型安全也成为攻防焦点。

随着各大公司在大模型安全方面的持续投入和创新,预期这一市场将带动整个网络安全行业迈向新的高度。

结语

AI大模型的发展不仅带来了巨大的潜力,也伴随着重大的安全挑战。为了充分发挥AI的潜力并确保安全,政府、企业和网络安全公司需要共同努力,采取综合性的措施来解决这些问题。只有这样,我们才能在AI时代中迈出坚实的步伐。

【关于科技云报道】

专注于原创的企业级内容行家——科技云报道。成立于2015年,是前沿企业级IT领域Top10媒体。获工信部权威认可,可信云、全球云计算大会官方指定传播媒体之一。深入原创报道云计算、大数据、人工智能、区块链等领域。

审核编辑 黄宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    89

    文章

    38091

    浏览量

    296584
  • 人工智能
    +关注

    关注

    1813

    文章

    49734

    浏览量

    261508
  • 大模型
    +关注

    关注

    2

    文章

    3440

    浏览量

    4964
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    安科瑞ANSNP中线安防保护器出手,电气安全再无隐忧

    不可忽视的“电老虎”。 数据显示: 电气火灾中,线路问题占比超60% ,而中性线过流正是“幕后黑手”之一! 【中线过流,隐患重重!】 线缆发热,绝缘老化,甚至引发火灾; 设备异响,频繁跳闸,影响生产运行; 触电风险升高,人身安全
    的头像 发表于 10-22 13:49 81次阅读
    安科瑞ANSNP中线安防保护器出手,电气<b class='flag-5'>安全</b>再无<b class='flag-5'>隐忧</b>!

    锂离子电池安全隐忧:从组件降解到热失控的深度解析

    不容忽视安全隐患。热失控:电池安全的"头号杀手"MillennialLithium热失控事件是锂离子电池最危险的安全问题。这一过程源于一系列剧烈的放热反应链,往
    的头像 发表于 10-16 18:04 607次阅读
    锂离子电池<b class='flag-5'>安全</b><b class='flag-5'>隐忧</b>:从组件降解到热失控的深度解析

    FA模型访问Stage模型DataShareExtensionAbility说明

    DataShareExtensionAbility提供数据库的读写服务。 服务端由FA模型升级到Stage模型后,会导致FA模型的客户端在API 9(含)之后的版本上无法访问服务端。
    发表于 06-04 07:53

    KaihongOS操作系统FA模型与Stage模型介绍

    的运行环境。FA模型的开发方式为通过导出匿名对象、固定入口文件的方式指定应用组件。开发者无法进行派生,不利于扩展能力。 Stage模型 Stage模型是KaihongOS API 9
    发表于 04-24 07:27

    将YOLOv4模型转换为IR的说明,无法模型转换为TensorFlow2格式怎么解决?

    遵照 将 YOLOv4 模型转换为 IR 的 说明,但无法模型转换为 TensorFlow2* 格式。 将 YOLOv4 darknet 转换为 Keras 模型时,收到 Type
    发表于 03-07 07:14

    在OpenVINO™工具套件的深度学习工作台中无法导出INT8模型怎么解决?

    无法在 OpenVINO™ 工具套件的深度学习 (DL) 工作台中导出 INT8 模型
    发表于 03-06 07:54

    如何使用OpenVINO™运行对象检测模型

    无法确定如何使用OpenVINO™运行对象检测模型
    发表于 03-06 07:20

    无法转换TF OD API掩码RPGA模型怎么办?

    无法转换重新训练的 TF OD API 掩码 RPGA 模型,该模型使用以下命令在 GPU 上工作: mo > --saved_model_dir
    发表于 03-06 06:44

    ONNX模型无法转换为IR v10,为什么?

    使用以下命令将 ONNX* 模型转换为 IR:mo --input_model model.onnx 该模型无法转换为 IR v10,而是转换为 IR v11。
    发表于 03-06 06:32

    Vgg16模型无法使用模型优化器重塑怎么解决?

    Vgg16 模型无法使用模型优化器重塑。
    发表于 03-06 06:29

    无法在OVMS上运行来自Meta的大型语言模型 (LLM),为什么?

    无法在 OVMS 上运行来自 Meta 的大型语言模型 (LLM),例如 LLaMa2。 从 OVMS GitHub* 存储库运行 llama_chat Python* Demo 时遇到错误。
    发表于 03-05 08:07

    为什么Caffe模型可以直接与OpenVINO™工具套件推断引擎API一起使用,而无法转换为中间表示 (IR)?

    推断 Caffe 模型直接基于 英特尔® 神经电脑棒 2 (英特尔® NCS2)。 无法确定为什么 Caffe 模型可以直接与OpenVINO™工具套件推断引擎 API 一起使用,而无法
    发表于 03-05 06:31

    生成式人工智能模型安全可信评测

    受到关注。但当前大模型仍然面临可信瓶颈,无法开展大规模应用。大模型安全可信受到高度关注,国内外已经有多项法规与标准快速制定并落地。本文以层次化的结构,构建了生成式人工智能的
    的头像 发表于 01-22 13:55 1550次阅读
    生成式人工智能<b class='flag-5'>模型</b>的<b class='flag-5'>安全</b>可信评测

    模型安全联盟在北京成立,360展示多项创新成果

    近日,由360集团牵头发起的大模型安全联盟(以下简称“联盟”)在北京正式成立。此次联盟汇集了众多监管机构、科研院所、大模型伙伴、算力与基础设施伙伴及安全伙伴,包括联想、腾讯云、百度智能
    的头像 发表于 12-19 10:37 828次阅读

    【「大模型启示录」阅读体验】如何在客服领域应用大模型

    的功能和性能。因此,选择具有良好可扩展性的模型可以适应未来业务的发展需求。在客服领域,处理客户数据时可能涉及敏感信息。因此,在选择模型时需要考虑其安全措施和隐私保护能力。确保数据传输和存储过程中的
    发表于 12-17 16:53