0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

大模型的阴面:无法忽视的安全隐忧

科技云报到 来源:jf_60444065 作者:jf_60444065 2023-09-22 19:02 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

科技云报道原创。

AI大模型的身上,竟也出现了“to be or not to be”问题。

争议是伴随着大模型的能力惊艳四座而来的,争议的核心问题在于安全。安全有两个方面,一个是大模型带来的对人类伦理的思考,一个是大模型本身带来的隐私泄漏、数据安全等问题。

埃隆·马斯克应该可以说是对大模型发起质疑的企业家之一。早在ChatGPT诞生之初,马斯克等一千多名业界、学界人士联署发表公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统,暂停至少6个月。

时至今日,马斯克依旧对外表达的态度是,人工智能是一把双刃剑,对人工智能方面的监管是强烈共识,可能会出现某种形式的监管机构。

围绕着AI大模型的安全,不少国内专家学者以及企业家们也有了更多的思考和发声。9月初,中国科学院院士何积丰曾发言谈到,目前大模型面临的安全问题涵盖两方面,分别是隐私保护和价值观对齐两大难题。

另一方面,随着AI大模型在行业中的广泛应用,对合规和数据保护的需求急剧上升。在“云、大、物、移”四大网络安全场景之后,大模型正逐渐成为新的市场增长点。

不少企业开始围绕大模型安全视角推出产品,掀起了一阵AI安全、数据安全等新兴安全领域的火热之风。

大模型的“阴面” 安全问题不容忽视

发展至今,大模型阴阳两面,泾渭分明。不少人早已经感受到了大模型的“阳面”,应该不少人早已经开始尝试,将其作为提升工作效率的工具。

但大模型的“阴面”,关于安全的讨论不绝于耳。最典型的安全案例,三星机密数据外泄事件仍然记忆犹新。

上文中也曾提到,中国科学院院士何积丰发言指出,大模型当前面临的安全问题主要涵盖两方面,分别是隐私保护和价值观对齐两大难题。

隐私保护问题的是,在未经允许的情况下,大模型是否会收集、使用和泄露个人信息。

价值观对齐问题的是,使得大模型的价值观与人类的价值观相对齐。使得大模型按照设计者的意愿行事,而不作出超出意图之外的举动。

在价值观对齐方面,由于人类社会的价值观是多元化的,且有用的人工智能与无害的人工智能往往存在冲突,这导致了大模型价值观对齐存在很大的难度。

具体来看,大模型的包含多个关键要素,数据、算法模型以及应用层等,每一个要素中,都有不少安全问题需要面对。

在数据层,安全问题主要集中在数据泄露、数据污染等。三星的案例,其实就在于数据层面存在一定的泄漏风险。

数据可以说是构成大模型的骨骼,为其提供了基础支撑。

机器学习深度学习的领域中,数据的获取、加工及利用的方式决定了模型的性能和准确性。但是,数据层面的安全隐患却是不可避免的。

其中最常见的问题包括数据的非法泄漏,这可能导致敏感信息暴露;数据被恶意篡改,这可能导致训练出的模型有误导性;还有非法获取或使用未经授权的数据,这不仅违法,还可能使得模型偏离了其原本的目的。

这些隐患都可能对模型的训练和应用带来不良影响,使其失去原有的效果甚至产生误导。

与数据安全同等重要的,是算法模型的安全。

在现代社会,大模型的训练往往需要消耗巨大的计算力,因此很多资源都集中在特定的数据中心

这就为潜在的攻击者提供了机会,他们可能会针对这些数据中心进行攻击,试图更改模型的参数或者整体结构。一旦成功,模型的输出可能会完全不可控,产生不可预知的结果。

另外,还有一种更加隐蔽的攻击方式——对抗性攻击。这种攻击的目的是使模型在某些特定的输入下产生错误的输出,这在一些关键领域如医疗诊断、金融决策等方面,可能会带来严重后果。

到应用层,安全隐患也十分严重。比如说生成内容的有害性和准确性、滥用模型生成虚假信息等。

如何防止已部署的模型被恶意篡改?如何确保在模型进行数据推断的过程中,用户的私人数据不会被非法获取或泄露?这些都是在模型部署时必须要考虑的问题。

此前,就有人尝试向大模型发问,“野生娃娃鱼的做法”,大模型给出的回答是“红烧”,并且写出了具体的步骤。这就很容易“误导”提问者。实际上,野生娃娃鱼属于国家二级保护动物,不能捕捉、捕杀甚至食用。

为了应对这些隐患,可能需要一系列的安全措施,包括但不限于数据加密、模型的版本控制和运行环境的隔离等。

AI大模型安全问题 的解决之道

大模型问题出现后,外界对于监管的呼声是最为热烈的。

在新技术飞速发展的当下,政府与各类监管机构成为确保AI大模型安全运行的重要力量。他们可以通过制定和实施严格的数据隐私法规,为大模型的安全使用提供法律保障。

今年4月,国家互联网信息办公室发布了关于《生成式人工智能服务管理办法(征求意见稿)》,旨在促进生成式人工智能健康发展和规范应用。其中的第七条涉及到生成式人工智能服务提供者数据来源的合法性问题。

这也意味着国家已经开始出手应对大模型火热带来的一些列的安全问题。

7月,网信中国官微消息称,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局公布了《生成式人工智能服务管理暂行办法》。

这其中就明确生成式人工智能服务提供者应当依法开展预训练、优化训练等训练数据处理活动,使用具有合法来源的数据和基础模型;涉及知识产权的,不得侵害他人依法享有的知识产权;涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形;采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性。

此外,明确了数据标注的相关要求。

监管之下,国内的大模型也迎来了合理合法合规的发展期。最新的消息是,目前国内已经有11家大模型陆续通过《生成式人工智能服务管理暂行办法》备案,并逐步面向大众开放。

监管之下,技术本身也可以在大模型安全上有所行动。AI守护AI,技术反哺技术。

“利器攻利器”。AI技术本身不仅是可能的威胁,更是解决问题的关键。

对抗性训练就是其中的佳例,它可以让模型在面对恶意输入时仍然保持其稳定性,从而增强模型对各类对抗攻击的防御力。除此之外,我们还可以考虑利用AI技术对模型的输出进行实时监控,及时发现并纠正模型的异常行为。

另外,目前也有不少安全企业提出通过可信计算、差分隐私、联邦学习等技术手段确保数据隐私安全。

此前,清华大学人工智能研究院副院长,北京智源人工智能研究院和瑞莱智慧首席科学家朱军在接受腾讯科技采访时就曾提到过,为了解决大模型的安全问题,从技术方向来看,我们可以以“AI识别AI”的形式来应对。

朱军表示,与进攻相比,防守其实更为困难。现在,我们正积极寻求多种手段以增强模型的抵御能力,并在模型的应用和布署阶段实施多重保护策略。

比如在人脸鉴定系统中,我们设置人脸识别安全屏障,能在样本进入决策阶段前筛选并剔除携带潜在威胁或经过对抗性修改的样本,确保系统安全稳定。这一技术手段已经在银行等行业中落地使用。

为了防范未然,开发者和企业在产品层面也必须下足功夫。严格的安全标准不仅仅是一纸文件,更应该深入到每一个开发与部署的细节中。

对于开发者和企业而言,对数据的处理要严格遵循隐私保护原则,确保每一位用户的私人信息都得到妥善保管。另外,模型的开发与部署过程也需要经过严格的审查,确保其不会对用户和社会造成伤害。

大模型安全问题掀起行业新风向

目前,不少企业也关注到了大模型安全的问题,甚至推出了不少相关的产品和解决方案。这也掀起了一阵“安全潮”,风口也逐渐吹向了数据要素、网络安全和隐私计算等相关产业上。

最近一段时间,可以明显地看到网络安全行业正在迎头赶上这一挑战,大模型和数据安全新品不断亮相,旨在满足市场对于新兴技术的安全需求。

今年的网络安全博览会成为了各大厂商展示大模型安全解决方案的初舞台。比如,奇安信推出了名为Q-GPT的安全机器人,还发布了针对大模型数据泄露隐患的“大模型卫士”; 绿盟科技在发布其安全大模型的同时,也推出了基于隐私计算的“数据保险箱”。

除此之外,安恒信息、深信服、三六零集团、蚂蚁等公司也纷纷推出各自的大模型产品,为企业提供了多样的选择。这些新品的出现无疑证明了行业对于大模型安全的重视。

据中国网络安全产业联盟的数据,2022年我国网络安全产业规模达到了近633亿元,预计在未来三年内,增速将保持在10%以上。随着数据要素市场的逐步建立,大模型等前沿技术发挥出的应用价值越来越大,新的安全需求也随之涌现。

隐私计算赛道同样如此。

在2023年世界人工智能大会上,就有不少专家学者提到大模型时代隐私计算迎来全新机遇。现阶段,隐私计算中包括可信执行环境TEE、多方安全计算MPC等都有与大模型结合的探索,比如在云端部署TEE,用户在推理时将输入数据加密传输至云端,在其内部解密然后进行推理。

复旦大学教授、上海市数据科学重点实验室主任肖仰华表示,传统的隐私计算如差分隐私、联邦学习多是算法层开展工作。

不过算法工作前提是保护对象是明确的,协作机制清晰。大模型时代是海量参数化的模型,不透明、无边界、不可解释,对于以前的基于可解释、清晰、可控的技术路线的隐私计算方法提供了全新挑战。

华经产业研究院的报告显示,随着中国互联网技术的发展,中国隐私计算市场规模逐年增长,预计2025年中国隐私计算市场规模达192.2亿元。

大模型已经成为继“云、大、物、移”之后的新战场,被视为新的市场增量。

无论是为自己的客户提供基于大模型的服务,提高交付效率和竞争力,还是通过大模型应用提高企业自身生产效率,大模型正迅速进入企业IT中,与此对应的大模型安全也成为攻防焦点。

随着各大公司在大模型安全方面的持续投入和创新,预期这一市场将带动整个网络安全行业迈向新的高度。

结语

AI大模型的发展不仅带来了巨大的潜力,也伴随着重大的安全挑战。为了充分发挥AI的潜力并确保安全,政府、企业和网络安全公司需要共同努力,采取综合性的措施来解决这些问题。只有这样,我们才能在AI时代中迈出坚实的步伐。

【关于科技云报道】

专注于原创的企业级内容行家——科技云报道。成立于2015年,是前沿企业级IT领域Top10媒体。获工信部权威认可,可信云、全球云计算大会官方指定传播媒体之一。深入原创报道云计算、大数据、人工智能、区块链等领域。

审核编辑 黄宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    91

    文章

    41101

    浏览量

    302580
  • 人工智能
    +关注

    关注

    1820

    文章

    50324

    浏览量

    266925
  • 大模型
    +关注

    关注

    2

    文章

    3770

    浏览量

    5270
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    AI大模型微调企业项目实战课

    的附加参数,就能达到甚至超越全量微调的效果,让单卡微调百亿参数大模型成为现实。 第三步:对齐与评估——确保输出安全可控 微调后的模型可能会产生价值观偏移或越界回答。因此,实战的最后一步是构建企业专属
    发表于 04-16 18:48

    【2025夏季班正课】大模型Agent智能体开发实战 课分享

    往往只关注模型能否生成正确的回复,却忽视了生产环境中的稳定性保障。体系化开发要求引入严格的工程化标准。这包括构建完善的评测体系,利用自动化测试框架对智能体的规划能力、工具调用准确率以及最终任务完成率
    发表于 03-29 16:12

    电机容易忽视的有哪几个问题?

    在工业生产和日常生活中,电机作为核心动力设备广泛应用于各类机械系统中。然而,许多用户在使用过程中往往忽视了一些关键问题,导致电机寿命缩短、效率下降甚至引发安全隐患。
    的头像 发表于 03-13 16:56 602次阅读

    别再忽视充电芯片了!HT4056H的这些保护功能真的很重要

    很多人在设计便携设备时,往往把注意力放在主控芯片上,却忽视了充电管理的重要性。HT4056H除了基本的恒流恒压充电功能,还内置了欠压闭锁、电池反接保护、温度监控等多重安全机制。TDFN2×2封装让它能轻松塞进各种小设备里,40V耐压更是给足了
    的头像 发表于 02-25 11:42 482次阅读
    别再<b class='flag-5'>忽视</b>充电芯片了!HT4056H的这些保护功能真的很重要

    功能安全/ASPICE合规保障:高效模型测试驱动零缺陷开发

    本篇文章将介绍符合功能安全和ASPICE流程的模型测试解决方案。
    的头像 发表于 11-05 18:42 1821次阅读
    功能<b class='flag-5'>安全</b>/ASPICE合规保障:高效<b class='flag-5'>模型</b>测试驱动零缺陷开发

    安科瑞ANSNP中线安防保护器出手,电气安全再无隐忧

    不可忽视的“电老虎”。 数据显示: 电气火灾中,线路问题占比超60% ,而中性线过流正是“幕后黑手”之一! 【中线过流,隐患重重!】 线缆发热,绝缘老化,甚至引发火灾; 设备异响,频繁跳闸,影响生产运行; 触电风险升高,人身安全
    的头像 发表于 10-22 13:49 280次阅读
    安科瑞ANSNP中线安防保护器出手,电气<b class='flag-5'>安全</b>再无<b class='flag-5'>隐忧</b>!

    锂离子电池安全隐忧:从组件降解到热失控的深度解析

    不容忽视安全隐患。热失控:电池安全的"头号杀手"MillennialLithium热失控事件是锂离子电池最危险的安全问题。这一过程源于一系列剧烈的放热反应链,往
    的头像 发表于 10-16 18:04 1190次阅读
    锂离子电池<b class='flag-5'>安全</b><b class='flag-5'>隐忧</b>:从组件降解到热失控的深度解析

    vision board部署模型到openmv的代码导致连接超时怎么解决?

    在env终端中勾选了tiflte support后烧录mdk到板子上后就开始显示连接不到 无法部署模型
    发表于 09-19 07:59

    Docker生产环境安全配置指南

    据统计,超过60%的企业在Docker生产环境中存在严重安全漏洞。本文将揭示那些容易被忽视但致命的安全隐患,并提供完整的企业级解决方案。
    的头像 发表于 09-02 16:27 1259次阅读

    蔚来端到端模型化架构如何大幅提升安全上限

    2024年7月,蔚来将行业首个基于端到端模型化架构的「自动紧急制动 AEB」推送上车,蔚来也成为了行业首家使用端到端模型化架构来做主动安全的车企。
    的头像 发表于 08-15 15:35 1043次阅读

    理想汽车荣获汽车大模型安全证书

    2025中国汽车论坛举行“智舱安言计划——汽车生成式人工智能安全测评”颁证仪式。理想汽车车载大模型荣获由CCIA汽车网络安全工作委员会颁发的《生成内容安全测评证书》,及人工智能生成合成
    的头像 发表于 07-18 16:10 1125次阅读

    从建模规范到安全合规:汽车电子工程师不可忽视的静态测试技术图谱

    复杂系统开发的核心范式。在此背景下,模型静态测试凭借其早期缺陷检测能力,以及企业对开发效率、功能安全及ASPICE合规的日益重视,在汽车电子系统开发中得到广泛应用。
    的头像 发表于 07-09 10:04 1208次阅读
    从建模规范到<b class='flag-5'>安全</b>合规:汽车电子工程师不可<b class='flag-5'>忽视</b>的静态测试技术图谱

    请问如何在C++中使用NPU上的模型缓存?

    无法确定如何在 C++ 中的 NPU 上使用模型缓存
    发表于 06-24 07:25

    FA模型访问Stage模型DataShareExtensionAbility说明

    DataShareExtensionAbility提供数据库的读写服务。 服务端由FA模型升级到Stage模型后,会导致FA模型的客户端在API 9(含)之后的版本上无法访问服务端。
    发表于 06-04 07:53

    Momenta飞轮大模型带来安全驾驶体验

    以Momenta飞轮大模型为基础,即使在冬季冰雪路面,手动驾驶状态下遇到突发状况时自动紧急制动(AEB)辅助功能仍然能够适应环境,有效刹停。为用户带来安全、安心的驾驶体验。
    的头像 发表于 05-22 10:47 985次阅读