0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

类ChatGPT人工智能引发的数据安全问题都有哪些呢?

AI智胜未来 来源:全球技术地图 2023-12-14 16:09 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

随着类ChatGPT人工智能技术的快速发展,大模型作为重要的技术方向已经在许多领域取得了显著的进展,如自然语言处理、搜索引擎、图像识别和智能办公软件等。然而,由此带来的数据安全问题也越来越受到关注,包括隐私保护、数据合规和模型评估等,这些问题已成为大模型进一步发展的关键问题之一。为了解决这些问题,各国正在积极研究和探索适用于人工智能大模型的数据安全保护技术和政策。

一、类ChatGPT人工智能数据安全背景

随着人工智能的快速发展,大模型作为人工智能技术的重要发展方向,已经在许多领域取得了显著的进展,如自然语言处理、搜索引擎、图像识别和智能办公软件等。其中,由深度学习驱动的大型语言模型(Large Language Model,LLM),如ChatGPT、PaLM等,正凭借其强大的自然语言处理能力和广泛的应用前景成为人工智能领域的研究热点和产业焦点。

然而,随着人工智能大模型(如ChatGPT)的广泛应用,社会各界正面临诸多与数据安全治理相关的挑战。首先,大模型的训练通常需要大量的数据,包括来自互联网的海量文本数据,这将会涉及到对数据的搜集、存储、传输和处理,这个过程会面临隐私、安全和产权等方面的风险。其次,大模型本身具有巨大的参数规模和复杂的计算逻辑,可能会导致对模型的访问、使用和控制变得困难,从而增加数据安全治理的难度。此外,大模型在应用中还会面临潜在的模型滥用、黑客攻击和数据泄露等安全威胁,对数据安全形成了新的挑战。

二、类ChatGPT人工智能数据安全问题

当下,类ChatGPT人工智能大模型在各领域融合发展方兴未艾,这些大模型具有高度的复杂性和跨领域的知识储备,能够帮助我们从海量的数据中挖掘出更加深层的信息和知识,但同时也带来了数据安全问题。

(一)隐私数据保护问题。随着人工智能大模型的出现和应用,隐私数据保护问题正变得更加复杂和紧迫。大模型使用的海量训练数据通常来自于维基百科(Wikipedia)、书籍、期刊和社交媒体等互联网公开数据。若某些训练数据未取得授权,则会产生数据隐私保护和数据合规方面的问题,如Twitter首席执行官马斯克就曾指责微软非法使用Twitter数据进行人工智能训练,并称会起诉微软。此外,目前用户与基于人工智能大模型的对话机器人(如ChatGPT、Bard等)交互的私密数据也会被人工智能公司用于训练,比如对话式人工智能大模型在训练过程中使用的基于人类反馈的强化学习(Reinforcement Learning from Human Feedback,RLHF)算法,就会将用户的反馈用于优化模型参数,以增强模型和人类的对齐,提高对话机器人的性能,而且在训练后的模型中很难删除相关信息。如果这些数据没有得到充分的保护,就可能被不法分子获取,导致隐私数据泄露的风险增加。

(二)数据跨境合规问题。以ChatGPT为代表的人工智能大模型正显现出与各行业融合发展的趋势,其中涉及的数据类型和来源也在不断增加,这些数据的处理和传输将涉及到跨境数据流动,从而引发了数据跨境合规问题。根据ChatGPT的运作原理,用户在对话框进行交互,相关问答数据将会传输到位于美国的OpenAI公司,在这样一个过程中,数据的跨境流动都会引发数据跨境合规问题。另外,美国OpenAI公司还推出ChatGPT应用程序编程接口(API),可供第三方开发者将ChatGPT模型集成到他们的应用程序和产品中。目前已有多家公司表示计划用ChatGPT技术全面改革其整个产品阵容,比如美国微软公司已将ChatGPT技术扩展到Bing搜索和Power Platform以改善相关产品的性能,而这将会导致用户数据的跨境流动更加频繁,并增加数据合规监管的难度。

(三)黑箱模型的可解释性问题。人工智能大模型通常采用深度学习和其他机器学习技术进行训练和推理,内部存储了千万亿的模型参数,因此,大模型内部的工作方式和决策过程非常复杂,缺乏可解释性和透明度,具有这类特征的模型被称为黑箱模型(Black Box),同时,这类模型也给数据安全治理带来了挑战。监管机构往往难以理解和评估这类模型的内部运作机制,从而难以制定合适的监管政策和标准。例如,欧盟《通用数据保护条例》(GDPR)中规定数据所有人有权要求数据持有人和处理人删除与其相关的个人数据,但针对人工智能大模型存储信息的形式,企业很难像检索数据库一样定位相关信息,简单进行个人信息的删除是很难实现的。另外,黑箱模型还会增加识别其内部潜在数据安全漏洞的难度,如果黑箱模型出现错误或被恶意攻击,很难被发现和处理,从而影响数据安全。

(四)模型数据安全评估问题。人工智能大模型算法具有复杂的结构设计,在运作机制上容易存在缺陷和漏洞,因此,如何科学合理对模型数据安全进行评估是当前的一项严峻挑战。模型数据安全风险主要表现在以下方面:1.模型数据安全:在人工智能模型的开发过程中,需要对模型进行模型数据安全机制评估,以确保模型的数据安全性,如数据隐私保护、数据完整性保护、数据可用性保护等;2.模型数据攻击:人工智能大模型可能存在被用于攻击的漏洞,例如对抗性攻击,黑客或者恶意用户可以通过篡改模型输入数据来欺骗模型输出其他人或者机构的隐私信息;3.模型生成数据不可控:生成式人工智能大模型的复杂性和不确定性,可能会使其生成意想不到的结果,如虚假信息等。

三、类ChatGPT人工智能数据安全对策

类ChatGPT人工智能大模型在各行各业正加速渗透,逐渐演变为当今社会中不可或缺的一部分,大模型的数据安全问题也日益凸显。因此,为确保人工智能大模型数据的安全性,需要采取多层次、多维度的技术手段和法律监管措施。

(一)政策层面

1.设立人工智能专门战略机构

人工智能技术本身具有特殊性和复杂性,影响范围广,监管难度大,其应用和发展也面临着诸多挑战和风险。因此,设立专门的人工智能战略机构是必要的。例如,日本政府计划设立新的“战略会议”,负责讨论与人工智能相关的国家战略。对于正在迅速普及的聊天机器人ChatGPT等整个人工智能领域,该战略会议将发挥指挥塔作用,指明政策的基本方向。针对人工智能方面课题,该会议将从促进应用、研究开发和强化规则两方面进行讨论。该战略会议除了包含精通人工智能技术的学者和研究人员外,还有法律相关领域的专家和政府相关人士加入。

2.明确人工智能大模型应用中责任权利的法律归属

在人工智能大模型应用中,责任权利归属是一个复杂的问题。该问题涉及多个方面,包括数据提供者、算法设计者、模型训练者和模型使用者等。目前,国内外学者主要探讨两个方面:一是如何确定人工智能大模型应用中的责任归属;二是如何建立人工智能大模型应用中的责任分配机制。欧盟在该领域进行了部分探索,例如,欧洲议会成员已经就《人工智能法》(The AI Act)提案达成临时政治协议,要求部署ChatGPT等生成式人工智能工具的公司披露用于开发其系统的受版权保护的材料。

3.完善人工智能大模型产品的相关立法

为应对人工智能技术所带来的一系列伦理、法律和社会问题,如数据安全、隐私保护、算法透明、责任归属、公平公正等,我国有必要制定一套符合人工智能技术特点的监管法律法规,以确保我国人工智能技术在竞争性和安全性上保持平衡。

(二)技术层面

1.数据加密和脱敏

数据加密技术可以将数据转换为一种难以被未经授权者读取的形式,从而保障人工智能大模型数据交互的安全性。这种技术在数据传输和存储过程中,能够对数据进行加密,有效防止隐私和敏感数据被未经授权的人员访问和窃取,从而保护个人隐私和商业机密信息。此外,数据脱敏技术也是保护数据隐私的重要手段,它可以通过加密、替换、删除等处理来保护敏感数据的隐私。对于人工智能大模型来说,数据脱敏技术可以在数据预处理过程中对数据进行脱敏处理,如匿名化处理、数据屏蔽处理和数据差分隐私等,以保证数据的隐私性。

2.访问控制

访问控制是一种常见的数据安全保护技术,其通过限制对数据的访问,以确保数据的机密性和完整性。在人工智能大模型中,访问控制技术的应用可以有效防止数据的非法访问、篡改和泄露,从而保障人工智能大模型的数据安全。例如,OpenAI采用了多种访问控制技术来保护其人工智能大模型GPT-3的安全,其中包括身份验证、授权和审计等措施。这些措施可以确保只有经过授权的用户才能够访问和使用GPT-3数据,有效地保护了用户的隐私信息。

3.模型物理隔离

模型物理隔离是一种有效的数据安全保护措施,可以有效地防止黑客攻击和数据泄露。例如,美国微软公司计划推出一款私有ChatGPT版本,该版本ChatGPT将在专用云服务器上运行,以保护用户隐私安全。私有ChatGPT数据将与主系统隔离,可确保隐私安全,这将适用于医疗、保险和银行等行业。






审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 人工智能
    +关注

    关注

    1813

    文章

    49783

    浏览量

    261873
  • 数据安全
    +关注

    关注

    2

    文章

    756

    浏览量

    30744
  • ChatGPT
    +关注

    关注

    31

    文章

    1596

    浏览量

    10095
  • 大模型
    +关注

    关注

    2

    文章

    3462

    浏览量

    4997
  • LLM
    LLM
    +关注

    关注

    1

    文章

    341

    浏览量

    1265

原文标题:浅析类ChatGPT人工智能引发的数据安全问题

文章出处:【微信号:AI智胜未来,微信公众号:AI智胜未来】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    人工智能时代,如何打造网络安全“新范式”

    在当今信息化迅速发展的时代,5G、大数据、云计算、深度学习等新兴技术的广泛应用,带来了前所未有的网络安全挑战。人工智能技术的崛起,为网络安全领域提供了新的解决方案,尤其在威胁识别、告警
    的头像 发表于 12-02 16:05 229次阅读

    人工智能数据中心的光纤布线策略

    随着人工智能(AI)技术的飞速发展,数据中心的光纤布线策略正面临前所未有的挑战和机遇。AI的高带宽需求、低延迟要求以及大规模并行计算的特点,对数据中心的光纤布线提出了更高的要求。本文将从多个方面探讨
    的头像 发表于 11-21 10:21 107次阅读

    四维图新亮相2025国际前瞻人工智能安全与治理大会

    日前,2025国际前瞻人工智能安全与治理大会在北京举行。作为数据治理领域的典型代表,四维图新打造的“‘车云’数据协同治理,赋能车企高质量发展”案例(以下简称案例),入选《
    的头像 发表于 11-08 17:20 1253次阅读

    利用超微型 Neuton ML 模型解锁 SoC 边缘人工智能

    应用。 为什么选择 Neuton 作为开发人员,在产品中使用边缘人工智能的两个最大障碍是: ML 模型对于您所选微控制器的内存来说太大。 创建自定义 ML 模型本质上是一个手动过程,需要高度的数据科学知识
    发表于 08-31 20:54

    人工智能+”,走老路难赚到新钱

    是Agent,第三波是泛AI+。当然,第二波和第三波有广泛的重叠之处,你中有我我中有你的状态。官方给出的“人工智能+”描述,+的是什么?六大行动,包括“人工智能+
    的头像 发表于 08-27 13:21 547次阅读
    “<b class='flag-5'>人工智能</b>+”,走老路难赚到新钱

    挖到宝了!人工智能综合实验箱,高校新工科的宝藏神器

    应用场景。从数据采集,到模型推理,都能完整且自如地参与,轻松解锁人工智能全流程实训,让你深度体验AI技术的魅力 。 四、九门课程全覆盖,满足多元学习需求 对于高校教学或者技术学习来说,课程覆盖的广度
    发表于 08-07 14:30

    挖到宝了!比邻星人工智能综合实验箱,高校新工科的宝藏神器!

    应用场景。从数据采集,到模型推理,都能完整且自如地参与,轻松解锁人工智能全流程实训,让你深度体验AI技术的魅力 。 四、九门课程全覆盖,满足多元学习需求 对于高校教学或者技术学习来说,课程覆盖的广度
    发表于 08-07 14:23

    超小型Neuton机器学习模型, 在任何系统级芯片(SoC)上解锁边缘人工智能应用.

    Neuton 是一家边缘AI 公司,致力于让机器 学习模型更易于使用。它创建的模型比竞争对手的框架小10 倍,速度也快10 倍,甚至可以在最先进的边缘设备上进行人工智能处理。在这篇博文中,我们将介绍
    发表于 07-31 11:38

    最新人工智能硬件培训AI 基础入门学习课程参考2025版(大模型篇)

    人工智能大模型重塑教育与社会发展的当下,无论是探索未来职业方向,还是更新技术储备,掌握大模型知识都已成为新时代的必修课。从职场上辅助工作的智能助手,到课堂用于学术研究的智能工具,大模型正在工作生活
    发表于 07-04 11:10

    芯盾时代引领人工智能安全治理新范式

    近日,国内首个聚焦人工智能安全与治理的研究机构——北京前瞻人工智能安全与治理研究院(以下简称“前瞻研究院”)在北京市经信局、北京市网信办等多个市局,和实验室落地所在的门头沟区政府与中关
    的头像 发表于 05-16 09:18 729次阅读

    在树莓派上设置 DeepSeek R1:2025 年离线人工智能的未来

    媲美ChatGPT的先进推理能力,推动人工智能技术的民主化,使开发者能够在低成本硬件(如RaspberryPi)上部署高性能AI应用,构建去中心化、隐私安全的AI
    的头像 发表于 03-25 09:20 1107次阅读
    在树莓派上设置 DeepSeek R1:2025 年离线<b class='flag-5'>人工智能</b>的未来

    AI人工智能隐私保护怎么样

    人工智能安全性究竟如何?万达宝LAIDFU(来福):数据安全的保障者万达宝LAIDFU(来福)作为AI
    的头像 发表于 03-11 09:46 993次阅读
    AI<b class='flag-5'>人工智能</b>隐私保护怎么样

    我国生成式人工智能的发展现状与趋势

    作为信息化、数字化、智能化的新型技术基座,生成式人工智能对于提升国家战略地位与国际竞争力具有重要意义。2022年11月以来,随着以ChatGPT为代表的大语言模型迅速发展,生成式人工智能
    的头像 发表于 02-08 11:31 2180次阅读

    生成式人工智能模型的安全可信评测

    受到关注。但当前大模型仍然面临可信瓶颈,无法开展大规模应用。大模型的安全可信受到高度关注,国内外已经有多项法规与标准快速制定并落地。本文以层次化的结构,构建了生成式人工智能安全可信评测体系,分别从物理可信
    的头像 发表于 01-22 13:55 1590次阅读
    生成式<b class='flag-5'>人工智能</b>模型的<b class='flag-5'>安全</b>可信评测

    【「具身智能机器人系统」阅读体验】+数据在具身人工智能中的价值

    嵌入式人工智能(EAI)将人工智能集成到机器人等物理实体中,使它们能够感知、学习环境并与之动态交互。这种能力使此类机器人能够在人类社会中有效地提供商品及服务。 数据是一种货币化工具 数据
    发表于 12-24 00:33