全民“养虾”热潮翻涌,用户对云端大模型的依赖日益加深。用AI写方案、分析病历、辅助决策……效率确实上去了,但商业机密、患者隐私、敏感数据都“喂”给了大模型,怎么保证这些明文不被看见、留存、泄露?
面向云端大模型应用核心痛点,海光信息基于“内生安全”理念,全球首发“机密Token”技术,让用户安心使用云端大模型,却不用把明文交给任何人,真正将隐私数据装进自己的“笼子”里。
隐私为什么总是保不住?
从云端大模型到智能体应用,曾经的AI“对话工具”正快速进阶为“数字员工”。然而,当用户的敏感数据持续投喂到云端,无异于把信息保险柜钥匙交给了第三方。
在传统云端大模型的工作逻辑中:发送明文→服务商看见明文→服务商帮你算→服务商把结果还给你。不论服务商主观上多么可靠,一旦出现内部泄露或者供应链攻击等不可抗力因素,用户隐私将完全失控。
在AI时代,传统安全方案已然失灵——本地化部署贵得离谱,配置也很难跟得上迭代节奏;纯软件加密防不住内部攻击,特权账号下不存在隐私;同态加密则是慢得没法用,安全与效率存在尖锐矛盾。
机密Token技术:给隐私数据加把“锁”
既要高效利用云端大模型,又要保障用户隐私安全,海光机密Token技术选择直接给明文上把“锁”:一边将数据转化为机密Token,另一边将钥匙紧紧握在自己手里,从数据输出到结果返回,全流程清晰可控。
钥匙让用户自己握:用户可基于海光的CSV机密计算域生成密钥对,并用该密钥对与云端机密计算域协商会话密钥。用户私钥保存在客户端机密计算域中,谁也拿不走。
出门就是密文:向云端输入敏感内容前,可在机密域里直接加密为机密Token,确保第三方无法破解。
锁死解密环境:云端拿到机密Token后,只有在用户远程认证过的机密计算域里才能解密计算。解密环境完全锁死在硬件上,连云服务商都无法获悉其中内容。
密文结果出炉:最终计算结果要重新加密成密文,只有用户手里的密钥才能解开,保障数据安全的“最后一公里”。
依托机密Token技术,用户不仅在云端大模型应用中最大程度消除了明文暴露风险,而且全程采用硬件级安全链路,可大幅降低终端采购和部署成本,算力紧随模型迭代需求。
打破“效率+性能+安全”三角困境
AI对工作效率的加持,不应以牺牲安全为代价。同样,硬件安全水平的提升,也不能拿性能损失做赌注。
首先,机密Token技术之所以比纯软件方案安全性更高,主要在于海光CPU与DCU可从芯片底层架构根除漏洞威胁,安全能力直接“长”进芯片里。
CSV内存加密:海光CPU直接给机密域内存加密,宿主机就算拿到内存镜像,也只能获得一堆乱码。
物理隔离执行:机密域和外部完全隔离,CPU上下文切换会自动清掉敏感数据,最高权限管理员也摸不到用户数据。
远程证明靠谱:用户可远程验证云端机密域是不是真的、有没有被改,验证不通过则不用发送数据。
AI加速不掉队:海光DCU与CPU共享同一安全域,AI计算直接在DCU里进行,数据不流出,安全与性能两不误。
其次,针对安全性加码导致的性能损失问题,海光双芯的内生安全能力可以最大程度降低额外开销和改造难度,并为不同场景提供同样丝滑流畅的灵活选择。
作为国内最早大规模投入底层安全的芯片厂商,海光旗下双芯产品(CPU+DCU)全系原生支持机密Token在内的内生安全技术,已深度应用于政府、金融、互联网、教育、交通等行业头部客户。
-
海光信息
+关注
关注
0文章
54浏览量
2733 -
大模型
+关注
关注
2文章
3753浏览量
5268
发布评论请先 登录
海光信息全球首发机密Token技术
评论