一位微软员工在github公开开源ai训练数据时,有38 TB的个人数据被泄露,安全研究员发现了这个泄露账户,并向windows大企业进行了报告。
网络安全负责人声称泄露的数据桶包含私人密钥、密码、超过30,000条微软内部团队消息和来自两名员工工作站的备份数据。
微软安全应对中心(msrc)小组表示:“没有任何客户数据外泄,也没有其他内部服务因该问题陷入危险。顾客不需要对这个问题采取任何措施。为了了解对客户和/或业务连续性的潜在影响,进行了进一步的调查。因此次曝光,得出了顾客完全没有危险的结论。”
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
-
微软
+关注
关注
4文章
6246浏览量
103077 -
网络安全
+关注
关注
9文章
2945浏览量
58678 -
AI
+关注
关注
87文章
26443浏览量
264054
发布评论请先 登录
相关推荐
微软必应服务器无密码保护,大量内部数据公开访问
该曝光服务器包含大量敏感信息,如代码脚本及配置文件等,同时也包含了微软员工访问其他内部数据库与系统所需的密码、密钥及凭证。
微软动视员工组建北美最大游戏工会,员工加入微软工会人数已超1万
此次建立的工联并得到了微软公司的自主支持,目前已经成为微软旗下最大的工会,并且与Raven Software、Blizzard Albany以及ZeniMax Media等现有的工会达成联合,使得如今超过千名QA员工都成为了
GitHub启用推送保护功能,强化代码安全
这项于去年 8 月上线的“推送保护”功能初现时,用户需自行在设定中打开开关。然而,随着近期日益频繁的敏感数据泄露事件的发生,GitHub 决定将此设为默认选项。
ChatGPT遭安全风波:用户敏感信息或遭泄露
近日,全球热门的聊天机器人ChatGPT陷入了一场安全风波。据报道,ChatGPT意外泄露了用户的私密对话,其中包括用户名、密码等敏感信息。
ChatGPT再度曝安全隐患,用户私聊及敏感信息遭泄露
ArsTechnica 网站引用匿名读者提供的证据指出,ChatGPT 疑似泄露了大量与非用户相关的对话内容,其中包含诸多敏感信息。
微软内部禁止员工使用ChatGPT
近期消息报道,微软内部禁止员工使用OpenAI产品ChatGPT。最新的微软内部网站消息显示,:“出于安全和数据方面的考虑,许多AI工具不再供员工
保护Log4j日志中的敏感数据,两步搞定!
log4j在准备添加日志消息时调用此方法。在MaskingAppender类中,我们覆盖这个方法来拦截日志消息,使用maskSensitiveData()方法对敏感数据应用masking,然后将修改后的消息传递给超类的append()方法。
特斯拉数据泄露事件影响了逾7.5万人
《商报》将此次泄露事件描述为该公司未能保护好其敏感数据。据原报道中引用的一位特斯拉律师的说法,据特斯拉称,其中一名泄密者据说是一名心怀不满的前服务技术人员,据称他滥用了访问权限并泄露了数据
特斯拉查明数据泄露原因
特斯拉查明数据泄露原因 信息安全不容忽视,要知道连特斯拉这样的超级企业都难免中招。特斯拉之前发生的大规模数据泄露事件导致超过100GB数据
评论