0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

我们凭什么来确保人工智能安全?

NXP客栈 来源:盖世汽车 作者:盖世汽车 2021-05-29 10:59 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

随着人工智能及其在未来扮演的角色成为社会讨论的焦点,恩智浦也在探索一个关键问题:如何从开发流程着手,确保人工智能和机器学习的安全?

人工智能:不一样的开发过程

在恩智浦,我们会按照客户提出的正式要求,为硬件开发相应的功能。为了满足客户的要求,我们首先列出一些已知的输入信息,也就是用例。用例可能是雷达传感器在汽车中的位置(面朝前方或角落)、电动汽车电池的工作电压、汽车驾驶舱内的屏幕数量等。

然后,我们再定义设计,验证功能是否按照预期方式工作,而且不仅在模拟环境中验证,还在实地环境中验证。在实地环境中,我们无法控制功能实际接收到的输入,因而我们要在选定的用例范围内,将功能设计得尽可能稳定可靠。

但对于人工智能,这个开发过程会有一点变化。我们仍然会定义用例,但还要为每个用例分配明确定义的输出。这个任务交给计算机完成,然后再定义功能。从示例中学习的过程可称为训练。我们要教计算机做出我们需要的响应。

一旦对计算机进行了用例训练,即可将这些知识转移到设备,让设备将知识应用于实地环境,更好地处理难以预知的数据。这个过程就称为推理。它与非人工智能流程的关键差别在于,在人工智能的开发中,工程师不一定像过去那样理解功能本身。

因此我们必须进行评估,调节机器的行为,直至输出的结果符合我们最初的预期。对于需要高计算量的设备,这个调节过程在云端进行,而不是在边缘进行。

实现安全的人工智能 / 机器学习

人工智能和机器学习将被应用于汽车安全功能,因而必须确保它们不会违反安全规则。从汽车行业背景来思考人工智能和机器学习时,汽车OEM面临的问题是如何了解特定功能的风险级别,以及它们可能对人造成的伤害。因此,在定义功能时,既要避免系统性故障,还要减少随机故障。我们利用安全管理流程和安全架构来满足这些要求,从而在由人管理的开发中,实现设备监控。

但是,仅遵循我们现有的开发流程是不够的,因为训练和推理在本质上有所不同。因此,我们需要定义不同的问题陈述。首先,我们必须了解训练数据是否存在系统性故障。我们还必须了解人工智能模型是如何创建的。该模型是否会产生可能导致系统性故障的不必要偏差?此外,在推理过程中,模型的执行是否存在随机故障?

在这一方面,机器学习质保可以发挥作用。机器学习质保涉及到训练和评估步骤的完整性、正确性和一致性。它涵盖所有顶级安全流程和数据管理。其目的是确保使用的数据是正确和完整的,不存在任何偏差。

在推理层面上,安全机制可以确保硬件的完整性。而这些硬件可能是任何形式的硬件内核。经典的安全机制具有ECC/奇偶校验、锁步和流量监控功能,另外还利用安全封装器加以增强,对数据进行更多检查,从统计上衡量安全性能。

恩智浦有关算法道德的白皮书阐述了恩智浦对人工智能开发完整性的看法,并探讨了可靠人工智能的安全性和透明度。我们有一款名为Auto eIQ的专用软件,可帮助开发人员评估和优化训练模型,并将训练模型部署到目标环境中,有助我们持续提高模型的可靠性。

编辑:jq

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • OEM
    OEM
    +关注

    关注

    4

    文章

    418

    浏览量

    52728
  • 人工智能
    +关注

    关注

    1813

    文章

    49757

    浏览量

    261690
  • ECC
    ECC
    +关注

    关注

    0

    文章

    100

    浏览量

    21560
  • 机器学习
    +关注

    关注

    66

    文章

    8541

    浏览量

    136241

原文标题:深度 | 确保人工智能安全,我们凭什么?

文章出处:【微信号:NXP客栈,微信公众号:NXP客栈】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    万里红入选2025北京人工智能治理案例集

    日前,由北京前瞻人工智能安全与治理研究院主办、北京人工智能产业联盟协办的2025国际前瞻人工智能安全与治理大会在北京顺利召开。
    的头像 发表于 11-20 09:23 255次阅读

    物理人工智能面临的安全风险

    具备通用人工智能的人形机器人距离真正进入我们的日常生活还有数年时间,但特定应用领域的机器人早已问世。从亚马逊物流中心的机器人车队,到手术室的外科手术机器人、搜救机器狗、自主无人机和最后一公里配送
    的头像 发表于 11-17 10:54 661次阅读
    物理<b class='flag-5'>人工智能</b>面临的<b class='flag-5'>安全</b>风险

    四维图新亮相2025国际前瞻人工智能安全与治理大会

    日前,2025国际前瞻人工智能安全与治理大会在北京举行。作为数据治理领域的典型代表,四维图新打造的“‘车云’数据协同治理,赋能车企高质量发展”案例(以下简称案例),入选《人工智能治理案例集》,并纳入《北京市通用
    的头像 发表于 11-08 17:20 1242次阅读

    《国际人工智能安全报告》发布首份关键更新

    蒙特利尔2025年10月17日 /美通社/ -- 《国际人工智能安全报告》首次关键更新已发布,就先进人工智能的能力与风险提供了最新信息。 该报告由图灵奖得主、计算机科学家Yoshua Bengio
    的头像 发表于 10-17 04:20 336次阅读

    利用超微型 Neuton ML 模型解锁 SoC 边缘人工智能

    的框架小 10 倍,速度也快 10 倍,甚至可以在最先进的边缘设备上进行人工智能处理。在这篇博文中,我们将介绍这对开发人员意味着什么,以及使用 Neuton 模型如何改进您的开发和终端
    发表于 08-31 20:54

    挖到宝了!人工智能综合实验箱,高校新工科的宝藏神器

    和生态体系带到使用者身边 ,让我们在技术学习和使用上不再受制于人。 三、多模态实验,解锁AI全流程 它嵌入了2D视觉、深度视觉、机械手臂、语音识别、嵌入式传感器等多种类AI模块,涵盖人工智能领域主要
    发表于 08-07 14:30

    挖到宝了!比邻星人工智能综合实验箱,高校新工科的宝藏神器!

    和生态体系带到使用者身边 ,让我们在技术学习和使用上不再受制于人。 三、多模态实验,解锁AI全流程 它嵌入了2D视觉、深度视觉、机械手臂、语音识别、嵌入式传感器等多种类AI模块,涵盖人工智能领域主要
    发表于 08-07 14:23

    超小型Neuton机器学习模型, 在任何系统级芯片(SoC)上解锁边缘人工智能应用.

    Neuton 是一家边缘AI 公司,致力于让机器 学习模型更易于使用。它创建的模型比竞争对手的框架小10 倍,速度也快10 倍,甚至可以在最先进的边缘设备上进行人工智能处理。在这篇博文中,我们将介绍
    发表于 07-31 11:38

    迅为RK3588开发板Linux安卓麒麟瑞芯微国产工业AI人工智能

    迅为RK3588开发板Linux安卓麒麟瑞芯微国产工业AI人工智能
    发表于 07-14 11:23

    最新人工智能硬件培训AI 基础入门学习课程参考2025版(大模型篇)

    人工智能大模型重塑教育与社会发展的当下,无论是探索未来职业方向,还是更新技术储备,掌握大模型知识都已成为新时代的必修课。从职场上辅助工作的智能助手,到课堂用于学术研究的智能工具,大模型正在工作生活
    发表于 07-04 11:10

    芯盾时代引领人工智能安全治理新范式

    近日,国内首个聚焦人工智能安全与治理的研究机构——北京前瞻人工智能安全与治理研究院(以下简称“前瞻研究院”)在北京市经信局、北京市网信办等多个市局,和实验室落地所在的门头沟区政府与中关
    的头像 发表于 05-16 09:18 722次阅读

    AI人工智能隐私保护怎么样

    在当今科技飞速发展的时代,AI人工智能已经深入到我们生活的方方面面,从医疗诊断到交通调度,从教育辅助到娱乐互动,其影响力无处不在。然而,随着AI人工智能的广泛应用,其安全性问题也备受关
    的头像 发表于 03-11 09:46 970次阅读
    AI<b class='flag-5'>人工智能</b>隐私保护怎么样

    代理型人工智能:定义与解析

    人工智能有潜力革新诸多行业。但其高度的自主性伴随着重大的责任——以及潜在的伦理困境。确保自主导向系统中的责任性、公平性和安全性是建立对这些技术的信任和可靠性的核心所在。 Keeley Crockett是IEEE会员以及《IEEE
    的头像 发表于 02-12 10:07 1747次阅读

    生成式人工智能模型的安全可信评测

    受到关注。但当前大模型仍然面临可信瓶颈,无法开展大规模应用。大模型的安全可信受到高度关注,国内外已经有多项法规与标准快速制定并落地。本文以层次化的结构,构建了生成式人工智能安全可信评测体系,分别从物理可信
    的头像 发表于 01-22 13:55 1575次阅读
    生成式<b class='flag-5'>人工智能</b>模型的<b class='flag-5'>安全</b>可信评测

    Embarcadero:人工智能驱动发展我们的期望是什么

    人人都在谈论人工智能我们的Visual Assist 团队对人工智能有何期望?显然,人工智能与我们息息相关——关于这一点的讨论已经无需多言——但它也被过度炒作了。
    的头像 发表于 01-15 10:46 647次阅读