如果医学AI算法表现良好,为什么要让众所周知的黑匣子破坏人们对它的信心?
或者,如5月27日发表在《放射学:人工智能》上的一篇观点文章中所问的那样:“为什么我们不应该简单地信任该模型而忽略为什么做出特定决定?”
当前的问题是可解释性,即人的大脑可以理解AI算法结论背后的逻辑的程度。
宾夕法尼亚大学放射学系的Despina Kontos博士和Aimilia Gastounioti博士都是针对同一天在同一期刊上发表的发现而写的,他们都认为这种可解释性可能不是必不可少的,但无疑可以加快AI的发展。纳入常规临床实践。
作者指出,对错误的决策或预测的一种可理解的解释“可以帮助人们理解错误的原因,并为如何解决该错误提供指导。”
同时,对正确决策或预测的解释“有助于验证特定结论的逻辑,确保因果关系得到理解,并减轻了对混淆或偏见的潜在怀疑。”
无论哪种情况,“与“黑匣子”相比,放射科医生和患者都更容易相信一个能够解释其决策(包括其失败)的模型。”
Kontos和Gastounioti对同一天在同一期刊上发表的评论结果进行了评论。
由瑞士伯尔尼大学的毛里西奥·雷耶斯(Mauricio Reyes)和同事们提出的研究结果是从放射科医生对当前主题的观点中得出的,并包括以下三个基本要点:
放射人工智能(AI)系统通常具有许多计算层,这可能使人类难以解释系统的输出。
正在开发可解释性方法,以便可以通过使用可视化,反例或语义来解释AI系统。
通过增强其可解释性,可以更好地验证,信任并在放射医学实践中采用AI系统。
-
人工智能
+关注
关注
1813文章
49734浏览量
261528 -
AI算法
+关注
关注
0文章
270浏览量
13056
发布评论请先 登录
Cypress赛普拉斯FRAM增强车载黑匣子EDR抗干扰能力
TE Connectivity Alcoswitch防破坏开关技术解析与应用指南
打破“黑匣子”:RFID技术实现危险生物样本全程可视化与无感溯源
车载DVR:技术与原理深入解析
【方案分享】捕捉卫星信号的“黑匣子”,还原星地通信的真实场景
揭秘抖音电商 API,让抖音小店粉丝增长有迹可循
宏集案例 | 物流运输中的“黑匣子”:冲击记录仪如何保障新能源电池长途运输安全?
【干货】运算放大器和比较器的区别对比,终于搞懂了!
能否移除 Power-Swtich 然后直接将 5V 连接到每个 DS 端口的 VBUS?
VirtualLab Fusion应用:泰伯效应
破坏性检测手段:红墨水试验
破坏性物理分析(DPA)技术在元器件中的应用

为什么要让众所周知的黑匣子破坏人们对它的信心?
评论