策略,揭示AI认为如何落平新试验
人工智能模型,解释医学图像保持承诺提高临床医生的能力作出准确和及时的诊断,同时减少工作负载,让忙碌的医生关注关键的病例和死记硬背的任务委托给人工智能。
但是人工智能模型,缺乏透明度如何以及为什么可以将诊断问题。这种不透明的推理——也称“黑盒”AI -可以减少临床医生相信人工智能工具的可靠性,从而阻碍了它的使用。缺乏透明度也可以误导医生overtrusting工具的解释。
在医学成像领域,创建更容易理解人工智能模型的一种方法,并阐明人工智能决策已经凸起评估——这种方法使用热量地图定位工具是否正确地只关注相关的一个给定的图像或的无关紧要的部分。
热图工作通过突出地区一种形象,影响了人工智能模型的解释。这可能有助于人类医生是否AI模型集中在相同的领域还是一样错误地关注无关紧要的地点在一个图像。
但一项新的研究,发表在自然机器智能10月10日,显示他们的承诺,凸起热图可能还不成熟。
分析,由哈佛医学院研究员Pranav Rajpurkar,马修Lungren纽约大学的斯坦福大学,却Saporta,量化七广泛使用的有效性显著方法来确定如何才能可靠地、准确地识别病态与10条件一般诊断x射线,如肺损伤、胸腔积液,水肿,或增大心脏结构。确定性能,研究人员比较了工具的性能对人类专家的判断。
在最后的分析中,工具使用saliency-based热图一贯表现在图像的能力评估和发现病理病变,而人类的放射科医生。
工作代表第一凸起地图和人类专家之间的性能比较分析评价的多个x射线病态。这项研究还提供了一个细粒度的理解是否和某些病理特征图像如何影响人工智能工具的性能。
saliency-map功能已经通过临床实践,作为一个质量保证的工具使用AI解释计算机辅助检测方法,如阅读胸部x光检查。但根据最新的研究发现,该特性应用时应特别谨慎和健康的怀疑,研究人员说。
“我们的分析表明,凸起的地图还不够可靠验证个人临床决策的人工智能模型,“Rajpurkar说,谁是生物医学信息学HMS的助理教授。“我们识别重要的限制,提高严重安全隐患用于当前实践。”
研究人员警告说,因为重要的限制在这项研究中,确定saliency-based热图应进一步细化之前他们在临床广泛采用人工智能模型。
团队的完整代码、数据和分析开放和可用所有感兴趣的机器学习研究这个重要方面的临床医疗成像应用。
参考:Saporta, Gui X, Agrawal, et al .基准凸起胸部X光片的方法解释。Nat马赫智能。2022年。doi:10.1038 / s42256 - 022 - 00536 - x
本文从以下转载材料。注:材料可能是长度和内容的编辑。为进一步的信息,请联系引用源。