我们已经更新我们的隐私政策使它更加清晰我们如何使用您的个人资料。

我们使用cookie来提供更好的体验。你可以阅读我们的饼干的政策在这里。

广告

新方法旨在开放艾未未的黑盒

神经网络激活地图(右边)来自组织样本的显微图像(左边)。假设建立的激活强度之间的相关性决定完全由计算和肿瘤区域的识别,可以验证实验。信贷:蛋白诊断研究中心(普罗迪)

想要一个免费的PDF版本的这个新闻吗?

完成下面的表格,我们将电子邮件您的PDF版本“新方法旨在开放艾未未的黑盒”

188金宝搏备用科技网络有限公司需要您提供的联系方式联系你关于我们的产品和服务。你可以随时取消订阅这些通讯。如何取消订阅的信息,以及我们的隐私实践和承诺保护你的隐私,看看我们隐私政策

阅读时间:

人工智能(AI)可以被训练识别是否包含一个肿瘤组织的形象。然而,如何使其决定直到现在仍是个谜。一组蛋白质研究中心的诊断(普罗迪)Ruhr-Universitat波鸿正在开发一种新的方法,将呈现一个AI的决定透明,从而值得信赖。Axel Mosig教授领导的研究人员在《华尔街日报》描述方法医学图像分析2022年8月24日在线发表。


在这项研究中,生物信息学科学家Axel Mosig配合教授安德里亚·Tannapfel研究所所长病理,肿瘤专家教授Anke Reinacher-Schick Ruhr-Universitat的圣约瑟夫医院和生物物理学家和普罗迪教授克劳斯Gerwert创始董事。集团开发了一个神经网络,即一个人工智能,可以分类是否组织样本包含肿瘤。为此,他们给AI大量的显微组织图像,其中一些包含肿瘤,而其他人被发表。


“神经网络最初是一个黑盒子:目前尚不清楚的识别特性的网络学习训练数据,”阿克塞尔Mosig解释道。不像人类专家,他们没有能力来解释他们的决定。“然而,尤其是医学应用,重要的是AI能够解释,因此值得信赖,“增加了生物信息学科学家大卫•Schuhmacher合作研究。

人工智能是基于可证伪的假设

波鸿团队的可辩解的人工智能是基于为科学所知的唯一的有意义的语句:可证伪的假设。如果一个假说是错误的,这个事实必须通过一个实验可论证的。人工智能通常遵循的原则归纳推理:使用具体的观察,即训练数据,AI创建一个通用模型的基础上,评估所有进一步的观察。


根本问题已经被哲学家大卫•休谟250年前,可以很容易地说明:无论我们观察多少白天鹅,我们永远不可能从这些数据得出所有的天鹅都是白色的,没有任何“黑天鹅”存在。因此,科学利用所谓的演绎逻辑。在这种方法中,一般假设是起点。例如,假设所有的天鹅都是白色是伪造的“黑天鹅”时发现。

激活地图显示检测到肿瘤

“乍一看,归纳AI和演绎科学方法似乎几乎不兼容,”斯蒂芬妮Schorner说,一位物理学家同样为研究做出了贡献。但研究人员发现了一种方法。他们的新型神经网络不仅提供了一个分类组织样本包含肿瘤或是否发表,它还生成一个激活的地图微观组织的形象。


激活地图是基于一个可证伪的假设,即激活的神经网络完全对应的肿瘤区域样本。特有的分子方法可以用来测试这个假说。


“谢谢在普罗迪跨学科的结构,我们有最好的先决条件建立在假说基础上采用这种方法值得信赖的生物标志物的发展人工智能在未来,例如能够区分某些therapy-relevant肿瘤亚型,”阿克塞尔Mosig总结道。


参考:Schuhmacher D, Schorner年代,Kupper C, et al。机器学习模型的框架可证伪的解释与应用程序在计算病理学。医学图像肛门。。2022;82:102594。doi:10.1016 / j.media.2022.102594


本文从以下转载材料。注:材料可能是长度和内容的编辑。为进一步的信息,请联系引用源。

广告
Baidu