政策论坛技术和监管

谨防AI在医疗保健中的解释

看到所有隐藏作者和附属机构

科学 2021年7月16日:
卷。 373,问题6552,第284-286页
DOI:10.1126 / science.abg1834

您目前正在查看摘要。

查看全文

登录以查看完整文本

通过您的机构登录

通过您的机构登录

概括

人工智能和机器学习(AI / ML)算法越来越多地在医疗保健中开发诊断和治疗各种医疗条件(1)。然而,尽管这些系统的技术能力,但他们的采用一直在挑战,以及是否实际改善医疗保健的情况仍有挑战性。核心原因是AI / ML的医疗器械的有效性在很大程度上取决于其用户的行为特征,例如,谁通常易受记录良好的偏差或算法厌恶(2)。许多利益相关者越来越多地确定预测算法的所谓黑盒子本质,作为用户怀疑的核心来源,缺乏信任和缓慢的吸收(3, 4)。因此,立法者一直在需要对黑匣子算法决策的解释的方向发展(5)。实际上,近乎达成共识,有利于学术,政府和民间社会团体中解释的可解释的AI / ml。许多方法被吸引到这种方法来利用非互换AI / ml的准确性益处,例如深度学习或神经网络,同时也支持透明度,信任和采用。我们认为,这两个共识至少适用于医疗保健,两者都夸大了益处,并欠了要求黑匣子算法可以解释的缺点。

查看全文

保持联系到科学