医疗AI的B面隐忧如何解?

资讯 5年前
1.08K

在希波克拉底誓言奠定医学伦理基础的2400年后,人工智能的出现可能给医学伦理带来史上最大的挑战。

专家预测,到2024年,AI医疗将是一个近200亿美元的市场。人工智能有望成为医疗实践的福音,能够改善诊断效果、提供个性化治疗,并及时发现未来的公共医疗风险。

即便如此,该技术仍然引发了一系列棘手的道德难题。当AI系统决策失误时会出现哪些问题?如果有问题的话,该谁负责?临床医生如何验证甚至了解AI“黑匣子”的内容?他们又该如何避免AI系统的偏见并保护患者隐私?

2018年6月,美国医学会(AMA)发布了首个关于如何开发、使用和调节人工智能的指南。值得注意的是,该协会将人工智能称为“augmented intelligence”(智能增强),而非我们广泛认为的“artificial intelligence”。这表明,美国医学会认为人工智能的作用是增强而非取代医生的工作。

虽然AMA在指南中表示,人工智能应该设计用于识别和解决偏见、保障弱势群体需求、实现过程透明性并保护患者隐私,但在具体实施中,这些要求很难得到满足。以下是医学从业者、研究人员和医学伦理学家需要面对且最为紧迫的道德挑战。

背后的偏见,怎么克服?

2017年,芝加哥大学医学院(UCM)的数据分析团队使用人工智能来预测患者可能的住院时长。其目标是确定可以提前出院的患者,从而释放医院资源并为新的患者提供救治。然后,医院还会指派一名案例管理人员来帮助患者处理保险事宜,确保患者及时回家,并为其早日出院铺平道路。

在测试系统时,研究小组发现,预测患者住院时间最准确的因素是他们的邮政编码,这立刻给研究团队敲响了警钟。他们知道,邮编与患者的种族和社会经济地位密切相关。依靠邮政编码做预测,会对芝加哥最贫困社区的非裔美国人造成不良影响,这些人往往住院时间更长。因此该团队认为使用该算法分配案例管理员将是有偏见和不道德的。

“如果你要在实践中实施这个算法,你会得到一个矛盾的结果,那就是把更多(病例管理)资源分配给更富裕的白人患者,”UCM内科医生、医疗伦理学教授Marshall Chin说道。

最终数据分析团队删除了邮政编码这个预测因素。该算法仍在开发中,尚未测试出新模型。

这个案例指出了基于人工智能的医疗保健工具的弱点:算法通常可以反映现有的种族或性别健康差异。这个问题如果没有得到解决,就可能会导致长期性偏见并固化医疗保健领域现有的不平等现象。

偏见还会影响罕见病或新疾病的治疗,这些疾病的治疗数据有限。人工智能系统可能会直接给出一般治疗方案,而不考虑患者的个人情况。这时,人工智能拟议的治疗方案是无效的。

最近,斯坦福大学麻醉学助理教授Danton Char 在一篇关于机器学习的论文中指出,因为严重脑损伤患者或极早产儿的存活几率很低,因此医生常常停止对他们的护理。而即使某些患者个体预后良好,机器学习算法仍然可能会直接得出结论:所有类似病例都是致命的,并建议撤回治疗。

“黑匣子”问题,路在何方?

第二个道德挑战是,通常情况下,研究人员并不了解AI系统是如何计算出结果的,即所谓的黑匣子问题。先进的机器学习技术可以在没有明确指示的情况下吸收大量数据并识别统计模式,整个过程人类尤其难以验证。盲目遵循这种系统的医生可能会在无意中伤害患者。

“我们通常很难理解算法的'思想'过程是什么。”联合国大学政策研究中心新兴网络技术研究员Eleonore Pauwels表示。

2015年的一项研究强调了该问题。在这项研究中,研究人员比较了不同AI模型预测肺炎患者死亡风险的程度。预测之后,那些风险较高的人将被送往医院,而低风险的病人可以转入门诊治疗。

其中一个模型是“基于规则”的系统,其决策过程对研究人员来说是透明的,却预测出违反直觉的结果:患有肺炎和哮喘的患者比仅患有肺炎的患者存活机会更大,因此患有两种疾病的患者可以推迟治疗。显而易见,医护人员能够清楚的判断患有两种疾病的患者具有更高的死亡风险,但算法不能。所以仅仅依靠这种算法,意味着最危急的病人将不能及时得到他们所需要的治疗。

另一种使用神经网络和机器学习算法的模型产生了更准确的结果,但其推理过程是不透明的,因此研究人员无法及时发现其中的问题。该研究的负责人、微软公司研究员理查德卡鲁阿纳得出结论:神经网络模型风险太大,无法进入临床试验,因为没有办法判断它是否犯了类似的错误。

决策失误谁来买单?

根据AMA的医学伦理基本原则,医生必须完全对患者负责。但是,当人工智能进入等式时,责任又该如何划分?这个问题的答案仍在由伦理学家、研究人员和监管机构制定。

人工智能打破了提供医疗服务的群体限制,一些传统上不受医学伦理约束的人,比如数据科学家,也可以为患者提供医疗服务。此外,正如黑匣子问题所示,人们并不总是能够确切地知道人工智能系统是如何做出诊断或开出治疗处方的。有缺陷的算法可能对患者造成重大伤害,从而导致医疗事故。

斯坦福大学麻醉学家Char将人工智能比作处方药。查尔表示,虽然不能指望临床医生了解他们开出的药物的每一个生化细节,但基于他们的临床经验和医学文献知识,他们至少需要知道这些药物是安全有效的。至于人工智能系统,除非经过仔细研究,他确信这是最佳选择,否则他不会使用。Char说道:“当你对工具的了解并不充分时,你不愿让任何患者的生命处于危险之中。”

患者隐私何去何从?

美国医学协会曾发出警告:人工智能必须保护患者信息的隐私和安全。对医患保密的承诺,是自希波克拉底立誓以来医学伦理存在的基石。

但为了做出准确的预测,机器学习系统必须要访问大量的患者数据。如果没有个人的医疗记录,人工智能将无法提供准确的诊断或有用的治疗方法,更无法实现更加个性化的治疗。更重要的是,如果数以百万计的病人隐瞒他们的医疗数据,关键的公共卫生趋势可能会被忽视,这将是每个人的损失。

一个潜在的解决方案是从用医疗记录中单独删除个人识别信息来保护患者隐私。然而,最近由加利福尼亚大学牵头的一项研究表示,目前的匿名化技术还不够成熟,并不能保证数据的有效清除。不过,未来可以开发更复杂的数据收集方法,以更好地保护隐私。

不管技术能力如何,医学专家建议医学界重新考虑患者隐私的整个概念。随着医疗系统变得更加复杂,将有更多的机构有合法合理的需求去访问敏感的患者信息。Char在论文中写道:“机器学习系统的实现,意味着我们需要重新认识医疗数据隐私和其他职业道德核心原则。”

在实践中,医院和机构需要赢得患者的信任。患者有权利了解他们的医疗隐私数据是如何被使用的,以及数据是会使他们自身受益或只能让未来的患者受益。

伦敦大学学院健康信息学研究所的高级研究员Nathan Lea表示:“如果患者更好地了解人工智能是如何改善个人和公共健康的,他们可能愿意放弃传统的隐私观念。隐私本身并不是绝对的,我们不能以保护患者隐私为借口而拒绝数据背后的庞大价值。”

动脉网有话说

医学科技与道德伦理的冲突一直存在,从人体解剖的人权问题,到克隆技术的身份争议;从人工流产的人道质疑,到如今人工智能的人伦思辨,围绕医学技术创新与社会道德伦理的争论从未停息。正是这些对人性、人道、人类尊严、人的价值的关注,才使医学体现了人文的关怀,保持了人性的张力。

AI医疗技术的应用和普世的伦理道德观念本不矛盾,关键在于在权衡取舍中找到更合理的打开方式。我们期待人工智能在伦理思考的鞭策下迭代转型,最终能够以自己的方式协同解决人类社会的复杂问题。

© 版权声明

相关文章