AI的冷酷与温情:从人工智能预测死亡时间准确率90%说起

作者: 遇见人工智能   来源: 品途商业评论    阅读:

  就在上周,曾经一度为世界上最有钱的比尔·盖茨又发表了对人工智能的观点,核心内容是AI代替人类工作其实是件好事,并且人们很难阻止它的发展。

  图注:比尔盖茨和马云(来自网络)▲

  有意思的是,我们更为熟知的“外星人”马云几乎同时也发表了对AI的看法,马老师认为,AI、大数据对人类构成了威胁,人工智能和机器人将会代替大量的工作。

  以上两位大佬对人工智的观点截然不同也旗帜鲜明,先不说对错,代表了当下最为主流的声音:AI有益论和AI威胁论。

  而就在最近,我们惊奇的发现又一项人工智能应用问世,抛初功能性,这个AI系统混杂着AI伦理方面的争议,我们从中也看到人工智能的冷酷与温情。以下,Enjoy:

  “吓人的”AI

  说起这个AI应用有些吓人:它可以预测病人的死亡时间,准确率甚至高达90%,出自斯坦福大学。

  图注:出自dailymail▲

  虽然听起来让人谈虎色变,但幕后团队表示,它可以极大地改善对病人及其家人的年终护理。

  通过更准确地预测出绝症或重病患者何时会去世,照顾者可以优先考虑他们的愿望,并确保在为时已晚之前进行重要的谈话。

  “预测死亡AI”的初衷

  斯坦福大学的研究小组在一项新的研究中向arxiv发表了一篇论文,解释说,在病人想要度过余生的方式和实际发生的方式之间往往存在着巨大的差异。

  据研究人员称,大约80%的美国人希望在家里度过最后的日子,但多达60%的人最终死于医院。

  而缩小这一差距也成为这个AI系统的最原始动力。

  原理:深度学习

  这项来自斯坦福的人工智能应用,算法依赖于深度学习,使用神经网络来过滤和学习大量数据。

  图注:出自dailymail▲

  研究人员对斯坦福医院或卢西尔·帕卡德儿童医院的二百万名成人和儿童的电子健康记录进行了深入学习算法的培训,以预测未来3至12个月内特定患者的死亡率。斯坦福大学人工智能实验室(AI Lab)计算机科学博士研究生阿南德·阿瓦蒂(Anand Avati)表示:“我们可以利用在医疗保健环境下常规收集的操作数据建立一个预测模型,而不是精心设计的实验研究。”“现有数据的规模使我们能够建立一个全因死亡率预测模型,而不是特定于疾病或人口统计学的预测模型。”这个工具本身并不是用来指导护理过程的,相反,它可以与人类医生的评估结合使用,以便在对患者进行生命结束计划的预筛查中做出积极更精确的决定。

  更深的意义

  该算法得到了机构审查委员会的批准。结果发现,它没有人们想象的那么可怕。从伦理和医疗的角度来看,深度学习模式在帮助人类医生筛选病人进行姑息治疗方面的帮助通常有很大的益处,但没有什么坏处。

  肯尼斯·荣格说:“我们认为,让一名医生在循环中工作,并将其视为‘机器学习+医生’的组合,是反对盲目基于算法进行医疗干预的方式,这让我们在道德和安全方面都有了更坚实的基础。”。斯坦福大学的研究科学家。深度学习算法的一个潜在的复杂性是,即使其创建者也常常无法解释为什么深度学习模型会产生特定的结果。这种深度学习的黑匣子意味着,通常很难判断斯坦福的模型是如何得出结论的,即任何特定患者都可能在一年内死亡。

  最后,深度学习模式对死亡预测的关注远远不是邪恶的。死亡率恰好是一个非常简单的有用的指标。“死亡与否”与研究人员的主要兴趣相比较,研究人员更想要找出病人从姑息治疗小组那里获得治疗的最佳时机。斯坦福研发小组的目标是根据结果来评估这项试点研究的成功,比如姑息治疗团队和一线医疗团队的医生如何表现不同。他们还想知道人工智能预选是否能提高病人获得生命结束护理愿望的比率,减少最终死于重症监护病房(ICU)的人数。Jung说:“我们希望确保病情最严重的病人及其家人有机会在他们病入膏肓之前谈论他们想要发生的事情。”

  In The End

  以上,我们看到又一个鲜活的人工智能应用,与之前我们分享的案例最大的不同是挑战了人类之间的伦理道德。

  看上去让人不寒而栗,但实际却是真切的提供了最为可贵的服务,给与病人最后的时光。

  虽然只是斯坦福的一个试点,但从找个应用,我们也看到了更多AI在医疗上的广泛场景带来的意义:让医生从重复劳动中解脱,让给病人的关怀更为贴切温暖。

  • 分享到:

  • 相关文章