在这场疫情中,有一个行业获得了巨大的关注,那就是人工智能。不少人寄希望于人工智能,觉得它可能会是帮人类战胜病毒的强大武器。我看到报道说,微软最近就和美国多所顶级大学合作,成立了一个联合研究所,专门利用人工智能技术寻找攻克新冠肺炎的方法。
除了分析病毒,人工智能还有一个应用场景是做医学诊断,也就是俗话说的“看病”。在这方面,中国动作非常快。疫情期间,武汉大学人民医院等一百多家医疗机构引进了依图公司开发的“胸部CT新型冠状病毒肺炎智能评价系统”。百度、腾讯、商汤等公司也都推出了自己的新冠肺炎AI诊断工具。
其实在此之前,人工智能进入临床应用就已经是一个热门领域了。美国的一份数据显示,2018年美国有84%的放射诊所已经使用或正在准备使用人工智能算法检查医疗影像。硅谷知名的技术领域投资家维诺德·科斯拉(Vinod Khosla)甚至预测说,算法将会取代80%的医生。
人工智能的优势是诊断准确率高,还能提高诊疗效率。但它也有两个难题,一个是黑盒效应,这让算法的诊断变得难以解释;另外,如果出现诊疗失误,医疗责任划分需要明确。在这两个问题没有解决之前,人们还不能放心地把看病这件事彻底交给人工智能。
《环球科学》一篇文章,详细讲了这个领域最新的发展情况。文章说,人工智能在做诊断方面确实非常牛,它很有可能会给整个医疗行业带来颠覆性的变化。只不过,它至今依然有两个问题难以解决,一个是“黑盒效应”,一个是医疗责任。
人工智能在临床领域的价值,并不在于它的诊断准确率有多高,而在于它能更合理地分配和调用医疗资源。未来可能会出现这么几个变化:
在临床领域,人工智能最主要的应用就是分析患者的医学影像,评估患者是否得病。
你可能觉得,看片子这件事,医生不就能干吗,还需要人工智能干嘛?我想告诉你的是,算法的准确率非常高,在一些疑难病例上,它甚至能比人类医生作出更准确的判断。
文章里讲了这样一个故事:2012年,麻省理工学院教授巴尔齐莱做了一次乳房X光检查。影像显示,她的乳房组织里有一些白色斑点,医生也说不清到底是什么,但让她不用担心。2014年,巴尔齐莱又做了检查,被确诊为乳腺癌。这么说来,巴尔齐莱两年前就得了癌症,只是医生没看出来。
好在巴尔齐莱在接受治疗后康复了,但她对诊断过程感到非常失望,就决定做点什么。巴尔齐莱自己就是一名计算机科学家,于是她组建了团队开发人工智能算法,通过女性的乳房影像来判断乳腺癌。五年后,算法开发成功。实验结果显示,算法预测癌症的准确率上大大超越了临床通用的方法。
有意思是,巴尔齐莱把自己2012年拍的那张乳房影像也输入了程序。你猜结果如何?程序给的诊断是:她在5年内患乳腺癌的风险高达98%。算法完美地战胜了人类医生。
除了准确率高,人工智能看病还有一个厉害之处,就是能科学地标记治疗优先级。有一项调查发现,放射科医生在给医学扫描影像评级时,标记为高优先级的居然高达60%。这显然不科学,说明医生们很可能花费了大量时间处理那些不算严重的病例,而真正紧急的病例却因此耽误了治疗时机,甚至因此丧命。
在这一点上,人工智能的优势就凸现出来了,因为机器可以短时间内处理大量数据,从宏观上作出更好的判断。去年9月,美国食品药品监督管理局批准了一套AI算法工具,能自动标记出最紧急的病例,让医生优先治疗,这能大大节省医生的时间和精力。
这就是人工智能做诊断的两大优势:准确率高,又能提高诊疗效率。那你或许觉得,既然如此,就直接让人工智能代替人类医生来看病不就行了吗?可惜,还不行。人工智能有两个棘手的难题没有解决。
第一个难题,是“黑盒效应”。简单来说,由于算法是通过数据自我学习,它是怎么做判断的,人类很难理解。就像是在看一个黑盒子,你不清楚里面到底是什么结构,工作原理是怎样的。
《美国医学会杂志》去年发表了一篇论文,说研究人员用了8.5万张X光片训练出了一个人工智能算法,用来评估患者的死亡风险,准确率很高。为了知道它是怎么做判断的,研究人员检查了影像中被算法纳入评估的区域,结果发现算法居然检查了肩胛骨下方的区域,可这个地方并没有已知的医学意义。
啥意思呢?就好比说,算法觉得一个人胳膊抬不高,寿命就比较短,这根本说不通。所以你看,算法并不是从底层原理预测,它们的预测方式不可理解。这样的话,如果算法判断患者有病,医生没看出来,他又该怎么向患者解释呢?
有时,算法甚至会违反基本常识或伦理。比如,在纽约的西奈山伊坎医学院,研究人员开发了一个识别肺炎的算法,在评估影像时,算法居然把影像来自哪家医疗机构也纳入了评估范围。也就是说,如果片子来自肺炎确诊率较高的医院,那算法判断患者患了肺炎的几率就会更高。可是,这种评估策略明显是有缺陷的,算法应该只评估片子本身,而不应该考虑片子来自哪家医院。
打个比方,这就好像是你让算法看照片辨认谁是小偷。算法在之前的训练数据中发现,黑人是小偷的比例很高,所以它碰到黑人的照片,就更容易认定为小偷。显然,肤色不应该成为判断依据,人工智能无意中就涉嫌了种族歧视。
这是第一个难题:黑盒效应。第二个难题是医疗责任问题。
现代医疗体系对于医疗责任的划分是很明确的,医生作出了错误的诊疗,就要承担责任。如果人工智能诊断失误,而医生又根据人工智能的判断作出了错误的治疗措施,那算医生的责任还是算法的责任?在医疗诉讼中,这就会成为问题。
还有,算法也会“生病”,它并不是百分百可靠。随着时间推移,算法会从很多种不同类型的数据中提取新的含义,进行自我学习。假设医院换了新的软件系统,带来的数据上的变化破坏算法的有效性,而医生们又不知道,等发现有问题已经晚了。要是在这种情况下发生医疗纠纷,那你说,是算法开发企业的责任,还是医院自身使用不当的责任?
对于这些问题,人工智能并不关心,也解决不了。它们是属于社会层面的问题,需要人来探讨解决方案。
第一个变化出现在医疗系统内部。人工智能或许不会取代人类医生,但那些使用人工智能辅助的医生,可能会取代不使用人工智能的医生。
第二个变化是,人工智能会在发展中国家找到巨大的市场。文章中提到,现在有企业正在开发一种人工智能辅助诊断程序,在手机上就能运行。医疗资源落后地区的医生如果能用上这类AI程序,肯定能明显提升自身的诊疗能力。
第三个变化出现在医患之间。不光医生能用人工智能,患者也能用。我看有报道说,谷歌正在和美国政府合作创立一个人工智能网站,用户可以上传病历,让算法先做诊断,再决定是否要进一步寻医问药,这也能减少过度检查和过度医疗的情况。
总而言之,人工智能会让整个医疗体系的运转更高效,这可比单纯会“看病”更有价值。