如果给你开诊断书的不是医生,而是AI,你会接受吗?
(相关资料图)
就在人们热议以ChatGPT为代表的生成式AI将如何取代人们的工作时,大家发现,医院,似乎成了这类人工智能产品的一个“禁区”。
生成式AI可能掌握比单个医生更多的信息,从而有更多的“经验”,但是,医生的决定往往事关道德,AI很难从道德角度来做决定。
也有医生赞成在医院中使用AI技术的。斯坦福大学医学院教授、曾任拥有超过1200万患者的美国医疗集团Kaiser Permanente首席执行官的Robert Pearl说:
我认为AI对医生来说将比过去的听诊器更重要。任何医生都不该把ChatGPT或其他形式的生成式AI拒之门外。
Pearl认为,ChatGPT可以帮助医生来撰写患者的临床报告、诊断书,甚至在和患者交流遇到困难时向医生提供建议。在他看来,生成式AI对医学发展来说是好事。
医学专业人士希望生成式AI的语言模型可以挖掘数字诊疗档案中的有用信息,或者为患者提供简洁明了的专业解释,但也有人担心这些技术会蒙蔽医生的双眼或提供不准确的回应,从而导致错误的诊断或治疗计划。
开发AI技术的公司已制定了雄心勃勃的进驻医疗行业的计划。去年,微软研究院推出了BioGPT,这是一种在一系列医疗任务上取得高分的语言模型,OpenAI、马萨诸塞州总医院和AnsibleHealth共同完成的一篇论文声称,ChatGPT可以通过美国执业医师执照考试,分数超过及格线60分。几周后,谷歌和旗下的DeepMind的研究人员推出了Med-PaLM,它在同一考试中达到了67%的准确率——这一结果虽然振奋,但谷歌当时表示,“仍然不如临床医生”。微软和全球最大的医疗保健软件供应商之一Epic Systems宣布计划使用支持OpenAI的GPT-4来搜索电子诊疗档案。
研究AI对医疗保健影响的哈佛大学公共卫生讲师Heather Mattie认为,人们需要破除对AI的迷信,即必须认识到AI不可能是100%正确的,并且可能会产生有偏见的结果。她认为,如果有这样的认识,AI将成为医生们很好的助手。
她尤其担忧的是,AI在心脑血管疾病和重症监护方面是否会给出错误答案,对其他临床领域直接应用AI,她也表示担心,因为有时候AI会捏造事实,并且不清楚它所借鉴的信息是否已经过时。因此她认为,如果医生对AI生成的答案不进行事实核查和鉴别,则很有可能出现误诊。
此外,一些伦理学家担心,当医生遇到艰难的道德决定时,比如手术是否能够提高患者的存活率和存活时间,AI未必给出符合伦理的答案。
英国爱丁堡大学技术道德未来中心的伦理学家Jamie Webb说:
医生不能将这种程序外包或自动化给生成式AI模型。
去年,Webb参与的一个团队得出结论,AI系统很难可靠地平衡不同的道德原则,如果医生和其他工作人员过度依赖机器人而不是自己思考棘手的决定,他们可能会遭受“道德去技能化” .
医生们之前曾被告知,AI将彻底改变他们的工作,结果却大失所望。
今年2月,在哈佛大学举行的一次关于AI在医学领域的潜力的讨论会上,初级保健医生Trishan Panch回忆说,当时正是ChatGPT火热之际,他在社交媒体上看到了一份由ChatGPT撰写的诊断书。Panch回忆说,当时兴奋的临床医生很快在会议上承诺在他们自己的实践中使用该技术,但在使用ChatGPT到第20次左右时,另一位医生插话说,该模型生成的所有参考资料都是假的。
尽管AI有时会犯明显的错误,但Robert Pearl仍然非常看好ChatGPT等生成式AI。他认为,在未来的几年里,医疗保健领域的AI语言模型将变得更像iPhone,充满了可以增强医生能力和帮助患者管理慢性病的功能。他甚至认为,ChatGPT这样的AI可以帮助减少美国每年因医疗错误导致的超过25万例死亡。
Pearl确实认为有些事情是AI的禁区。他说,帮助人们应对悲伤和失落的情绪、与家人进行临终对话,以及一些高风险的诊疗手段不应该将AI牵扯其中,因为每个病人的需求都不一样:
那些是人与人之间的对话。
他将ChatGPT比作一名医学生:能够为患者提供护理并参与其中,但它所做的一切都必须由主治医师审查。
风险提示及免责条款 市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。