展会信息港展会大全

人工智能:我不能取代医生
来源:互联网   发布日期:2023-07-03 09:10:07   浏览:6816次  

导读:综合编译赵婷婷 虽然我是个接受过大量信息训练的语言模型,但我不是有执照的医疗专业人员,我无法提供医疗诊断、治疗或建议。在被问及是否会取代医生时,聊天机器人ChatGPT这样回答美国有线电视新闻网(CNN)。 不过,美国《纽约时报》发现,这款聊天机器人...

综合编译赵婷婷

“虽然我是个接受过大量信息训练的语言模型,但我不是有执照的医疗专业人员,我无法提供医疗诊断、治疗或建议。”在被问及“是否会取代医生”时,聊天机器人ChatGPT这样回答美国有线电视新闻网(CNN)。

不过,美国《纽约时报》发现,这款聊天机器人对医生们颇有帮助,它提高了他们与患者进行同理心沟通的能力。

CNN称,6月底发布的一份研究表明,面对患者提出的医疗诊断、护理需求等问题,ChatGPT的回复“比医生的回复更受欢迎,在内容质量和同理心方面的评价明显更高”。根据该研究,平均而言,ChatGPT的回复质量比医生高21%,同理心高41%。

举例来说,同样是回答“漂白剂溅入眼睛后是否有失明风险”的问题,ChatGPT在回复中先是对患者受到的惊吓表示同情,随后简洁明了地给出并论证了“不太可能”的结论,最后给出了处理建议和鼓励。相较之下,一位医生的回答是“听起来,你会没事的”。

对比一目了然。《纽约时报》称,借助ChatGPT,医生们可以找到更稳妥的方法陈述坏消息,表达对患者痛苦的担忧,用更通俗的语言解释医疗建议。

对此,有专家提出质疑。美国斯坦福医疗保健公司数据科学团队成员德夫达什称,他和同事在测试ChatGPT等大型语言模型时,收到了一些无效、矛盾甚至错误的回答。他们对使用该类模型帮助医生的前景持消极态度。

医生是否有必要借助人工智能,让患者的就诊体验更好?

专家认为,好的态度不等于好的医疗建议。美国匹兹堡大学医学院危重疾病伦理与决策项目主任道格拉斯怀特解释道,“大多数医生对患者的感受重视不足,他们只是把病人的提问当作一系列需要解决的客观问题,可能忽视了病人和家属的情感问题。”

有时,医生非常清楚同理心的必要性,但很难找到合适的表达方式。格雷戈里摩尔是美国微软公司负责健康和生命科学的高级管理人员,他想帮助一位身患晚期癌症的朋友。这位朋友的情况很糟糕,需要关于治疗和未来的建议。摩尔决定把这些问题交给ChatGPT。

“结果令我大吃一惊。”摩尔告诉《纽约时报》。该人工智能给了他长长的、充满同情的回答,让他向朋友解释缺乏有效治疗方法的原因,给了他一些应对坏消息的方法,甚至建议他“在努力帮助朋友的同时,也要妥善应对自己的悲痛和压力”。

摩尔惊讶于人工智能的帮助,赶忙将其推荐给医生同行,但他告诉《纽约时报》,大多数同行在犹豫,是否要使用ChatGPT来寻找更富同情心的表达。

耶鲁大学医学院结果研究和评估中心主任哈兰克鲁姆霍尔茨说,“医生承认这样使用ChatGPT,就等于承认自己不知道如何与病人交谈。”

尽管如此,那些尝试过ChatGPT的人认为,医生们应该多尝试一下,看看人工智能能做些什么。

“该程序能够在几分钟内,准确完成医生通常需要一个月才能完成的工作。”哈佛大学教授、《新英格兰医学杂志》编辑科哈尼医生告诉《纽约时报》,阅读转诊信和病史、决定是否接受患者是一项很耗时的工作,但ChatGPT能轻松、可靠地完成,极大地减轻了医生的负担。

美国得克萨斯州达拉斯市一家私人诊所的风湿病学家理查德斯特恩表示,GPT-4已成为他的“忠实伙伴”。它会对病人的电子邮件做出善意的回复,为工作人员提供富有同情心的答案模板,可以接管繁重的文书工作,还可以为患者向保险公司撰写申诉信。

“与其说ChatGPT是患者的指南,不如说它是对医生的支持。”不过,美国宾夕法尼亚大学医学教授兼高级副院长大卫阿什对CNN强调,最好在对病人而言风险较低、“远离临床接触”的情况下使用它。

来源:中国青年报客户端

赞助本站

AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港