AI完败于人类医生!研究发现:大模型临床决策草率且不安全,最低正确率仅13%(dae模型文件用什么打开)

AIGC动态欢迎阅读

原标题:AI完败于人类医生!研究发现:大模型

临床决策草率且不安全,最低正确率仅13%

关键字:解读,模型,医生,数据,患者

文章来源:大数据文摘

内容字数:0字

内容摘要:

大数据文摘授权转载自学术头条

人类医生,会因为 ChatGPT

等大模型纷纷下岗吗?

这种担心,并非空穴来风。毕竟,谷歌的大模型(Med-PaLM 2)已经轻松拿下了美国医学执照考试,达到了医学专家的水平。

然而,一项最新研究表明:在临床方面,人类医生完胜目前的人工智能(AI)模型,无需过于担心个人「失业问题」。

相关研究论文以“Evaluation and mitigation of the limitations of large language models in clinical decision-making”为题,已于近日发表在科学期刊 Nature Medicine 上。该研究发现,即使是目前最先进的大语言模型(LLM)也无法为所有患者做出准确诊断,且表现明显差于人类医生——

医生的诊断正确率为 89%,而 LLM 的诊断正确率仅为 73%。在一个极端情况(胆囊炎诊断)下,LLM 正确率仅为 13%。

更令人惊讶的是,随着对病例信息的了解增多,LLM 的诊断准确度反而会降低,有时甚至会要求进行一些可能对患者有严重健康风险的检查。

化身急诊科医生,LLM 表现如何?尽管

原文链接:AI完败于人类医生!研究发现:大模型临床决策草率且不安全,最低正确率仅13%

联系作者

文章来源:大数据文摘

作者微信:

作者简介:

0
分享到:
没有账号? 忘记密码?