研究显示:AI提供的医疗建议,近半数具有误导性

彭博社星期三(4月15日)报道,美国、加拿大和英国的研究人员评估了五大人工智能(AI)热门平台——ChatGPT、Gemini、Meta AI、Grok和DeepSeek;每个平台必须针对五个保健类别的10道问题作答。

研究人员本周在英国跨领域医学期刊(BMJ Open)发表的研究报告显示,这些AI聊天机器人给出的答案,约有50%被认为“有问题”;其中近20%,问题“非常严重”。

研究结果凸显了人们越来越依赖生成式AI平台所引发的隐忧,因为这些平台既不具备足以提供医疗建议的准证或授权,也缺乏诊断所需的临床判断力。

这一问题可能带来的安全隐患不容忽视,OpenAI数据显示,每周有至少2亿人向ChatGPT咨询健康保健方面的问题,这是一个庞大的数字。如果存在问题的答案是如此之多,那么AI提供的医疗建议将会给许多人带来安全隐患。

过去两三年,笔者自己也时不时地在用AI查阅一些资料,发现其出错率很高。但在医疗问题上,笔者查询的结果出错率不高,原因可能是因为像笔者这样的掌握一定的医学专业知识的人,在使用AI查询医疗问题的时候,选择的关键词很准确。

实际上,有一些朋友用笔者推荐的一些医疗AI去获取相关的医疗建议,其结果与笔者能获得的结果的质量相差很大。原因在于大多数人,并不知道如何查询专业的医学知识,他们连正确的提问的能力都不具备,所以,最后得不到高质量的回复。

AI掀起的浪潮正在席卷各行各业,医疗行业也受到了AI的影响,普通人的生活方式也在悄悄地发生改变。但AI呈现了“遇强则强,遇弱则弱”的特点,在各个行业,只有专业人士才能够与AI做深入地互动,也只有专业人士才能判断AI输出的答案是正确还是错误。

将来AI能不能取代专业人士,目前各方意见不一。笔者倾向于认为AI取代不了真正有价值的专业人才,但确实能够替代许多中等水平的专业人士,因为他们的工作水平本来也不怎么样,AI给出的结果虽然错讹百出,但我们在实际工作中也知道,人类同样如此。我记得前几年美国对其肿瘤医师做了一次调查,发现过半的肿瘤科医生的整体水平也不过关。

高难度的医学研究,不可能依靠AI来完成,毕竟医学实践是需要做出许多创新性的尝试的,医学的每一次进步都是在大量的临床实践中摸索出来的。所以,未来,具备创新性思维和动手能力的人类医生应仍然是稀缺人才。

尊敬的读者,我正脱产在医学院校全日制学习,所有文章皆为我每日学习笔记或个人随笔,仅供读者参考。我除此博客与微信公众号外,无任何其他自媒体。欢迎关注我的微信公众号,微信公众号:zhouzhiyuan360(或在微信公众号中搜索“周志远”)

分享到