快捷导航

AI“看病很准,包治百病”?需警惕“AI幻觉”

2025-3-1 14:04| 发布者: admin| 查看: 98| 评论: 0
摘要: 半月谈评论员 秦黛新近日,有关“带着DeepSeek看病”的话题引发了大家的关注和讨论,有人分享了自己用AI问诊的经历,称不仅AI给出的答案和医生给出的建议是一样的,甚至医院的检查报告还没出结果,AI就已经帮忙分析 ...

AI“看病很准,包治百病”?需警惕“AI幻觉”


半月谈评论员 秦黛新


近日,有关“带着DeepSeek看病”的话题引发了大家的关注和讨论,有人分享了自己用AI问诊的经历,称不仅AI给出的答案和医生给出的建议是一样的,甚至医院的检查报告还没出结果,AI就已经帮忙分析好了。

人工智能的兴起正在引发医疗行业的变革,各地多家医院引入DeepSeek,通过本地化部署将其应用于临床、科研和行政管理等多个场景。然而,AI真的能完全代替医生看病吗?这恐怕得打个问号。

湖南省医保局日前印发通知,其中明确规定:“严禁接收人工智能等自动生成处方”,一些医生也表示,AI的诊断结果只能作为诊断的参考,在处理复杂病例、结合患者个体差异进行诊断等方面仍有局限性,最终的诊断还是要依靠医生。就现有情况看,AI看病虽然有时候看起来很“准”,但仍然需要医生更为专业的判断,AI诊断技术也更加适合专业医护人员辅助诊疗使用。更为重要的是,对于缺乏专业医疗知识的普通大众来说,在使用AI问诊时,警惕“AI幻觉”带来的虚假编造也是其中的关键。

很多时候,当我们问AI一个问题时,可能会发现,AI给出了一个详细、具体、很有逻辑的答案,而当我们就其中的内容做进一步核实时,却发现这些信息存在虚构和编造,这就是AI幻觉。AI幻觉在各大模型中都难以避免,如果大模型的训练数据存在偏差、不全面,AI就容易“学偏”,生成不准确的结果。同时,AI模型大多基于概率生成,缺乏对个案的真实感知和对事实的深度理解,这种“概率游戏”使得AI在生成内容时,容易陷入“自说自话”的境地,甚至编造看似合理实则荒谬的信息。

AI幻觉现象已被不少网友发现,有人发帖表示,在用AI进行文献分析时,答案里会出现一些查无此文的文献;有人发现,AI会把一本书的作者安到另一个人的身上;还有人发现,AI给出的答案存在上下文不符、逻辑不一致的现象。这提醒我们,AI生成的内容并不是完全可靠的,要理性看待和使用,谨防虚假和编造内容的出现,尤其是在医疗等严肃领域,更不可完全信奉AI,以免对自身的健康造成危害。

警惕AI幻觉并不是说我们就要因噎废食,而是要及时从技术层面加以改进,在伦理和规范层面未雨绸缪。AI的发展需要在进步中不断反思,更要在反思中持续前行。唯有如此,我们才能让AI成为推动社会进步的有力帮手,而非隐患之源。


路过

雷人

握手

鲜花

鸡蛋

关注我们:东远物联

抖音

微信咨询

咨询电话:

199-2833-9866

D-Think | 广州东远智能科技有限公司

地址:广州市白云区北太路1633号广州民营科技园科创中心2栋16楼

电话:+86 020-87227952 Email:iot@D-Think.cn

Copyright  ©2020  东远科技  粤ICP备2024254589号

免责申明:部分图文表述来自于网络,如有侵权请联系作者删除!