警惕AI幻觉带来的虚假编造!近日,有关“带着DeepSeek看病”的话题引起了广泛关注和讨论。有人分享了自己使用AI问诊的经历,称AI给出的答案与医生建议一致,甚至在医院检查报告还未出结果时,AI就已经完成了分析。
人工智能的兴起正在改变医疗行业。各地多家医院引入DeepSeek,并将其应用于临床、科研和行政管理等多个场景。然而,AI能否完全替代医生仍需质疑。湖南省医保局日前印发通知,明确规定禁止接收由人工智能自动生成的处方。一些医生也指出,AI诊断结果只能作为参考,在处理复杂病例和结合患者个体差异方面仍有局限性,最终诊断仍需依靠医生的专业判断。尽管AI在某些情况下看起来非常准确,但仍然需要医生更为专业的判断,更适合辅助专业医护人员进行诊疗。对于普通大众而言,在使用AI问诊时,警惕“AI幻觉”带来的虚假编造尤为重要。
很多时候,当我们向AI提问时,可能会得到一个详细且逻辑严密的回答。然而,进一步核实后会发现这些信息存在虚构和编造,这就是所谓的AI幻觉。由于大模型训练数据可能存在偏差或不全面,AI容易生成不准确的结果。此外,AI基于概率生成内容,缺乏对个案的真实感知和事实的深度理解,容易陷入“自说自话”的境地,甚至编造看似合理实则荒谬的信息。
不少网友已经发现了AI幻觉现象。有人发帖表示,在用AI进行文献分析时,答案中会出现查无此文的文献;有人发现,AI会把一本书的作者安到另一个人身上;还有人发现,AI给出的答案存在上下文不符、逻辑不一致的现象。这提醒我们,AI生成的内容并非完全可靠,要理性看待和使用,特别是在医疗等严肃领域,不可完全依赖AI,以免对自身健康造成危害。
警惕AI幻觉并不意味着要因噎废食,而是要在技术层面加以改进,并在伦理和规范层面未雨绸缪。AI的发展需要在进步中不断反思,在反思中持续前行。只有这样,才能让AI成为推动社会进步的有力工具,而不是隐患之源。
近日,“带着DeepSeek看病”的话题引起了广泛关注。有人分享了使用AI问诊的经历,称AI给出的建议与医生一致,甚至在医院检查报告未出结果时,AI已经完成了初步分析
2025-02-27 10:30:05媒体AI幻觉是指大模型在生成内容时容易胡编乱造,有时甚至足以以假乱真,或者出现“AI运算偏差”,产生与现实不符的内容。科技博主阑夕的一篇文章《DeepSeek的胡编乱造,正在淹没中文互联网》引起了广泛关注
2025-03-07 06:36:37刘庆峰谈AI幻觉带来的数据污染2025年2月,中国人民大学教授李婷公开辟谣了一组数据——“中国80后累计死亡率为5.20%”。在社交媒体上,许多“80后”因这组数据感到惋惜
2025-03-05 16:23:25小心AI在胡说八道近期,某短视频平台上出现了忻州市某中学发生“火灾”的照片,引起网民关注。忻州市公安机关网安部门迅速介入调查,经核实,这些图片是通过AI软件合成的虚假信息。调查发现,忻州市并没有学校发生火灾
2025-02-23 13:10:26公安查处编造学校火灾谣言案