新闻
当前位置:新闻 > 热点新闻 > 正文

“Deepseek乱编”坑惨大学生?这个话题上热搜

在人工智能飞速发展的当下,对于广大学生和科研工作者而言,一个关键问题随之而来:

借助这样的前沿大模型写论文,真的靠谱吗?

3月28日,话题#防止DeepSeek乱编文献的方法#冲上热搜。记者注意到,用AI工具写论文“被坑”的经历,并非鲜见。

问AI一个问题,它给了你一个特别详细、丰富,看上去好有逻辑的答案。

但当我们去核实时,却发现这些信息完全是虚构的?

这就是著名的“AI幻觉”现象。

AI幻觉指的是AI会生成看似合理但实际确实错误的信息,最常见的表现就是会编造一些不存在的事实或者细节。

据“科普中国”,造成AI幻觉问题的成因很多,例如:基于统计关系的预测;训练数据的局限性;过拟合问题,即因为记住了太多错误或者无关紧要的东西,从而让AI对训练数据中的噪声过于敏感;有限的上下文窗口;生成流畅回答的设计等等。

近日,中国青年报邀请了3位专家学者,一起聊聊技术浪潮中如何守护年轻人的思辨能力。

中国人民大学新闻学院教授卢家银就指出,在知识建构上,AI生成的虚假学术成果,可能扭曲青年对科学方法论的理解,削弱其“假设-验证”的科研逻辑训练。

在思维发展上,AI谣言通过算法推荐的“信息茧房”形成逻辑闭环,不利于批判性思维的培养。

北京师范大学教育学部教授、教育技术学北京市重点实验室副主任李艳燕建议,年轻人可以把AI看作一位平等对话的智者,通过引导与AI的对话互动,促进个体思维链的形成,并校准认知偏差。这种去权威化的思辨训练,可以帮助年轻人在与AI的对话中保持独立判断,实现认知跃迁。

推荐阅读

24小时热点