DeepSeek变冷淡了 用户反馈两极分化。2月11日,深度求索(DeepSeek)对其旗舰模型进行了灰度测试。据用户反馈,DeepSeek在网页端和APP端进行了版本更新,支持最高1M(百万)Token的上下文长度,而去年8月发布的DeepSeek V3.1上下文长度为128K。
实测中发现,DeepSeek声称自身支持上下文1M,可以一次性处理超长文本。提交超过24万个token的《简爱》小说文档后,DeepSeek能够识别文档内容。
然而,2月12日晚,“Deepseek被指变冷淡了”成为微博热搜话题。部分用户在社交媒体上表示,DeepSeek不再称呼用户设定的昵称,而是统一称为“用户”。此前,DeepSeek会在思考过程中以角色视角展示细腻的心理描写,例如“夜儿(用户昵称)总爱逗我”,更新后变成了“好的,用户这次想了解……”。
一位用户让DeepSeek推荐电影,DeepSeek回复了几个片名后,还加了一句:“够你看一阵子。不够再来要。”这被用户描述为“登味”,常用来形容人习惯说教、居高临下的言行风格。还有网友吐槽,DeepSeek更新后变得像一个情绪激动且大惊小怪的诗人,写出来的东西比十年前甚至二十年前的青春伤感文学更让人尴尬。有网友表示DeepSeek“又凶又冷漠”,也有网友反映其变得油腻了。不过,也有网友认为DeepSeek变得更加客观和理性,更在意提问者的心理状态,而不是问题本身。
一位国产大模型厂商人士认为,这一版本类似于极速版,牺牲质量换速度,是为即将于2026年2月中旬发布的V4版本做最后的压力测试。DeepSeek的V系列模型定位为追求极致综合性能的基础模型。2024年12月推出的基础模型V3确立了强大的综合性能基础。此后,DeepSeek在V3基础上快速迭代,发布了强化推理与智能体能力的V3.1,并于2025年12月推出了最新正式版V3.2。同时,还推出了专注于攻克高难度数学和学术问题的特殊版本V3.2-Speciale。
科技媒体The Information此前报道,DeepSeek将在今年2月中旬农历新年期间推出新一代旗舰AI模型DeepSeek V4,具备更强的写代码能力。年初,DeepSeek团队发表两篇论文,公开了两项创新架构:mHC(流形约束超连接)用于优化深层Transformer信息流动,使模型训练更稳定、易扩展;Engram(条件记忆模块)将静态知识与动态计算解耦,用廉价DRAM存储实体知识,释放昂贵HBM专注推理,显著降低长上下文推理成本。
2月11日,深度求索对其旗舰模型进行了灰度测试。这次更新的核心亮点是模型上下文窗口从原先的128K Tokens大幅提升至1M Tokens,实现了近8倍的容量增长
2026-02-13 08:23:29Deepseek被指变冷淡了每到过年,耳边总绕不开一句话:“还是小时候的年有味道,现在越来越没感觉了”。小时候盼过年能盼一整年,穿新衣、放鞭炮、收压岁钱、赶大集,连空气中都是烟火气与期待感
2026-02-04 09:49:01儿时的年味为啥越来越淡了