DeepSeek R1的推出给全球AI行业带来了新的变数。面对这一冲击,美国两大AI巨头Anthropic与OpenAI迅速做出回应,试图缓解市场对其技术领先地位的担忧。
周三,Anthropic首席执行官达里奥·阿莫迪发布了一篇长文讨论了DeepSeek的进展。他指出,DeepSeek并没有“用600万美元做到美国AI公司花费数十亿美元才能实现的事情”。以Anthropic为例,Claude 3.5 Sonnet是一个中等规模的模型,训练成本达数千万美元,远非数十亿美元级别。他认为DeepSeek的训练成本降低符合行业趋势,并不代表突破性的技术成就。如果AI训练成本每年下降4倍,而DeepSeek-V3的训练成本比一年前开发的美国当前模型低约8倍,这完全符合正常趋势。即使接受DeepSeek的训练成本数据,他们也只是处于趋势线上,甚至可能还未完全达到。
此前一天,OpenAI首席研究员Mark Chen也对DeepSeek R1做出回应,其态度既肯定又带有一丝微妙。Chen承认DeepSeek“独立发现了OpenAI在o1模型研发过程中的一些核心理念”,但他将焦点转移到成本问题上,认为“外界对成本优势的解读有些过头”。他还提到了“蒸馏技术”的成熟和“成本与能力解耦”的趋势,强调OpenAI在模型压缩和优化技术方面的探索。他表示,低成本服务模型并不意味着拥有更强的模型能力。OpenAI将继续在降低成本和提升能力两个方向上努力,并承诺今年会发布更优秀的模型。
纽约大学教授、AI专家Gary Marcus则认为,DeepSeek对OpenAI的影响可能比想象中更大。他指出,DeepSeek基本上免费提供了OpenAI想要收费的东西,这可能会严重影响OpenAI的商业模式。此外,DeepSeek比OpenAI更开放,这将吸引更多人才。Marcus质疑OpenAI 1570亿美元的估值,在每年损失约50亿美元的情况下,这一估值难以证明合理性。
阿莫迪进一步解释了AI发展的三大定律:规模法则、计算成本的下降和训练范式的变化。规模法则表明,训练规模越大,AI在一系列认知任务上的表现越稳定、越出色。计算成本的下降则是由于算法和硬件的改进,使得AI训练的计算成本每年下降约4倍。训练范式的改变则体现在从预训练到强化学习的发展。这些因素有助于理解DeepSeek最近的发布。尽管DeepSeek在某些方面表现出色,但并未从根本上改变LLM的经济性,它只是持续成本降低曲线上一个预期的点。不同的是,这次第一个展示预期成本降低的公司是中国的,这在地缘政治上具有重要意义。美国公司很快也会跟上这一趋势。
尽管像ChatGPT这样的大语言模型一直是AI新闻的焦点,但人们开始意识到它们的局限性。OpenAI表示其旗舰GPT模型的改进速度正在放缓,这引发了对未来发展方向的疑问
2024-11-26 11:17:00科技巨头开始“卷”AI智能体近日,百度智能云、华为云、阿里云、腾讯云、360数字安全、云轴科技等多个平台宣布上线DeepSeek大模型。用户可以在各大平台上调用DeepSeek-R1和DeepSeek-V3等模型
2025-02-05 10:02:29多个平台宣布上线DeepSeek大模型1月27日,DeepSeek应用登顶苹果美国地区应用商店免费APP下载排行榜,超越了ChatGPT。同一天,该应用也在中国区苹果应用商店的免费榜上位列第一
2025-01-27 09:12:14DeepSeek登顶苹果美区免费下载榜