OpenAI 最近向社区分享了其谨慎、逐步部署 AI 模型的方法,采取分阶段发布的策略,并以 GPT-2 的谨慎发布为例。然而,这一示例引发了前 OpenAI 政策研究员 Miles Brundage 的批评,他指责公司歪曲了 AI 安全的历史。
OpenAI 发布的文件阐明了其对 AI 安全和模型部署的态度。文件中强调,公司在处理现有系统时始终保持谨慎,并提到 GPT-2 是其谨慎发布策略的一部分。公司相信只有通过从现有工具中学习,才能确保未来系统的安全。文件部分内容大意如下:在一个不连续的世界中,安全的教训来自于对当今系统的极度谨慎,尤其是相对于它们表现出来的力量,这正是他们对 GPT-2 的方法。现在将第一个 AGI 视为逐步增加有用性的系统中的一部分,在连续的世界中,确保下一个系统安全且有益的方式是从当前系统中学习。
Miles Brundage 坚称,GPT-2 的发布同样采取了逐步推进的方式,OpenAI 在每个阶段都分享了相关信息,安全专家也认可公司在处理模型时的谨慎态度。他认为,GPT-2 的逐步发布与公司当前的逐步部署策略一致,并坚信过去的谨慎并非过度,而是必要且负责任的。Brundage 表达了不满和担忧,认为“AGI 分步实现而非一蹴而就”这一说法重写了 GPT-2 的历史。他还指出,公司声称 AGI 将通过逐步发展而非突发突破的说法令人担忧。他表示,OpenAI 发布该文件的目的可能是为安全问题设立标准,或将这些问题视为过度反应,可能带来巨大风险,尤其是在 AI 系统正在日益进步的当下。
这不是 OpenAI 第一次因过度追求进步和利润而忽视长期安全问题受到批评。像 Brundage 这样的专家担心,如果不对 AI 安全保持谨慎,未来可能面临的风险将十分严重。
由OpenAI前首席科学家伊尔亚·苏茨克维去年创立的人工智能初创公司Safe Superintelligence(SSI)在最新一轮融资中有望筹集超过10亿美元,估值预计将突破300亿美元
2025-02-18 21:39:37AI公司SSI估值有望飙至300亿美元