OpenAI长期政策研究员迈尔斯·布伦戴奇宣布辞职,他负责的通用人工智能(AGI)准备工作组也被解散并入其他团队。布伦戴奇在OpenAI工作了六年多,是公司中少数坚持遏制人工智能风险的老员工之一。
OpenAI章程中定义AGI为“在大多数经济价值较高的工作中,能够胜过人类的高度自主系统”。布伦戴奇的任务是确保安全、可靠、有益地开发、部署和管理能力日益增强的人工智能系统。然而,在离职声明中,布伦戴奇直言无论是OpenAI还是其他前沿实验室,都没有为实现AGI做好准备,世界还远未准备好迎接强大的AGI。他认为现有差距巨大,打算在职业生涯剩余时间里致力于人工智能政策方面的工作。
布伦戴奇计划加入一个非营利组织,以便更自由地发表文章,独立从事人工智能政策研究。他在OpenAI内部感受到越来越多的限制,特别是在发布文章审查方面的限制变得太多。此前,OpenAI首席执行官山姆·奥尔特曼曾试图解雇海伦·托纳,原因是她对OpenAI的安全承诺提出过多批评。
布伦戴奇的辞职标志着OpenAI内部关注人工智能安全和治理的声音正在消亡,剑桥大学潜在风险研究中心研究员海顿·贝尔菲尔德称其为“一个时代的终结”。2019年OpenAI首次成立盈利部门时,一些老员工就对此表示担忧,但最终接受了转变。然而,随着时间推移,情况发生了显著变化。特别是在2023年11月奥尔特曼被短暂解雇后,员工们对OpenAI的文化和领导层产生了质疑。尽管奥尔特曼复职,但这一事件只是OpenAI内部动荡的开始。自那时起,OpenAI失去了大量关注AGI安全的员工。
前超级对齐团队负责人伊利亚·苏茨克沃尔和扬·莱克在离职时也公开批评了OpenAI的安全文化。莱克表示,在过去几年里,OpenAI的安全文化已让位于光鲜亮丽的产品。布伦戴奇表达了对整个行业在AGI安全问题上的担忧,呼吁国会大力资助美国人工智能安全研究所,并提倡通过国际合作解决未来AGI非常棘手的安全问题。
10月25日,外媒报道OpenAI正在解散其“AGI Readiness”团队。该团队负责为OpenAI提供处理可能超越人类智商水平的人工智能能力以及世界管理此类技术的准备情况的建议
2024-10-25 10:25:00OpenAI解散AGI团队5月22日,有报道称,TikTok即将在本周实施裁员措施。据悉,此次裁员主要涉及全球用户运营、内容制作及营销部门,约有1000名员工面临岗位调整,其中不少人员将被纳入裁员范围
2024-05-22 18:42:20TikTok计划解散全球用户营运团队6月25日,不少来自不同国家和地区的API开发者在社交平台上分享收到OpenAI的通知,该通知表明将从7月9日起实施措施,限制不支持地区的API访问
2024-06-27 10:22:22OpenAl对中国设限