原标题:马斯克等千名科技人士发公开信:暂停训练比GPT-4更强大的AI系统
最近几天,人工智能风险引发了多位科技领袖的深切担忧。
首先是被称为“人工智能教父”的杰弗里·辛顿(Geoffrey Hinton),他上周在接受哥伦比亚广播公司采访时表示,人工智能可能发展到对人类构成威胁“并非不可想象”的地步。
随后,AI“大牛”盖瑞·马库斯(Gary Marcus)3月27日发推响应辛顿,28日又发表题为“人工智能风险≠通用人工智能风险”的文章,称超级智能可能会也可能不会迫在眉睫,但在短期内,需要担心“MAI(平庸人工智能)风险”。
27日,推特CEO伊隆·马斯克也加入进来,表达对辛顿和马库斯的赞同。
马斯克在社交网络上与杰弗里·辛顿和盖瑞·马库斯互动。
29日,未来生命研究所(Future of Life Institute)公布一封公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月。
辛顿、马库斯和马斯克均签署了这封公开信。
“加快开发强大的AI治理系统”
未来生命研究所的这封公开信题为“暂停巨型AI实验:一封公开信”,于29日解封。
未来生命研究所的公开信已有1079人签署。
信中写道:
广泛的研究表明,具有与人类竞争智能的人工智能系统可能对社会和人类构成深远的风险,这一观点得到了顶级人工智能实验室的承认。
正如广泛认可的“阿西洛马人工智能原则(Asilomar AI Principles,阿西莫夫的机器人三大法则的扩展版本,于2017年由近千名人工智能和机器人专家签署)中所述,高级AI可能代表地球生命史上的深刻变化,应该以相应的关照和资源进行规划和管理。
不幸的是,这种级别的规划和管理并没有发生,尽管最近几个月人工智能实验室陷入了一场失控的竞赛,以开发和部署更强大的数字思维,没有人——甚至他们的创造者——能理解、预测或可靠地控制。
“当代人工智能系统现在在一般任务上变得与人类具有竞争力,我们必须扪心自问:我们是否应该让机器用宣传和谎言充斥我们的信息渠道?我们是否应该自动化所有工作,包括令人满意的工作?我们是否应该发展最终可能比我们更多、更聪明,淘汰并取代我们的非人类思维?我们应该冒险失去对我们文明的控制吗?”这封信写道,“只有当我们确信它们的影响是积极的并且风险是可控的时候,才应该开发强大的人工智能系统。这种信心必须有充分的理由,并随着系统潜在影响的规模而增加。OpenAI最近关于通用人工智能的声明指出,‘在某些时候,在开始训练未来的系统之前进行独立审查可能很重要,并且对于最先进的工作来说,应该同意限制用于创建新模型的计算量增长。’我们同意。那个某些时候就是现在。”
这封信呼吁,所有人工智能实验室立即暂停训练比GPT-4更强大的人工智能系统至少6个月。
这种暂停应该是公开的和可验证的,并且包括所有关键参与者。
如果不能迅速实施这种暂停,政府应介入并实行暂停。
人工智能实验室和独立专家应该利用这次暂停,共同开发和实施一套用于高级人工智能设计和开发的共享安全协议,并由独立的外部专家进行严格审计和监督。
这些协议应确保遵守它们的系统是安全的,并且无可置疑。
这并不意味着总体上暂停AI开发,只是紧急从奔向不可预测的大型黑盒模型的危险竞赛中收回脚步。
与此同时,信中指出,AI开发人员必须与政策制定者合作,以显著加快开发强大的AI治理系统。
至少应包括:建立专门负责AI的有能力的新监管机构;监督和跟踪高性能人工智能系统和大量计算能力;推出标明来源系统和水印系统,以帮助区分真实与合成,并跟踪模型泄漏;强大的审计和认证生态系统;界定人工智能造成的伤害的责任;为人工智能技术安全研究提供强大的公共资金;以资源充足的机构来应对人工智能将造成的巨大经济和政治破坏(尤其是对民主的破坏)。
这封信最后写道,“人类可以享受人工智能带来的繁荣未来。成功创建强大的AI系统后,我们现在可以享受‘AI之夏’,收获回报,设计这些系统以造福所有人,并为社会提供适应的机会。社会已经暂停其他可能对社会造成灾难性影响的技术。我们可以在这个领域也这样做。让我们享受一个漫长的AI之夏,而不是毫无准备地陷入秋天。”
未来生命研究所建立于2014年,是一个非营利组织,由一系列个人和组织资助,使命是引导变革性技术远离极端、大规模的风险,转向造福生活。
截至发稿,这封信已有1079名科技领袖和研究人员签名,除了马斯克、辛顿和马库斯之外,还包括图灵奖得主约书亚·本希奥(Yoshua Bengio)、《人工智能:现代方法》作者斯图尔特·罗素(Stuart Russell)、苹果公司联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)、Stability AI首席执行官埃马德·莫斯塔克(Emad Mostaque)等科技界领袖人物。
“可能导致核战争和更严重的疫情”
28日,马库斯在写作平台Substack上写道,一位同事写信给他问道:“这封(公开)信不会造成对即将到来的AGI(通用人工智能)、超级智能等的无端恐惧吗?”
美国作家、纽约大学教授加里·马库斯。
马库斯解释道,“我仍然认为大型语言模型与超级智能或通用人工智能没有太大关系;我仍然认为,与杨立昆(Yann LeCun)一样,大型语言模型是通向通用人工智能道路上的一个‘出口’。我对厄运的设想可能与辛顿或马斯克不同;他们的(据我所知)似乎主要围绕着如果计算机快速而彻底地自我改进会发生什么,我认为这不是一个直接的可能性。”
人工智能风险与通用人工智能风险。
但是,尽管许多文献将人工智能风险等同于超级智能或通用人工智能风险,但不一定非要超级智能才能造成严重问题。“我现在并不担心‘AGI风险’(我们无法控制的超级智能机器的风险),在短期内我担心的是‘MAI风险’——平庸人工智能(Mediocre AI)是不可靠的(比如必应和GPT-4)但被广泛部署——无论是就使用它的人数而言,还是就世界对软件的访问而言。一家名为Adept.AI的公司刚刚筹集了3.5亿美元来做到这一点,以允许大型语言模型访问几乎所有内容(旨在通过大型语言模型‘增强你在世界上任何软件工具或API上的能力’,尽管它们有明显的幻觉和不可靠倾向)。”
马库斯认为,许多普通人也许智力高于平均水平,但不一定是天才,在整个历史中也制造过各种各样的问题。
在许多方面,起关键作用的不是智力而是权力。
一个拥有核代码的白痴就可以摧毁世界,只需要适度的情报和不应该得到的访问权限。
现在,AI工具已经引起了犯罪分子的兴趣,越来越多地被允许进入人类世界,它们可能造成更大的破坏。
欧洲刑警组织27日发布一份报告,对采用ChatGPT类工具进行犯罪的可能性进行了讨论,令人警醒。“大型语言模型检测和重现语言模式的能力不仅有助于网络钓鱼和在线欺诈,而且通常还可以用来冒充特定个人或群体的讲话风格。这种能力可能会被大规模滥用,以误导潜在受害者将他们的信任交给犯罪分子。”这份报告写道,“除了上述犯罪活动外,ChatGPT的功能还有助于处理恐怖主义、政治宣传和虚假信息领域的许多潜在滥用案件。因此,该模型通常可用于收集更多可能促进恐怖活动的信息,例如恐怖主义融资或匿名文件共享。”
马库斯认为,再加上人工智能生成的大规模宣传,被大型语言模型增强的恐怖主义可能导致核战争,或者导致比新冠病毒更糟糕的病原体的故意传播等。
许多人可能会死亡,文明可能会被彻底破坏。
也许人类不会真的“从地球上消失”,但事情确实会变得非常糟糕。
“人工智能教父”杰弗里·辛顿在接受哥伦比亚广播公司采访时表示,人工智能可能发展到对人类构成威胁“并非不可想象”的地步。
上周在哥伦比亚广播公司的采访中,“人工智能教父”辛顿被问及人工智能“消灭人类”的可能性时说,“我认为这并非不可想象。我只想说这些。”
马库斯指出,相比辛顿和马斯克担忧天网和机器人接管世界,应该更多思考眼前的风险,包括恐怖分子在内的犯罪分子可能对大型语言模型做什么,以及如何阻止他们。
高盛研究报告:AI或致全球3亿人“丢饭碗”
ChatGPT迭代升级的脚步加快,很多人失业的恐惧也越来越重。高盛分析师布里格斯和库达尼在3月27日发布的研究报告中就直面了这一问题。
高盛这份报告称,全球预计将有3亿个工作岗位最终被AI取代。不过在很多人丢掉饭碗的同时,AI在未来能极大提高生产力也是不争的事实。报告预计在下一个十年间,全球GDP每年将达到7%的超高增长率。
欧美三分之二的工作将受影响
报告称:“最近出现的生成式人工智能将降低劳动力成本和提高生产率。尽管AI的潜力存在很大的不确定性,但它可以生成与人类创造成果无法区分的内容,并能打破人机沟通障碍,反映出具有潜在巨大宏观经济影响的重大进步。AI不仅节省劳动力成本,还能创造新的就业机会以及提高在岗工人的生产率。AI的革命性就像早期通用技术(如发电机和个人计算机)一样能为社会带来繁荣。”
高盛研究发现,目前欧美约有三分之二的工作岗位都在某种程度上受到AI自动化趋势的影响,而多达四分之一的当前岗位有可能最终被完全取代。该研究计算出美国 63%的工作暴露在“AI影响范围”中,其中7%的工作有一半以上的流程可以由AI自动化完成,这使他们很容易马上被人工智能取代。在欧洲,情况也差不多。
高盛认为AI技术可以执行的任务包括为小企业完成纳税申报、评估保险索赔和记录犯罪现场调查的结果。但更复杂的工作岗位预计仍将由人类独占,比如做出法庭裁决和检查危重病人的健康状况等工作就不太可能被人工智能取代。建筑工人等在户外从事体力劳动的角色也不太可能受到影响。
英国媒体认为该报告可能会加剧许多白领的担忧:这次AI浪潮中受到最剧烈影响的便是白领阶层,就像上世纪80年代工厂自动化让很多蓝领工人丢掉工作。
AI不当使用引人担忧
在很多人为AI提升工作效率感到振奋的同时,也有声音担忧人工智能成为犯罪的工具。上周欧洲刑警组织警告说,生成式AI的快速发展可能会使其成为“未来的主要犯罪商业模式”。
欧洲刑警组织引用的例子包括AI被用来创建极具欺骗性的“深度造假内容”,比如制造出未发生事件的虚假图像或视频。同时,聊天机器人也可能欺骗毫无戒心的人泄露个人信息。
欧洲刑警组织报告指出,ChatGPT未来或被用于网络钓鱼等犯罪行为。网络钓鱼是指它通过发送虚假电子邮件来诱使用户点击链接。在过去由于语法错误或语言风格不对,这些骗局很容易被人识破,而人工智能生成的文本内容高度逼真,加大了骗局被识破的难度。
由于ChatGPT拥有复制语言模式的能力,可以模仿特定个人或群体的说话风格,犯罪分子可能会利用它来瞄准受害者。与此同时,缺乏技术知识的犯罪分子还可能会利用ChatGPT来生成恶意代码。
中新网北京10月8日电(记者李金磊)今年中秋国庆和暑假假期旅游市场的火热展现了旅游复苏的强劲态势,假期旅游出行需求集中爆发导致的一系列问题也引发了进一步优化学生假期的思考。
2023-10-09 09:57:41专家呼吁推行学生“春假”制度白宫专家:美国将在未来几个月与中国就AI系统安全议题展开合作面对人工智能(AI)技术快速发展带来的风险与挑战,业界一直期待中美这两个领先国家能够携手合作。
2024-01-26 11:42:57白宫专家:美国将在未来几个月与中国就AI系统安全议题展开合作华声在线9月27日讯(全媒体记者丁鹏志见习记者曾冠霖)9月27日,张家界天门山景区一名男性游客突然晕倒,意识模糊。
2023-09-28 10:12:30游客晕倒专家现场救治据美国《华尔街日报》网站8月19日报道,美国和中国都在加速研究如何将人工智能技术(AI)融入到自己的军队中,并将此作为争夺这一快速发展技术优势的全球竞赛的一部分。
2023-08-28 15:38:47美媒:美中正研究如何将AI融入军队原标题:全面禁放烟花爆竹不合法!法学专家呼吁将更多选择权交给民众央视网消息(记者/杨绎霏):已至年末,是否解禁烟花燃放再次成为公众讨论的热门话题。
2023-12-31 10:42:24全面禁放烟花爆竹不合法!法学专家呼吁将更多选择权交给民众本文转自【澎湃新闻】;近日,美国国家航空航天局(NASA)旗下团队经过一年的研究,发表了针对不明飞行物(UFO)等异常现象的报告。
2023-09-16 15:30:14NASA宣布用AI研究UFO