有些激进群体会以过于「科幻」的腔调讨论AI,比如意识上传、探索太空、赛博朋克。这种腔调不知不觉中带来了一大堆文化偏见,以及一些无法明确的假设。
结果就是,这些讨论常常看起来像是某个小众群体的一厢情愿,反而让大多数人望而却步。
但Amodei也认为,讨论一个拥有先进AI的美好世界是什么样子,十分重要。
以下是他认为最具前景的五个类别:
1. 生命科学与生理健康
2. 神经科学与心理健康
3. 经济与贫困
4. 和平与治理
5. 工作与意义
Amodei在生物学和神经科学两个领域都有专业经验,对经济发展也有一定了解。通常,他的预测都是相当前卫的。
Amodei认为,如果能召集一群各领域专家创作一个更全面、更有洞察力的版本,会很有价值。
而自己的尝试,可以被视为一个起点。
基本假设与分析框架
Amodei界定了先进AI的含义:触发5-10年发展期的技术阈值。
他不喜欢使用AGI这个术语,因此使用「强大的AI」(powerful AI)这个说法。
Amodei认为,强大的AI最早可能在2026年问世。
通用人工智能(AGI)是一个不够精确的术语,它已经积累了太多科幻元素和过度炒作。相比之下,我更喜欢用「强大的人工智能」或「专家级科学和工程」这样的说法
所谓「强大的AI」是指一个AI模型在形式上可能类似于当今的大语言模型,尽管它可能基于不同的架构,可能涉及多个交互模型,并可能采用不同的训练方法。
具体来说,它将具有以下特性——
- 就单纯的智力水平而言,它在大多数相关领域——如生物学、编程、数学、工程、写作等方面都超越了诺贝尔奖级别的获得者。这意味着它能够证明尚未解决的数学定理,创作出极高水平的小说,从零开始编写复杂的代码库。
- 具备了所有可供人类进行虚拟工作的交互方式,包括文本、音频、视频、鼠标和键盘控制以及互联网访问。它可以利用这些交互方式进行任何行动、通信或远程操作。执行时的技能,也都超越了世界上最顶尖的人类专家。
- 它不仅被动地回答问题,还可以接受需要数小时、数天甚至数周才能完成的任务,然后像一个聪明的员工一样独立完成任务,必要时会主动寻求澄清。
- 它没有实体形态,但可以通过计算机控制现有的物理工具、机器人或实验室设备;理论上,它甚至可以为自己设计、使用机器人或设备。
- 用于训练模型的计算资源可以重新配置,以运行数百万个模型实例(这与预计到2027年左右的大规模计算集群能力相匹配)。该模型能以人类速度的10到100倍来吸收信息和生成行动。然而,它可能会受到所交互的物理世界或软件响应时间的限制。
- 这数百万个副本中的每一个,都可以独立地执行不相关的任务,或者在需要时像人类团队协作一样工作。甚至可以对不同的分组进行微调,使其特别擅长某些特定任务。
我们可以将其概括为「数据中心里的天才国家」。
显然,这样一个实体能够非常快速地解决极难的问题,但要确定具体有多快并非易事。
Amodei认为,两种「极端」立场都是错误的。
首先,你可能会认为世界会在几秒或几天内瞬间改变(所谓「奇点」),因为强大的智能会不断自我完善,几乎立即解决所有可能的科学、工程和操作任务。
这种观点的问题在于,存在真实的物理和实际限制,例如在构建硬件或生物实验上。智能可能非常强大,但它并不是神奇魔法。
其次,如果你认为技术进步已经饱和,或者受到现实世界数据或社会因素的限制,超人类智能几乎不会带来任何改变,这也同样不可信。
在数百个科学和社会问题上,一群真正聪明的人会大大加快进展(假设的天才国家就能做到)。
Amodei看来,真相可能是这两种极端情况的混合,因任务和领域而异,细节非常微妙。
他认为,就像经济学家经常讨论「生产要素」,在AI时代,我们也应该讨论智能的边际回报,弄清与智能互补的其他因素,以及智能水平很高时,哪些因素会成为限制因素。
「在这项任务中,更聪明能带来多大帮助,在什么时间尺度上?」这是概念化一个强大AI世界的正确方式。
Amodei猜测,限制智能或与智能互补的因素包括:
- 外部世界的速度
智能体需要在世界中互动操作才能完成任务并学习。但世界的运转速度是有限的。
细胞和动物以固定速度运行,因此对它们的实验需要一定的时间,可能不可缩减的。硬件、材料科学、任何涉及与人交流的事物,甚至现有的软件基础设施也是如此。
此外,在科学领域,通常需要进行多次连续实验,每次实验都从前一次实验中学习或在其基础上进行。
所有这些意味着,完成一个重大项目——例如开发癌症治疗方法——的速度可能有一个不可缩减的最小值,即使智能继续提高,这个最小值也无法进一步缩短。
- 对数据的需求
在缺乏原始数据的情况下,即使智能更高也无济于事。当今的粒子物理学家非常聪明,已经开发了一系列理论,但由于粒子加速器数据有限,他们缺乏选择这些理论的数据。
如果拥有强大的智能,他们是否会做得更好?(除了加快更大加速器的建造速度)
- 内在复杂性
有些事物本质上是不可预测或混沌的,即使是最强大的AI,也无法比今天的人类或计算机更好地预测或理清它们。
例如,即使非常强大的AI,在一般情况下也只能比今天的人类和计算机在混沌系统(如三体问题)中稍微多预测一点点。
- 来自人类的约束
许多事情如果不违法、不伤害人类或不扰乱社会就无法完成。一个对齐的AI不会想做这些事情。
许多人类社会结构是低效甚至有害的,但如果要同时尊重临床试验的法律要求、人们改变习惯的意愿或政府行为等约束,就很难改变这些结构。
核能、超音速飞行,甚至电梯,都在技术上运作良好,但影响被法规或错误的恐惧大大减弱。
- 物理定律
有些物理定律似乎是不可打破的。不可能以超光速旅行。布丁无法恢复到未搅拌状态。
芯片每平方厘米只能容纳这么多晶体管,否则就会不可靠。计算需要每擦除一位所需的最小能量,这限制了世界上计算的密度。
进一步的区别,是基于时间尺度。
短期内的严格限制,在长期内可能更容易被智能改变。
例如,智能可能被用来开发新的实验范式,使我们能够在体外获得以前只能通过活体动物实验获得的知识,或者用来建造收集新数据所需的工具(例如更大的粒子加速器),或者(在伦理限度内)找到突破人为限制的方法。
2019年10月9日,诺贝尔化学奖花落锂电池领域,三名研究锂电池的先驱摘得殊荣,吉野彰是三位获奖者里年纪最轻的一位。
2024-07-05 14:48:56被取代!诺贝尔奖获得者:2050年加油站会消失2024年的诺贝尔奖在科学领域掀起波澜,生理学或医学奖、物理学奖、化学奖相继公布,其中物理学奖与化学奖的殊荣均归属AI领域的研究者,让人们惊叹于AI技术在本年度诺贝尔奖中的突出表现
2024-10-13 09:21:00AI是今年诺贝尔奖最大赢家吗苹果公司在印度的市场表现出色,截至今年3月的一年里,其收入接近80亿美元,相较于前一年同期增长约33%。其中,iPhone作为销售主力,贡献了苹果过半的销售额
2024-07-17 08:10:19苹果续创历史收盘新高6月3日晚,英特尔首席执行官帕特·基辛格在台北寒舍艾美酒店设宴,招待了包括鸿海、广达、仁宝等在内的多家PC及服务器制造企业的高层
2024-06-05 06:59:55英特尔CEO夜宴供应链高管