当前位置:新闻 > 探索频道 > 正文

史上最令人恐惧的思想实验:洛可蛇怪了解一下?

2018-05-21 11:06:25  新浪科技    参与评论()人

但这外星人还告诉你另一件事:它有一台无所不知的超级计算机,在一周前对你的选择做出了预测。如果超级计算机预测到你会同时拿走两个盒子,那么外星人就不会在第二个盒子里放任何东西。如果超级计算机预测到你会只拿盒子B,那么外星人就在盒子B中放100万美元。

那么,你会怎么做?记住,这台超级计算机此前从来没有出过错。

这个问题一直困扰着决策理论学家。盒子里的东西已经确定,外星人无法再对其作出改变因此不论预测结果如何,你拿走两个盒子所得到的钱一定比只拿走盒子B所得的钱更多。

当然,如果你这样想,而计算机也预测到你会这样想,那么盒子B就会是空的,你只能拿到1000美金。

如果计算机的预测能力真有那么神奇,你就应该只拿走盒子B,这样就能得到整整100万美元,对不对?

但如果计算机这次错了呢?而且,不管怎样,计算机过去做出的预测不能改变现在发生的事情,对吧?所以去他妈的预测,两个盒子都拿上!但……

这种自由意志和天命预测之间令人发狂的矛盾,没能为纽康姆悖论找到一个解决方案,人们根据各自所做的决定自称“单盒党”“双盒党”。(我妻子有次宣称她是个单盒党,她说:“我相信计算机。”)

比起洛可蛇怪,我更担心那些自认为已经凌驾于传统道德体系之上的人。

无时间性决策论对纽康姆悖论给出的建议十分明确坚决:拿走盒子B。但无时间性决策论想得更远一些。哪怕外星人嘲笑你说:“计算机说你会把两个盒子都拿走,所以我没在盒子B里放东西!”然后打开盒子B让你看清其中空无一物,你仍然应该只拿走盒子B,两手空空地离开。[我从科学家加里·德雷舍(Gary Drescher)的《善与真》(Good and Real)一书中借用了这个例子,该书试图使用无时间性决策论的一种变体来证明康德伦理体系是真实正确的。]

这一决策的逻辑依据很难简单概括,但一言以蔽之就是,此时此刻正要做决策的你也许正处于计算机的模拟中。为了做出预测,计算机需要模拟宇宙本身,这也包括你自己。所以,现在这个时刻的你也许是计算机模拟的产物,而你接下来所做的将会影响到现实中(或其他现实中)发生的事。所以拿走盒子B,这样真正的你就会进账整整100万美元。

这一切和洛可蛇怪又有什么关系呢?这个嘛,洛可蛇怪也给了你两个盒子。也许现在的你只是洛可蛇怪运行的模拟程序的产物。也许洛可蛇怪正隐晦地向你提供一种纽康姆悖论的变体,像这样:


盒子A中是“穷尽一生帮助创造出洛可蛇怪”,盒子B中是“什么都不发生”或“永恒、无视死亡的折磨”。

洛可蛇怪告诉你,如果你只拿走盒子B,那么里面就会是“永恒的折磨”,因为洛可蛇怪真正的愿望是你同时取走盒子A和盒子B。在这种情况下,你最好确保自己穷尽一生帮助创造出洛可蛇怪!因为,假如洛可蛇怪在未来出现(或者更糟:它已然出现,且正是眼下这个现实世界的主宰),发现你没选择帮助它的话,你可就完蛋了。

你也许在疑惑为什么论坛用户那么把这个思想实验当回事儿,毕竟它显然十分牵强。这并不是因为洛可蛇怪真的会出现,甚至不是因为它可能会出现。问题在于,如果你是无时间性决策论的忠实拥趸,那么只是想想这种交易就真的会令它更容易发生。

毕竟,如果洛可蛇怪发现,这样勒索你会使你帮助它诞生,那么作为一个理性的施事者,它就会勒索你。问题不在于蛇怪自身,而在于你。尤德科夫斯基之所以删除了所有提到洛可蛇怪的帖子,不是因为他相信它存在或将会存在,而是因为蛇怪这个想法(和这个想法背后的理念)很危险。

要注意,只有当你相信以上所有前提,去和洛可蛇怪做双盒交易时,蛇怪才是危险的。但确实有一些论坛成员相信以上这一切,这就让洛可蛇怪切实成为了禁忌的知识。我本来要把它比作洛夫克拉夫特(H。 P。 Lovecraft)的恐怖小说里的内容——有个男人发现了世界禁忌的真理,放出了克苏鲁,陷入疯癫——但我发现尤德科夫斯基已经替我做了这件事,他将洛可蛇怪思想实验比作《死灵之书》(Necronomicon),也就是洛夫克拉夫特那本充满了邪恶知识和咒语的著名魔典。洛可本人则将一切怪罪于论坛,因为说到底,是这个论坛促使他产生了蛇怪这个想法:“我十分希望我从未遇到这个论坛,它竟产生了那么严重的(人类)自毁隐患。”他这样写道。

以克苏鲁神话闻名的作家洛夫克拉夫特的《死灵之书》。图源:Libriproibiti

以克苏鲁神话闻名的作家洛夫克拉夫特的《死灵之书》。图源:Libriproibiti

如果你并不认同洛可蛇怪实验的理论基础,也不打算向你永恒的邪恶机器主宰屈服,那么洛可蛇怪对你就毫无威胁。(说来讽刺,它只有可能对相信尤德科夫斯基理论的人心理健康产生危害。)按我朋友的说法,对洛可蛇怪深信不疑可能只意味着他/她“得了自闭症”。

但我确实认为这件事背后有个更为严肃的问题,因为埃利泽·尤德科夫斯基和其他所谓的超人类主义者已经为他们的项目吸引了大量的声望和资金,这些声望和资金主要来自富有的科技迷们。我认为他们的项目(其主要内容似乎就是发论文、开会)不太可能创造出洛可蛇怪或是埃利泽大善神。但当一个人/一群人既有创造救世主的野心,又坚信自己绝对可靠,还有一大堆钱时,不论当事人的意识形态如何,最终结果永远很糟糕,而我不认为尤德科夫斯基和他那伙人会成为例外。

比起洛可蛇怪,我更担心那些自认为已经凌驾于传统道德体系之上的人。尤德科夫斯基和他计划创造的友好人工智能一样,是一个道德功利主义者:他相信只要能够促成最多数人的最大幸福,哪怕在过程中有一部分人不得不死去或忍受折磨,这仍然是道德的。他曾明确表示,当不得不做出选择时,比起让许多人眼里进灰(公平起见,他说的是非常多的人),更应该选择折磨某一个人50年。

谁都不太可能面临这样的抉择,连上帝都不会,但如果换个情况呢?假如Slate网站上(译者注:即本文发布的网站)有个尖刻的科技版专栏作家写了一篇文章,内容有关一个能摧毁人们心智的思想实验,结果伤到了读者,阻止了历史向奇点发展,使友好的人工智能没法出现呢?这种情况下,我生命中任何潜在的幸福加起来都远远抵不过我眼下正造成的危害。而假如接受了人工冷冻术的埃利泽·尤德科夫斯基在奇点后醒来,决定在模拟中让我选择要不要写这篇专栏文章……拜托了,无所不能的埃利泽啊,别折磨我。

来源:利维坦

(责任编辑:路子康 CN078)
关键词:恐惧实验

相关报道:

关闭
 

相关新闻

中华推荐

小编推荐

今日热点