连转带评:纽科姆悖论

有人在新繁星客栈上提到了这个悖论,并且点名叫我帮忙解答。我完全没觉得这个悖论有任何难度,但还是将这个悖论贴在我这里供大家娱乐消遣。
后面是我在新繁星客栈的答复,有所改动。

原文链接

一直没搞懂:纽科姆悖论
或者叫:“外星人悖论”

M:一天,一个由外层空间来的超级生物欧米加在地球着陆。

M:欧米加搞出一个设备来研究人的大脑。他可以十分准确地预言每一个人在二者择一时会选择哪一个。

M:欧米加用两个大箱子检验了很多人。箱子A是透明的,总是装着1千美元。箱子B不透明,它要么装着1百万美元,要么空着。

M:欧米加告诉每一个受试者。

欧米加:你有两种选择,一种是你拿走两个箱子,可以获得其中的东西。可是,当我预计你这样做时,我就让箱子B空着。你就只能得到1千美元。

欧米加:另一种选择是只拿一个箱子B。如果我预计你这样做时,我就放进箱子B中1百万美元。你能得到全部款子。

M:这个男人决定只拿箱子B。他的理由是——

男:我已看见欧米加尝试了几百次,每次他都预计对了。凡是拿两个箱子的人,只能得到l千美元。所以我只拿箱子B,就可变成一个百万富翁。

M:这个女孩决定要拿两个箱子,她的理由是——

女:欧米加已经做完了他的预言,并已离开。箱子不会再变了。如果是空的,它还是空的。如果它是有钱的,它还是有钱。所以我要拿两个箱子,就可以得到里面所有的钱。

M:你认为谁的决定最好?两种看法不可能都对。哪一种错了?它为何错了?这是一个新的悖论,而专家们还不知道如何解决它。

这个悖论是哲学家经常争论的很多预言悖论中最新的,也是最棘手的。它是物理学家威廉·纽科姆发明的,称为纽科姆悖论。哈佛大学的哲学家罗伯特·诺吉克首先发表并分析了这个悖论。他分析的依据主要是数学家称之为“博弈论”或“对策论”的法则。

男孩决定只拿B箱是很容易理解的。为了使女孩的论据明显起来,要记住欧米加已经走了。箱子里也许有钱,也许空着,这是不会再改变的。如果有钱,它仍然有钱;如果空着,它仍然空着。让我们思考一下这两种情况。

如果B中有钱,女孩只拿箱子B,她得到1百万美元。如果她两个箱子都要,就会得到1百万加1千元。

如果B箱空着,她只拿B箱,就什么也得不到。但如果她拿两个箱子,她就至少得到1千美元。

因此,每一种情况下,女孩拿两个箱子都多得1千元。

这条悖论,是试验一个人是否相信自由意志论的“石蕊试纸”类型的悖论。对这个悖论的反应公平地区分出,愿意拿两个箱子的是自由意志论信徒,愿意拿B箱者是决定论(宿命论)信徒。而另一些人则争辩道:不管未来是完全决定的,还是不是完全决定的,这个悖论所要求的条件却是矛盾的。

对这些争论观点的讨论可参见马丁·加德勒在1973年《科学美国人》7月号的数学游戏专栏,以及诺吉克教授发表在同一刊物1974年3月号同一专栏的文章。由于这一悖论还未解决,故它是学生讨论的极好课题。你将发现课堂里对这个悖论的反应是活跃的,十分有益的。

——————————————————————————————
我的解答:

这条悖论,是试验一个人是否相信自由意志论的“石蕊试纸”类型的悖论。对这个悖论的反应公平地区分出,愿意拿两个箱子的是自由意志论信徒,愿意拿B箱者是决定论(宿命论)信徒。而另一些人则争辩道:不管未来是完全决定的,还是不是完全决定的,这个悖论所要求的条件却是矛盾的。

这段评论,看了我后面的分析就可以知道全是一派胡言。我不懂什么叫自由意志论什么叫宿命论,我一个人就可以得出几种不同的答案。而且这个悖论的条件并不是自相矛盾的,而是问题的条件根本就不完备,以至于加入不同的约束条件就可以产生不同的答案。

先引入几种不同的先知(暂且不管其物理上是否能够存在):

第一类先知:精确地知道未来的一切,包括完全精确地知道自己未来的行为。这是个『只读』的先知,他有能力精确预知整个世界的未来,但却完全无法对世界施加任何一丝一毫的影响,甚至完全无法对自己的行为做一丝一毫的改变。这样的先知无法『选择』告诉别人未来会发生什么(当然,他可能预测到自己把未来告诉别人,于是他就只能按照自己的预测吧未来告诉别人。但问题是他还可能预测到自己将要告诉别人的信息是错的,但自己却对此无能为力)。这种先知甚至都不能对未来将要发生在自己身上的事情做任何提前准备,比方说预测到有人要在自己背后捅一刀于是很紧张,但他甚至无法让自己的呼吸或心跳加快,无法让每一个神经信号的传递有任何不同。这种先知很悲剧,他只是一个单纯的观察者,不能对世界施加任何影响,甚至无法『选择』让别人知道自己是个先知。

第二类先知:有能力预测未来,但预测完全准确的前提条件是自己也完全精确地按照自己先前的预测行事,但问题是他也可以在任何时刻选择在不精确按照自己先前的预测行事(比方说先前的预测中自己并没有把未来会发生什么告诉别人,但现在却选择告诉别人),那么就会导致未来不再与自己先前的预测精确相同,而且时间越久与先前的预测偏离可能就越大。事实上,他并不一定要把未来告诉别人,就可以对未来造成影响,比方说由于知道了未来,他关于未来的知识发生了变化,于是脑袋里面某些神经电信号改变了,经过一系列连锁反应就会造成对未来的影响。当然,既然不考虑物理上的限制,你也可以进一步假定这个先知可以将对未来的预测信息存储在宇宙之外,这些知识的存储对我们的宇宙绝对不会造成一丝一毫的影响。或者,你可以反过来假定只要这个先知存储关于未来的知识就必然改变其大脑的物理状态以至于必然对世界造成影响。这样一开这第2类先知又可以分成两类,我们不妨称前者为2A后者为2B。

对于先知2A,在他决定完全按照自己的预测行为的时候,他之前对世界的预测就完全准确无需更新。一旦他选择不按照自己事先对自己行为的预测行事,那么从这个时刻起,世界的未来就不再符合其先前的预测,于是他此时就要立即更新自己关于未来的预测知识。于是每当他选择不按照自己先前对自己行为的预测行事,他对未来的预测就会立即更新。比方说先前预测自己并没有将世界的未来告诉别人,而某个时刻他突然决定告诉别人了,那么他对未来的预测就会立即更新。假设这个先知很要面子,不希望别人发现自己说出的话是错的,那么一旦他发现只要自己把预测告诉别人,自己所预测的事情在这个告知行为影响下就不会发生,那么他就会立即改为选择什么都不说,即便在不说的情况下自己对未来的预测本来是对的。什么时候他恰好发现只要自己将预测结果告诉别人,自己预测的事情就会成真,这种情况下它就会精确地按照自己对自己行为的预测行事,包括说出对未来的预测,于是预测成真。

对于先知2B,这个先知也很悲剧,他每一个时刻对未来的预测都会改变其头脑中的知识以至于改变头脑的物理状态,经过连锁反应影响一段时间以后的世界,使世界的未来跟其脑袋里面当前的知识不同,既然如此他此时此刻关于未来的知识立即就得更新,这是造成了一个自反馈回路,如果运气不好,这个先知就会成为一个真正的2B,脑子里看到的未来始终处于疯狂的甚至无限迅速的变化之中。但是,也有可能没有这么糟糕,自反馈回路有可能真的有自洽的不动点,也就是说,他脑袋的状态疯狂地变来变去之后,突然进入这样一个状态,这个状态中他脑袋里关于未来的知识刚好与实际上会发生的未来(包括他自身的未来)完全精确相同,一旦进入这种状态,他的脑袋里面就总是能够准确地看到未来,而且他脑袋状态随时间的演化也确保总是能跟其预测相同。但是一旦进入这种情况,2B先知就蜕化成了A类先知,他无法做出与自己预测不同的事情。

第三类先知:没能力精确预测整个世界的未来,却有能力任意按照自己的随意操纵整个世界,比方说他可以让任何人做任何事而且以为自己真的想做这件事,或者创造各种各样的神迹等等。当然,逻辑矛盾的事情是没法做的,这不是能力问题,而是错误陈述,例如制造一块自己也搬不动的石头。

当然,你也可以编造出其他类型的先知,只要你有本事确保逻辑自洽就可以。

现在,我给感兴趣的同学留一道思考题:试把上述几种先知带入这个所谓纽科姆悖论之中,而且可以几种不同的方式来假设这个先知的动机,然后在每一种情况下分析这个悖论看看会得到什么样的结果。

道德

道德是这样一种东西:如果你违背其准则而被人发现,就很可能遭到来自他人的惩罚。

最初,你违背某条道德准则,往往会受到别人(例如父母师长)的惩罚。经过多次训练,你就得到了一条经验知识:违反该道德准则很容易受到惩罚。有了这条经验知识,你每一次试图违反该道德准则,就会担心是否会受罚,从而约束自己的行为。在这个过程中你也会发现在没人发现的情况下自己不会受到惩罚,从而形成侥幸心理,因此在无人监督的情况下人们更倾向于打破道德准则。

最初的自我约束来自于对行为可能后果的利害分析,但这种比较分析需要以花费精力为代价,如果你的生存环境总是使利害分析的代价超过无条件遵守该道德准则,你就会获得新的经验知识:花精力做这种利害分析往往得不偿失。于是你在试图通过利害分析决定是否遵守该道德准则之前,会面临一个新的决定:是否有必要做这个利害分析?而你的新经验告诉你:这样做往往得不偿失。此时你就会养成无条件遵守该道德准则的习惯,连判断是否有必要做利害分析的精力都省了。这种情况下可以说对于该道德准则你已经具备了强烈的道德习惯。

如果你已经习惯于无条件接受某道德的约束,那么你还可能给自己的这种选择寻找许多冠冕堂皇的理由,甚至可以利用这些理由要求别人遵守该道德,并从这种约束别人的活动中获益。这种情况下,可以说对于该道德你已经具备了强烈的道德感或责任感或使命感等等。因此,上述情况下道德感的形成是因为先前能从中获利,但形成之后未必将继续从中获利。

当然,逻辑上也允许这样的可能:人对某些道德的遵守直接来自于本能,根本不是从上述学习过程中获得的。如果你刚好很『运气』地天生就具有某种道德感,这种情况下你之所以遵守该道德仅仅是因为你的『运气』。如果你有该道德感是因为运气,按照日常语言的习惯,是很难说你比不具备这种运气的别人更『高尚』的,于是你就没有充分的借口对别人不遵守道德的行为进行批判。既然你是因为天生喜欢而遵守该道德,又如何才能批评别人因为天生不喜欢而违背该道德呢?

如果我们进一步追溯先天道德的来源,那么就进入了生物演化领域。要么你是因为发生了某种基因突变而喜欢某道德,要么是从先辈哪里遗传了该道德。如果该道德的遗传是物竞天择的结果,那是因为你先辈中那些因基因突变或混合而喜欢上遵守该道德的份子们幸运地在物竞天择过程中获得了更多生存繁衍的机会。于是这就又回到了前面说过的情况:道德感的形成是因为先前能从中获利,但形成之后未必将继续从中获利。无论哪种情况,道德批判都是找不到任何站得住脚的借口的。

道德批判实际上就是在说:我不喜欢你,因为我不喜欢你所以我不喜欢你,我要求别人跟我一起惩罚你,谁跟我一起惩罚你,我就喜欢谁,谁不跟我一起惩罚你,那么我连他一起不喜欢,并且要求别人一起惩罚他。换言之,道德批判从根儿上是不讲道理的,只是装作很有道理。

这里我要提醒大家注意:上述关于道德的讨论,丝毫没有『道德批判是不好的或错误的行为』的意思,我只是指出『道德批判根本不讲道理』这个事实。对于能够通过道德批判达成自己意愿的人而言,他当然可以认为『道德批判是好的』。另一方面,由于这个世界上存在我这种『见到别人不讲道理却假装很有道理就可能很喜欢指出』的怪癖分子,在许多情况下『道德批判』这种行为的期望收益就会有所降低,而风险却有所增加。

最后,来点趣味性强的:

电影『蝙蝠侠前传2:黑暗骑士』中有个桥段:片中大反派“小丑”在两艘满载的客船中做了个社会实验。他声称:两艘船上都有炸弹,任何人下船就同时引爆两艘船,每艘船上都有能引爆另一艘船上炸弹的遥控器。如果他在午夜12点之前看到有一艘船被引爆,就让另一艘船的人生还,否则就同时引爆两艘船。“死理性派”的文章『除了蝙蝠侠,我们还能用什么战胜小丑?』对此做了一个有趣的博弈论分析。文中考虑了道德约束,还考虑到因小丑并非万能而阴谋可能失败等可能。

如果这两船不都是人,一群是地球人,一群是异形,炸死对方而活着回到自己的社会丝毫都不会受到惩罚,双方还会因为道德感而拒绝按钮么?如果换成一群是人,一群是猩猩呢(假设我们成功地让猩猩理解了这个按钮的含义)?一群是白人,一群是黑人呢?一群911受害者,一群是基地组织呢?一群是中国人,一群是日本人呢?一群是你和你的亲人和孩子们,一群是陌生人呢?