病毒来袭,人类变成僵尸,世界涉临毁灭,只有一个小女孩是拯救希望。你历尽千辛万苦,将她从大陆这头带到那头,遇魔除魔,遇敌杀敌,一路险象环生。你救过她无数次,她救过你无数次,终于到达目的地。然后你得知,需要提取她脑中物质,炼成疫苗,才能拯救人类。
那她会怎样?
很抱歉,我们穷尽了一切努力,没有找到既制造疫苗又能使她活下来的方法。她与人类,两者只能选一个。
好了,朵拉,如果你是这个人,你会选择什么?
两宝家夜话,游戏经常是主角。今天讲到的这一幕是游戏大作最后生还者(Last of Us) 大结局。在Ellie与全人类之间,Joel作何选择?
“当然拯救人类”,朵拉马上拿定主意,想法很朴素:一个人的生命怎能跟无数人的生命相比。
问题是,要牺牲的虽然只是一个人,但她是你在这个世界上最亲近的人,甚至是惟一亲近的人。全人类虽然有无数人,但跟你又有什么关系?更何况,这世界冷酷,好人无几,人与人相遇,擦肩而过已是最好结局,最优策略则是先发制人,彼此伤害。
你再想想,要拯救与你无关的全人类,还是拯救最亲近的这一个人?
“我不选,我要让她自己选。”
你想逃避责任,我很理解,可惜你逃避不了。她已经在手术台上,昏迷之中,无法作决定。更何况,你是成年人,她是小孩子,你们一路苦战,除了同袍之义,更有父女之情。父亲是不能把责任推给女儿的。想想看,如果你是Joel,即使Ellie决定牺牲自己,你就能觉得好受一点吗?
“并不。”
那你选择救哪一边?
这次朵拉思考了很久。“我还是选择救人类。”
为什么?
“因为人类很独特,他们能创造出那么多美好的东西。人类要是灭亡就太可惜了。”
朵拉,我年青时的想法跟你差不多,会选拯救人类。现在跟你不同,现在我会选救一个人。人类值得拯救也好,不值得也罢,各人有各人的命,人类的命让别人操心,我的命是救一个人。
无论作什么选择,没有对错,只是要承受相应后果。这样沉重的选择,没有谁能站在上帝视角给你判卷打分,但结果会始终与你同在。
第二天,我给朵拉发了个链接,moralmachine.mit.edu,麻省理工大学的道德机器网络测试。朵拉点进去,遇到13种情境。形形色色的行人与乘客组合,有人有动物,有老的小的男的女的好的坏的胖的瘦的,共同面对一辆自动汽车。道德机器问你,作为旁观者,如果自动汽车出事故已经不可避免,可以选择的惟有要么撞死行人,要么撞上护栏导致乘客丧命。你希望自动汽车作出什么选择?
朵拉花好长时间做完,我问她有什么发现。
“这些题很难。”
你不要做题家情结发作,把13个情境当作题目来做。它不是考试,而是决定与后果。人们常说一句话,行为塑造人格,指的就是这些情境。它没有对错,但你作出什么样的决定,它就把你塑造成什么样的人。13个情境历练完,你发现自己是什么样的人?
“第一,在人与动物之间,优先救人;
第二,在人与人之间,优先救人数多的,小孩子没有优先权,老人也没有,总之身份没有影响,人与人之间是平等的;
第三,但有一点,不知道为什么,我愿意救胖子,胖子在我这里有优先得救权。”
朵拉,暂时不讨论第三点的话,你这套做法很简洁。很多人都会这样选,它是朴素的效用主义。也就是说,如果一个选择比另一个选择更有效用,那么选效用高的那个。一般来说,对社会而言,救多个人比救一个人更有效用,救人比救动物更有效用。你就是这样。
不过,你还是在答题,还是在追求简洁一致。真实决定往往没有这么简单。
比如说,尽管你在这里决定人绝对地优先于动物,但你还有另一面,你那么喜欢小猫咪。我再问你,世界上在某个很遥远的地方有个陌生人,你一手养大感情深厚的小猫咪,如果必选其一,你真的会选那个陌生人吗?
“这么一说就不一定。”
你看,问题的呈现方式本身就能影响你的决定。如果是道德机器那种抽象问法,你就回答优先救人;我这样来问,你就是不一定。不光你这样,所有人的决定都是经常前后不一致,因为环境、语言、气氛、表达方式都影响决定。延伸来讲的话,当你要影响别人时,一定要注意话术;反过来说,要注意别人的话术。
当然,决定前后不一致的最主要原因还不在这里。
“那在哪里?”
在你所处的位置。你刚才的所有决定只影响行人和乘客,不影响你自己。但是,假如把你放在行人和乘客之中,你会如何决定?
“不论我是乘客还是行人,不论其他是人还是动物,不论他们是胖是瘦,我都要优先保护我自己。”
朵拉,今天讲的这些,我给你念首诗作总结吧。
横看成岭侧成峰,
远近高低各不同。
不识庐山真面目,
只缘不在此山中。
BetterRead
微信号
BetterRead
功能介绍
有理,有趣,有用。
https://mp.weixin.qq.com/s/ka7zUbCjlYPYNrhL8dw4Zw