摘要:
《思考,快与慢》是2002年诺贝尔经济学奖获得者,美国普林斯顿大学教授,丹尼尔·卡尼曼关于行为经济学的经典力作。这本书究竟有什么特别之处呢?它告诉我们,我们自认为“理性...
《思考,快与慢》是2002年诺贝尔经济学奖获得者,美国普林斯顿大学教授,丹尼尔·卡尼曼关于行为经济学的经典力作。这本书究竟有什么特别之处呢?它告诉我们,我们自认为“理性”的决策,多数不是在“理性”的情境下作出的,整个决策过程其实充斥着偏见和谬误,甚至是自欺欺人。同时,运用大量的心理实验给出了导致这些“错误”决策的实验证明。可以这么说,这本书会是读者认知路上的“闹钟”,时刻提醒我们别掉进自己为自己编织的错误泥潭。
一、人的决策是双系统作用的结果
卡尼曼通过一系列的心理实验证明,人在决策过程,大脑中有两个系统在作运算。一个系统是依赖直觉、无意识的思考系统,称之为快思考,卡尼曼把它叫做系统1;另一个系统是主动控制、有意识的思考系统,称之为慢思考,卡尼曼把它叫做系统2。比如,迎面走来一个人,长头发、大眼睛、高鼻梁、长裙子、高根鞋,你在1秒中之内就会有了一个判断:这是个女人,而且美丑立判。这就是系统1下的“快思考”。如果要让你判断这个女人从事什么职业?那你就要从你的记忆中搜寻与职业相匹配的信息了。如果你是在图书馆遇到的她,她手里又拿着2本书,一本是《思考,快与慢》、一本是《稀缺》,持书的左手无名指上带着2克拉的钻戒。起码你不会很快下结论,她是一名厨师。如果你最终判断了她是一位正在学习行为经济学的企业高管,那还是要花上一段时间的,这个过程就是慢思考的过程,你作出的判断也一定是系统2发挥了作用。至于,你为什么需要作出精确判断,那还在于你所处的的环境。如果,你只是和朋友打赌,你不需要费力去思考。如果,判断这个女人身份,对你来说是事关几十亿美元的生意,你就不会轻易下结论了。
读到这里,你会产生另外一个疑惑:为什么我们不能凡事交由系统2来决策?系统2虽然决策相对符合逻辑、判断准确,但它也不是完美的,它还兼具“慢和懒”的特点。关于这个问题,脑科学研究普给出过两种解释:一种是大脑中两种器官作用发挥的不同。大脑中的杏仁核负责直觉部分,大脑皮层负责理性部分。杏仁核它离心脏近、大脑所需营养和能量最先到达这里,所以杏仁核心相对大脑皮层来说“反应快”。另一种说法是,大脑皮层主导发挥作用时,必须要集中注意力,这个过程也是大脑大量消耗能量的过程,所以本着“控制成本”的原因,启动系统就不是很容易,直观反映就是“懒”。当然,这两种说法都已经被科学实验证明过的。比如,有一个实验叫做“看不见的大猩猩”,就证明注意力的消耗。几个大学生穿着白色和黑色的衣服在做篮球传球练习,作为实验对象的其他人一开始被告知:在传球结束时,你会被提问穿白色衣服的队员之间传球的次数(网上有视频)。显然,你只有集中注意力在白色衣服队员的传球上,你的答案才会正确。期间,有一个穿着大猩猩服装的人在球场上穿梭过几次,甚至还做出了双手捶胸的动作。但实验中,50%以上的实验参与者注意不到大猩猩的存在。这个实验很多人觉得“震惊”和“不可思议”,但却是一个事实。这说明,系统2作出判断前,必须要集中足够的注意力入在收集和提取某一方面信息,而这个过程,大脑也会自动屏蔽其他信息。如果,这个试验过程只有几十秒钟,你会觉得很轻松,但这个时间如果是1个小时、甚至几个小时,几乎没有人能做到,因为持续时间长了,大脑就会疲劳,那就累了。这也是我们做事情不能长期集中注意力的主要原因。也正是这个原因,导致系统2的“懒”。所以,用系统2去弥补系统1,用慢思考去弥补快思考,有利于提高决策质量。
二、看似理性的决策存在诸多偏见和失误
在实施决策的过程,通常两个系统都会发挥作用,但是由于系统2具有“慢和懒”这两个特点,很多时候系统1会占据主导地位,又容易导致人类决策的偏见和失误。卡尼曼对直觉导致的偏见和失误,进行了非常系统的研究,比较典型的是三种偏好、五种效应。
第一种是典型性偏好。就是以特殊性代替普遍性。书中举了着名的琳达实验。实验人员先虚拟一位女姓琳达,然后开始描述她:她关心社会歧视问题,她曾参加反核示威游行,然后让志愿者判断琳达的身份。关于身份给出两个选项,一个说琳达是一位银行出纳,另一个说琳达是一位出纳,并积极参加女权运动。按道理说,琳达身份符合每一个选项的概率要大的多,但结果,选第二个选项的人占多数。这就是人们普遍容易犯的一个判断错误,对事物的判断忽视其基本比率,更愿意选择典型特征更多、细节更丰富的选项。实际上,选择一定符合统计学原理,就是特征越多,概率越低。
第二种是可得性偏好。如果我们在估计某类事件的出现频率时,往往会从自己的记忆中搜寻这类问题的实例,如果很容易想起,这些事情的发生概率就会被判断为很大,这称为可得性偏见。比如,你看新闻,看到撞机事件,那你出门就容易选择开车或坐火车。如果依靠理性,你应该去认真计算各种交通这工具的事故概率。有意思的是,把可得性偏好、叠加效应发挥到极致的,恰恰是恐怖分子。除了几次可怕的事件,比如“911”事件,恐怖袭击导致的死亡人数与其他死亡原因相比是非常小的。即使恐怖活动猖獗的国家,比如以色列,每周的死亡人数也远远不及交通事故死亡的人数多。事实上,自2001年9月11日以来,每年丧命于恐怖分子之手的平均人数,欧盟约为50人,美国约为10人,中国约为7人,而全球约为2.5万人(主要在伊拉克、阿富汗、巴基斯坦、叙利亚)。相较之下,每年丧命于车祸的平均人数,欧盟约8万人、美国约4万人、中国约27万人,全球约为125万人。那我们为什么对恐怖袭击这么在意呢?还是因为新闻,新闻对恐怖袭击这条信息作了过度的报道,让系统1眼见为实,相信了这个“实事”。可得性偏好的成因在于系统1会将“容易出现”和“概率较高”弄混,宁可做直觉判断,也懒得启动系统2进行科学的概率运算。
第三种则是因果性偏好。系统有一个特点,喜欢对事物进行因果性解释,而且找到有利于强化“自信”的理由,对客观存在的、随机性真实原因反而“视而不见”。典型的例子是蓝球场上的“手热”现象。运动员投篮顺手这个“事实”普遍被运动员、教练和球迷所接受。而且得出这个的推断是顺理成章的:如果一个运动员连续进了三四个球,大家都会觉得他处于“手热”的状态,两队球员更愿意将球传给打得顺手的人。然而,对上千个投篮动作的分析结果却十分另人失望。在职业篮球比赛中,无论球是从球场上投出,还是从罚球线投出,根本没有“手热”这回事。那只是随机事件,无论是对单个队员来说,还是从整个球队来看,那三四个球,只是他们几千个投篮或几千个小时投篮中的几个或几分钟而已,是不能再小的样本中的一次统计,根本不足以形成“手热”这一规律性判断。
实际情况下,我们不会去考究这个事实背后的真正原因,而是顺由系统1给出一个貌似“恰当”的理由,即“手热”而已。
书中还提到了光环效应、锚定效应、框架效应和禀赋效应、事后效应(事后诸葛亮),这些误差共同说明一个问题,人类的系统1是一个具有先入为主特性的系统,先输入的信息在判断中能够占据优势地位,不管这种信息是第一印象,是事先设定的参考值,还是描述时的词语和修辞,都会极大影响我们的判断。
三、改进思维的方法
既然偏见和失误往往与系统1的主导地位相关,那么,要解决问题,从原理上来说是很简单的,就是放慢思考,主动的激活系统2,来对系统1的直觉思考进行理性检验,弥补系统1的缺陷,减少那些由直觉产生的偏见和错觉。
一是破除典型性偏好。想办法约束自己的直觉:我们知道,一旦人们做出错误的直觉判断,系统1和系统2都脱不了干系。系统1引起了错误的直觉,系统2采纳了这个直觉,并将其运用到了判断中。造成系统2犯下此类问题的原因有两个:忽视和懒惰。一些人在获得典型信息时(眼见为实),而忽视了基础比率。另一些人则是没有集中精力在当前的任务中,没有慢下来看清楚明显的错误,还是因为“懒”而相信了系统1编纂的故事。所以,如果我们对一件事情下结论,那要让系统2做至少两项“工作”:以相对合理的基础比率对结果的可能性作出判断,同时质疑你对证据的分析。
二是学会民主集中制。当你独自奋斗、独自决策的时候,身边可能不会有多少旁观者,而你自处一个机构之中,身边就会有很多旁观者。因为,自己很难否定自己的判断,但如果处于一个机构之中,人类一种天然否定别人、肯定自己的特性就会在集体决策中发挥作用,为了使“怀疑别人”这个结果更可信,这些旁观者会自发的启动系统2进行慢思考,一旦其他人启动了慢思考,就一定会来帮你纠正自己系统1的快思考。所以,集体讨论决策虽然会有效率不高的问题,但在很多情部下却还是很有价值的,它可以启动很多人的慢思考,减少一个人思考可能带来的偏见和失误。
三是客观的看待问题。这个论点很容易理解,一旦你知道了你自己直觉判断会产生误差,那你再作决策时就势必会慢下来,想好了再决策。这个过程就是启动系统2的过程,只要系统2不再“懒惰”,参与到你各项事物的决策中来,你就会有一个相对准确的判断。
还没有评论,来说两句吧...