确认偏差
习惯性的站在自己观点的对立面
什么是确认偏差?
人们更倾向于寻找、记住、解释那些支持自己已有信念或观点的信息,而忽略或轻视与自己信念相矛盾的信息。
例如,如果你相信星座性格分析,说“射手座外向爱自由”,你就会特别注意到射手座朋友外向的一面,而忽略他们安静、不爱社交的时刻。 结果是,你感觉“星座真的很准”,但其实只是确认偏差在起作用。
如果某人强烈爱国,他会更愿意相信强调国家成就、民族团结的新闻或评论,并觉得这些信息可信。 但当他看到批评国家的问题(腐败、环境污染、人权问题等)的报道时,就会觉得“不真实”“这是外国势力抹黑”,甚至直接不去看。
如果某人强烈反感专制,他会更愿意相信揭露专制体制弊端的新闻,并觉得这些信息合乎事实。 当他看到一些强调“稳定”“秩序”或专制制度带来经济发展好处的文章时,就会觉得“这是洗地”“有偏见”,甚至拒绝阅读。
为什么会有确认偏差?
智能有机体更新内部世界模型(belief revision)是一件代价极高的事情,需要耗费大量认知资源。
因此,系统更倾向于保持原有模型稳定,只要还能合理解释当下数据。确认偏差可以起到“延缓大规模修正”的作用。
当一个人同时持有 两个相互矛盾的信念、态度或行为 时,会产生心理上的紧张和不适,这种状态就叫 认知失调。在情绪上,符合预期的信息会带来“模型正确”的确认感,降低惊讶,生理上产生奖励体验,相反的信息会引起不安、不适,意味着要面对新的世界模型,因此人会主动回避。如果承认自己错了,会产生认知失调(心理痛苦)。为了减少痛苦,人们往往更愿意找支持证据来“证明自己没错”,
确认偏差不仅是认知上的自由能最小化,也是 情感上减少不适 的一种表现。
虚荣心的自我保护,虚荣心的一个核心功能是维持“我是正确的”“我是有价值的”这种自我形象。当出现相反证据时,虚荣心会感到威胁,于是大脑会通过确认偏差来过滤掉“打脸”的信息。在某些社会环境中,“认错”意味着丢面子或社会地位下降。于是个体更倾向坚持原有观点,哪怕事实在眼前。
确认偏差的害处
个人层面,妨碍学习和成长,总是只接受符合自己观点的信息,导致视野狭窄。知识结构难以更新,思维停留在固有模式里。
降低决策质量,在做重要选择(买房、择业、投资等)时,忽略不利证据,容易高估利好,低估风险,最后可能做出错误甚至灾难性的决定。
自我欺骗与情绪困境,只接受让自己舒服的信息,从而短期减少焦虑,但长期可能导致与现实脱节。当现实“打脸”时,心理冲击会更大。
与他人沟通障碍,在争论时,不是听对方的理由,而是不断寻找反驳的证据。结果是对话失效,双方更固执。
加剧偏见和刻板印象,比如“某一类人都怎样”,只记得符合偏见的个案,忽视反例,导致误解、歧视,滋生没有必要的矛盾。
信息茧房,人们只在同类群体里交流,互相强化同样的观点。结果是立场越来越极端,对立越来越尖锐。公民若只接收“有利于自己立场”的新闻,会加深社会撕裂,难以达成共识。极端情况下,可能导致群体对抗甚至冲突。
认知模型复杂度不足
认知模型简单的人,他们的大脑倾向于用单一框架解释世界,只能容纳一种答案。
当遇到矛盾证据时,就会产生不适,因为这意味着模型需要拆解和重建,而这对他们来说很困难或几乎不可能。
所以,他们会下意识拒绝“打脸证据”,只保留符合预期的信息,也就确认偏差更强。
认知模型简单的人更容易陷入“非黑即白”的思维,无法处理失调,从而依赖确认偏差来保护自己
认知模型复杂的人,他们能够在头脑中并行存储多个可能的解释,甚至允许矛盾观点共存。
这种情况下,遇到冲突信息不会立刻造成巨大心理负担,因此确认偏差的倾向会相对弱一些。
认知模型复杂的人能容忍失调,把冲突当作信息源,而不是威胁。
一个简单模型的人,像一个“怕冷的人”,总要立刻关掉冷风(短期舒适),哪怕因此永远待在狭小的屋子里。
一个复杂模型的人,像一个“能忍短期寒冷的人”,敢于走出去收集木柴和食物。虽然一时不舒服(短期自由能高),但最终获得更大安全感(长期自由能低)。
提高认知复杂度
大脑的默认模式是倾向于“快思维”,也就是追求确定性,简化模型,快速降低自由能。
一个人越常接触复杂信息、矛盾观点,大脑就越会重塑连接,也就更容易形成分层模型。
需要容忍不确定、接受矛盾、不断修正,这和大脑的“节能本能”是相反的,也就是需要刻意的训练,来取代本能的低效和偏差。
接触多元信息,主动去看不同立场的观点(比如一条新闻的正反评论),而不是只泡在信息茧房
练习批判性思维,对同一问题,尝试列出两种或更多解释,并检验各自的证据,这训练大脑能“并行存储多个假设”
培养不确定性耐受力,刻意去面对模棱两可的问题,不急着下结论,而不是逃避思考,认为思考是无意义和徒劳的
统计学理解
在确认偏差下,人类的“更新公式”并不是完整的,而是带有偏权重:
$$ P^*(H \mid D) \propto \begin{cases} w_1 \cdot P(D \mid H) P(H), & D \ \text{支持原有信念} \newline w_2 \cdot P(D \mid H) P(H), & D \ \text{反对原有信念} \end{cases} $$其中:
- $w_1 > 1$:对“支持性证据”赋予过高权重。
- $w_2 < 1$:对“反对性证据”赋予过低权重,甚至趋近于 0(忽略)。
结果是:即使证据本身中立,长期下来,后验概率会被系统性地推向既有信念。