经济周期预测大师:凭直觉做决定就像走钢丝 复杂系统中
经济周期预测大师:凭直觉做决定就像走钢丝 复杂系统中复杂性指的是:系统中各个部分的相互作用是非线性且不透明的。复杂性在这本书中,他们借助航天、核电、医学、金融等多个领域的血泪史,深入剖析了各种崩溃事件及其背后的原因,并总结了预防和减少崩溃的生存法则。在这本书中,作者强调,我们不能仅凭直觉解决问题,也不应该忽视那些昭示灾难发生的蛛丝马迹。书籍封面社会学家查尔斯·培洛指出,促进系统崩溃的2个因素是系统的复杂性和紧密耦合。
汽车油门失灵,黑客却在车里大放摇滚乐。这不是小说里的情节,而是作家格林伯格亲身经历的一切。这场惊心动魄的经历,让格林伯格充分意识到,汽车系统远比我们想象中的脆弱,几英里外的黑客,都可以随时让它崩溃。
而类似的崩溃现象,在我们生活中也并不少见。无论是令人揪心的油井爆炸,还是让人唏嘘的公司造假事件,我们处处都可以看到它的身影。小到计算机软件闪退,大到切尔诺贝利核电站事故,崩溃都是我们不可忽视的隐患所在,它就像一颗埋在地下的雷,随时都有可能摧毁一切。
为了更好地应对一发不可收拾的崩溃,在第一时间将危险的苗头扼杀在摇篮,克里斯·克利尔菲尔德和安德拉什·蒂尓克斯两人合作出版了一本书,名字就叫《崩溃》。
作者克里斯曾目睹过雷曼兄弟银行的倒闭,之后,他就开始进入复杂性相关领域进行研究,并取得了一定的成果。而蒂尓克斯是全球排名靠前的40岁以下的商业教授,他首次开办了“组织机构灾难性失灵”课程,并被联合国评价为灾难风险管理的最佳课程。
在这本书中,他们借助航天、核电、医学、金融等多个领域的血泪史,深入剖析了各种崩溃事件及其背后的原因,并总结了预防和减少崩溃的生存法则。在这本书中,作者强调,我们不能仅凭直觉解决问题,也不应该忽视那些昭示灾难发生的蛛丝马迹。
书籍封面
一、什么样的系统容易崩溃?社会学家查尔斯·培洛指出,促进系统崩溃的2个因素是系统的复杂性和紧密耦合。
复杂性
复杂性指的是:系统中各个部分的相互作用是非线性且不透明的。
也就是说,复杂系统就像一个黑箱子,里面布满了错综复杂的网。我们对它的认识仅停留在表面,对里面具体的结构,我们一无所知,只能借助各种指示器来评估系统是否正常运转。
在这种情况下,我们对复杂系统的了解完全依赖于指示器,一旦指示器判断失误或有所延长,我们的判断就很容易出错。
紧密耦合
紧密耦合指的是系统中的松动空间小,系统各部分之间几乎没有缓冲的余地。在这样一种关联度极高的关系下,一旦某部分发生失误,整个系统就会出现多米诺效应,一个环节接着一个环节出错。
简单来说,紧密耦合就像是不能更换电池和屏幕的手机,当电池或屏幕坏了,手机也就报废了。
崩溃的危险区
如果在一个系统中,复杂性和紧密耦合同时出现,我们就认为这个系统处在崩溃的危险区。对这个系统而言,崩溃事件已经成为一种常态,任何一个微小的失误都可能造成不可预控的坍塌式崩溃。
日本福岛核泄漏事故
二、导致复杂系统容易产生崩溃的3大原因除了系统本身的复杂性和紧密耦合,还有3个原因也会增加复杂系统崩溃的可能。
1. 仅凭直觉去解决问题的习惯
复杂系统给人的感觉,有点类似于考试时的压轴大题。对压轴难题,大部分人看都没看就直接放弃了,因为他们打心眼里觉得一定很难,思考了也得不出结果。对复杂体统,大部分人也没有兴趣去研究清楚。
与此同时,复杂系统无法给我们提供任何有效的反馈,我们也就没有任何经验来判断所作出的决策是好是坏。
这就导致了系统越复杂,人们越习惯仅凭直觉去解决问题。结果可想而知,拍脑袋做出的决定就像在摇骰子,结果好坏全凭运气,充满了不确定性。
2. 计划持续偏见
做好计划后,即使情况有变,我们也不愿意改变计划。项目进行到一半,就算发现之前的小错误,我们也往往为了更快得到结果,而选择忽视它。这就是“计划持续偏见”。换句话说,也就是发现不对劲的苗头,仍然选择照做不误。
为什么会产生计划持续偏见呢?原因主要包括下面3点:
我们对自己的辛苦付出和准备抱有一定情感,不愿轻易放弃。
在事情进行的过程中,大部分人的反应都会越来越弱,无法保持相应的警惕心理。
随着完成情况的推进,我们越来越能感受到胜利的曙光,好像成功就在前方召唤我们。此时,我们非常容易信心爆棚,从而选择赌一把。
3. 异常正常化
因为该风险在之前未曾造成过糟糕的结果,就将其归为可以接受的情况,这样的做法,就称为“异常正常化”。
无论是1986年的挑战者号爆炸,还是2003年的哥伦比亚号事故,都是“异常正常化”造成的。一个是由于小小的密封圈破裂引起的,一个是由于燃料箱上泡沫绝缘层的脱落造成的,两件事的起因都很不起眼,也都被发现了,但是因为没有被重视,没有被当作警示信号,所以没有得到解决,最终酿成了重大灾难。
凭直觉做决定就像在走钢丝
三、面对崩溃,我们如何防范于未然?第一个建议:面对艰难决策,不要靠直觉博弈,而是使用结构化的决策工具。
在复杂系统中,主观臆断很危险。因此,作者建议我们使用客观工具,比如:避免预测过分乐观的SPIES概率区间估计法,减少遗漏决策要素的事先标准,可以确定成功障碍的事前检验等。
- SPIES概率区间估计法
心理学家莫尔和哈兰发现,人们对复杂系统进行预测时,给出的置信区间通常还达不到一半的准确率。
为什么会这样呢?因为人们往往只注意到两种情况:可能的最佳结果,和可能的最坏结果。这样一来,其他可能的情况就会被划分到关注点的盲区。
但SPIES概率区间估计法不是这样。它从可能性为0的最小范围开始,再到可能性为0的最大范围结束,囊括了所有可能的范围,并将其平均分成几个区间,分别计算每个区间的可能性。
这么一来,考虑的整体范围得到了扩大,得出的结果也才更接近真实情况。
- 事先标准
在医学界有个重要的“渥太华踝关节规则”,这个规则只有4项标准,却能让医生不漏过任何严重的骨折。在决策中,我们把这4项标准称为“事先规定好的标准”。网上流行的“维基序列测量”就是一个很好的例子。
事前规定好的标准包括关键要素,权重,相关评分等内容,最终,决策者将根据最后的总评分做出决定。通过将抽象的看法落实到具体的细节,并进行量化评估,我们就能透过模糊的感觉找到更精准的答案。
从某种程度上说,事先规定好的标准能使我们免受表面细节和个人情感的误导。有研究就曾发现,利用“维基序列测量”买房的人,事后往往会觉得自己做出了相当明智的决定,而那些拍脑袋决定的人,事后却常常吐槽自己当初是头脑一时发热。
- 事前检验
事前检验被心理学家认定为是未来的后见之明,它指的是在假定某件事已经失败的基础上,分析失败的原因,并给出解决方案。
也就是说,事前检验能提前给我们打一针预防针,让我们在面对实际结果时不至于手忙脚乱。与此同时,事前检验也能让潜在的问题浮出水面,有利于我们消灭相关的隐患。
用“维基序列测量”法选购房子
第二个建议:停下来回顾和思考,能有效避免计划持续性偏见,找到绕过墙的方法。
暂停手头的任务,不是因为偷懒,而是为了给自己了解现状的机会。特别是在紧密耦合的复杂系统中,停下来思考往往能让我们注意到意想不到的威胁,从而能及时避免情况脱离掌控。
多伦多大学克里斯蒂安松教授的研究,就充分证明了这一点。她曾经对多家医院的急救模拟训练进行了研究,结果发现,大部分失败的团队,都是因为忙着执行抢救任务,以至于没时间停下来检查自己有没有什么地方做错。这样反而容易被错误的开端牵着鼻子走,最终沿着错误的方向一路走到黑。而那些成功的团队,每走几步就停下来检查之前的情况。他们找到了抢救和思考之间的平衡点,及时地发现了自己错误的地方。
埋头赶进度,有时候反而会更慢到达终点,甚至会离终点越来越远。只有及时了解现状,并重新评估和调整计划,才能一有错误就进行改正,扭转不利局面。
第三个建议:建立多元化团队,多听圈外人的意见,能让我们在第一时间听到警声。
花旗银行首席财务官克劳切克,在谈论2007年世界经济危机的时候,曾指出,金融公司之所以没有预见到经济衰退,是因为团队中的人意见太统一。他们接受同样的教育,研究同样的数据,最后得到了同样的错误结论。
在单一化的团队中,人们的观点接近,对彼此的判断更加信任,即使有人犯了错误,也会被他们当做是合理的选择。他们习惯相信和接受,因为这样做毫不费力。
而多元化的团队,怀疑的声音更多,因此整个团队能以一种批判性的,客观的角度去看问题,也就更有可能发现一些细微却致命的小错误。
建立多元化团队,鼓励每个人大胆说出自己的想法,多听圈外人的意见,这些都能让我们在第一时间注意到可能存在的威胁,进而挽救一场可能发生的危机。
劫后余生的节目制作人贾丝明·加斯德曾经说过:在我们构建的这样一个庞大的机器世界中,我们自己是何等的渺小与脆弱。而我们对于这种脆弱状态又是何等无知。
面对越来越复杂的系统,唯有重塑思维,加强思考,多听他人意见,与科技一同进化,才能在局面失去控制之前,及时找到解决方案。