作者:周雪光 转载自:微博 原文链接
周雪光,1959年2月生,斯坦福大学社会学系教授、系主任,李国鼎经济发展讲座教授,弗里曼-斯伯格里国际问题研究所高级研究员。1978-1982年就读于复旦大学国际政治系,获学士学位。1984-1991年就读于斯坦福大学,获社会学硕士、博士学位。1991-1994年任康奈尔大学社会学助理教授,1994-2006年任杜克大学社会学助理教授、副教授、教授,2006年至今任斯坦福大学社会学教授。主要研究领域为组织社会学、中国国家治理、官僚制度。代表作为 The State and Life Chances in Urban China: Redistribution and Stratification, 1949-1994.(Cambridge University Press. 2004),《组织社会学十讲》(北京:社会科学文献出版社. 2003),《从官吏分途到层级分流:帝国逻辑下的官僚人事制度》(《社会》2016(36.1): 1-33.)、《从‘黄宗羲定律’到帝国的逻辑:中国国家治理逻辑的历史线索.》(《开放时代》2014( 4):108-132.)。现任北京大学教育学院、清华大学社会学系、中国人民大学社会学系兼职教授,香港科技大学人文社会科学部咨询委员会成员,台湾中研院社会学研究所学术咨询委员会成员,Management and Organization Review高级副主编。
长途旅行返回,趁着倒时差的时间,看了HBO的五集电视剧《切尔诺贝利》(Chernobyl)。这部电视剧2019年五月份上演,前些日子听到许多推荐赞誉之词。1986年,位于前Soviet乌克兰的切尔诺贝利核电站发生了核反应堆爆炸的重大事故,导致人类动物生态环境的长远影响,至今仍有2000多平方公里的区域因核辐射影响而废弃荒芜。这个电视剧即是这一事故发生及其事后处理过程的艺术再现。
我一直对这种“based on a true story”的影视类型别有钟爱,想来原因是可以从自己的体会或观察中找到解读思考的资源,借以丰富自己对现实社会的感受。特意查了一下网上关于这个电视剧的真实性程度的各种报道。许多经历了这场事故的乌克兰人也观看了这部电视剧,包括参与事故初期救援的工程人员。根据多家媒介的报道和评议,包括对经历人的采访,这部电视剧的大致脉络、时间、事件和主要人物是真实可信的,但具体情节和对话是虚构的,以艺术加工来吸引观众。关于电视故事的争议性最大的一点是事故责任的承担问题,即在多大程度上是一线工程人员的过失,还是核电站体系的失误。关于事故发生的直接原因、过程及其组织失败等方面,并无太多争议。
这个故事中的一系列事件问题可以说是组织学研究的“教科书”般的案例,我在讲授组织社会学课程时也引用了类似的案例来讨论组织过程和机制,例如美国航天飞机“挑战号”爆炸事件。这个重大事故不过是我们司空见惯的组织现象在一个特定情形下的表现而已,也正因为其极端情形而导致了极端结果,才引起了我们的专注。
一
信息,信息,信息!或许这是理解所有组织现象的一条主线;对于切尔诺贝利事故来说,也不例外。事故前关于核反应堆设备潜在风险的信息屏蔽,事故过程中对各种信息的收集、加工、解释,事故后对原因和后果相关信息的扭曲掩盖,这一主线贯穿了五集电视剧的始终。
感谢这部电视剧,为观众包括我提供了这一事故的科普扫盲工作。导致事故的线索大致如下:4号核反应堆芯发生爆炸,是由于一系列出乎意料的偶然事件的汇集而致:外在因素导致核电站临时停电,核反应堆非正常运转,由此产生的“毒素”未能随核反应堆如常运转而消除;在核电站领导急于测试的压力推动下,副总工程师迪亚特洛夫在现场督促核反应堆的检测,违反了正常的操作程序,最终导致堆芯爆炸的事故悲剧。
回头审视切尔诺贝利事故,信息问题从两个方面促就了这个重大事故:第一,信息问题影响了关于核反应堆安全性的判断,盲目决策引起事故发生;第二,信息问题导致对事故后果的误判,造成延迟居民疏散决定的重大失误。组织学关于信息与组织的知识积累,可以帮助我们很好地解剖这个个案。无妨看一下信息在事故发生过程中的作用的几个镜头。
其一,信息与经验。信息并不是中立或直观无误的,需要人们的加工解释,而参与者已有经验或知识在这里扮演了重要角色。一个镜头是:当一线操作技术人员提出,上级关于继续测试的决定不符合操作规定时,副总工程师告诉他们,在核电安全问题上,他有更长的经历、更为丰富的经验。根据以往经验,这种操作并不成为问题。于是,检测过程继续下去,随着一连串事件与应对的慌乱之中走向堆芯爆炸。
其二,信息的解释和使用受到各种政治因素的影响。电视剧中惊心动魄的一幕是,有关部门刻意隐瞒核反应堆设计上的问题,即在特定条件下(毒素累积),启动安全钮(AZ-5)不但不能终止核反应过程,反而会催化这一过程,导致爆炸。副总工程师之所以敢于力主测试,是因为他错误地以为,一旦出现事故苗头,可以随时按下这个安全钮(AZ-5)来终止这一过程,不致灾难。体制中的信息屏蔽使得当事人无法做出理智的决策。
其三,信息与技术。我们通常以为,技术手段的提高可以改进信息质量,提高信息使用的有效性。但在切尔诺贝利事故过程中,技术并没有提供有益的帮助。事故发生初期,一线人员没有合适的仪器来检测核辐射强度;随后的合适仪器读到了测量结果,但因为这些结果与当事人的专业知识不符而被一一否定。这里的教训是,技术不能解决信息问题,因为技术为人们操作使用,而人们带着他们的经验、知识、利益来使用信息。
一个有趣的现象是,专业知识塑造了特定的思维定势,成为解读信息更为顽固的障碍。事故发生后,一线操作人员将堆芯爆炸的信息传递到厂长和总工程师那里时,并未被采纳,因为后者的专业知识限制了他们的想象,而是从逻辑上推断和解读事故原因和性质(水池爆炸),排除了核反应堆爆炸的可能性。即使后来得到核辐射计量的准确信息,但因为与决策者的专业知识相悖,他们宁愿相信技术的失误。
这一事故的重大后果之一即是救援不当,没有及时疏散周围的居住人口。从以上镜头上可以看到,正是关于信息收集、加工、解释的一连串失误,导致了这个重大灾难。
二
观看这部电视剧,让我再次联想到马奇的“有组织的无序”这一组织决策模型。不同目标、多重过程、不同经验。触目惊心又司空见惯。这个故事放在前Soviet的官僚体制背景之下,有些意 形态的意味。其实,类似的事情在任何官 体之中都可以看到端倪的。 无独有偶的是,切尔诺贝利事故的同一年,1986年1月,美国航天飞机“挑战者号”在发射过程中起火爆炸,七位宇航员丧生。物理学家Richard Feynman作为调查团一员,参与了调查过程,并写下了自己的调查发现,我在讲课中用此作为教学案例。不妨沿着前面的线索举几个例子。
信息与经验。挑战号失事的起因是,在过于寒冷气温下,各部件连接处的密封塑胶垫片不能如期扩展,导致燃料流出,引起爆炸。在发射前夕,Thiokol公司(橡胶垫片制造厂家)的工程师提出,室外温度低于设计标准,不同意发射。但当时的主持经理说道,以前在如此低温条件下也成功发射过,没有出现过问题,他告诉Thiokol工程师“戴上经理的帽子”。不难看出,参与人员同样是依靠过去经验来解释信息,作出判断的。
信息、身份与技术。在“挑战者号”失事的调查过程中有这样一幕。物理学家Feynman发现,NASA(美国宇航总局)官方有一个关于航天飞机安全性的估测:失败概率为十万分之一。这个估测意味着,平均来说,宇航飞机每天飞行,270余年才会发生一次事故。Feynman追问这一估测的依据从何而来,却发现毫无凭据。于是,他让三位NASA工程师(其中一位任宇航局经理)写下他们各自关于航天飞机的失事概率的估测。两位工程师分别给出同样的估计,1/300。但那位同是工程师出身的经理却给出了与官方一致的估计:十万分之一。当Feynman追问这一估测背后的道理时,又是毫无凭据。可见,不仅不同的知识导致了不同的信息解读,而且人们的不同身份也会导致不同的信息解读。
组织依常规(routine)行事,即运行于既定的程序中,其中也包括专业知识。事发后,切尔诺贝利一线操作人员反复强调,We did everything right,即按照常规程序进行操作。然而,一旦意外事故发生,犹如出轨的高速列车,常规的组织惯性恰恰推动其以原有的高速冲出。
在这个意义上,上述事故可以说是常规的悲剧。组织常规塑造了权威关系,角色认知和服从命令、听从指挥的习性。组织建立常规来确保行为的稳定性、可信性。但常规导致的行为定势恰恰在最为需要主观判断时将其交付于习惯力量。过去的成功给了我们自信心,帮助我们解读新的情形。但一旦新的情形与过去经历相悖,基于过去的解读就会导致重大误判。而且,信息加工解释通常是在时间压力和任务压力下做出的。
当然,还有一个另外情节,副总工程师急于启动检测以便邀功请赏,是这一事件的直接诱因。但是,我们在日常的组织过程中不都是如此行事的吗?我们不也是按照组织提供的激励来安排自己的工作节奏吗:或突击加班以便完成任务,或加快发表速度以便满足晋升指标,等等。
另外,信息的加工解释发生在一个多重过程的生态环境中。断电导致测试延迟,导致白天与夜晚班组更换,从而诱发了一线操作人员与往不同的经验汇集,也因此影响到了参与者决策动态过程。也就是说,组织决策不是孤立发生的,而是与许多其他过程相互作用。组织决策结构试图建立在一个封闭系统中,但这是极为困难的,越是封闭的系统,越难以承受意外事件的冲击,正如切尔诺贝利事件所展示的那样。
三
在这部电视剧的结尾部分,科学家列加索夫在审判庭上详细解说核反应堆运作原理和事故原因。此时作为科学家的列加索夫是从全能的上帝视角来呈现这一过程的。可惜的是,作为身在组织中的我们并不具有这一全能视角,我们时常必须在高度压力下,依靠有限的经验和理性来迅速做出判断和决定。
20世纪初,德国社会学家韦伯首先提出科层制组织(bureaucracy)这一新型组织形式时,他强调了科层组织的准确、及时、高效的优势,适应了市场经济和工业大规模生产的需要。在这一理论模式中,等级结构有利于自上而下的指令传递和执行。但在这一制度中,自下而上的信息搜集、加工、解释存在突出的组织问题,这是社会科学日益关心的课题。
信息是有代价的。这意味着,个人或组织层次上收集或使用信息,都有节约信息成本的冲动,即在自己熟悉的领域附近寻找信息,从而导致所谓的“近邻效应”和途径依赖。而组织也因为信息成本不断调整人事和结构安排,从而导致稳定的信息来源和加工渠道。同样的信息,经过不同组织过程的加工,会导致不同的结论。早在1970年代,心理学家Irving Janiss提出了“群体思维”这一概念(Group think), 用来解释了美国外交政策的一系列重大失误。其基本思想是,思维相近的人们构成相对封闭的群体,信息源重复狭窄,思路互为强化,因此走进死胡同,丧失远见能力。
想象这样一个组织过程:组织晋升机制奖励那些成功的官员。结果不难预料,最后进入高层决策的都是那些在过去环境中有成功经验的官员;换言之,决策高层是适应过去环境而成功的经验汇集。这里的危险是,一旦环境变化,过去经验不再适用时,则他们决策的经验依据就会导致错误决策。在切尔诺贝利和挑战号的片段中我们已经窥视到这一情景。这一情景也一再出现在许多组织兴衰的过程中。
写下上面的文字时,我想起了那句话,生命之树常绿,而理论是灰色的。与惊心动魄、生动鲜活的电视镜头相比,这里文字记下的组织学发现和道理,一旦说开了,是那么的简明直观,甚至可以说平淡无奇。不过,这些平淡无奇的道理告诉我们,在那些或生动鲜活或刻板俗套的人物形象和故事情节背后,有一些沉着恒定基色般的永恒道理,它们超越了组织边界、领域边界,甚至国家边界。
本文来源于周雪光教授的微博,原题目为“电视剧《切尔诺贝利Chernobyl》观后感”。