- Amazon.co.jp ・本 (432ページ)
- / ISBN・EAN: 9784794215383
作品紹介・あらすじ
誰がどのように引き起こし、誰がどのように食い止めたのか?原発事故から高層ビル倒壊まで、50あまりのケースを紹介しつつ、巨大事故のメカニズムと人的・組織的原因に迫る。
感想・レビュー・書評
-
人命が失われるような深刻な事故が起こるたびに発せられる「何故こんなことが」の一言。その何故を様々な事例を元に解明しようという書。興味深いのは深刻な事態でも事故を食い止めた事例も多く紹介されており、タメになる。「最悪の事態を常に意識し、最低限頭の中だけであってもシミュレートしておくこと」が如何に大事か教えてくれる。人命に関わらないシステム運用に携わる人でもきっと教わるべきものがあるはず。そして、事故を起こさない組織作りとはどういうものか。上級管理職には是非読んで欲しい一冊。
詳細をみるコメント0件をすべて表示 -
文字通り最悪の事故が起こるまで人が何をしていたかということを紹介した本。面白かった。
リスクマネジメント的な教訓本として読むのも良いのではないかと思う。
わたしは興味本位で読んだけれど、それでも人間の凡ミスと信頼すべき機械のミス、そうして自然現象が重なってしまった時などに起こる大惨事っぷりにぎょっとしてしまった。
きっかけは本当に些細なことで、ここまでの大惨事になる前に回避するチャンスは幾らかあったにも関わらず、事故が起こるときには全ての選択肢が最悪のほうへと一直線に向かっていってしまうのだなあと思った。
そして、現場の人間のミスは勿論きっかけではあるものの、根本的なだいたいの原因は納期不足だったり予算削減だったりと上の都合だったりするのも興味深い。
飛行機の非常口への座席の数を数えておけというのと、諦めない人間が生き残る確率が一番高いということは心に深くとどめておこうと思う。 -
スリーマイル、チャンレンジャー、海底油田掘削施設の嵐による転覆。
例えば宇宙関係では、何かの調整のためにいったん延期すると次の機会は(公転周期の関係で)30日先になってしまうこともある。「早くする」「応急処置で予定通り進める」が大事故につながる。
が、リアルなのは「緊急事態が起こると通常とは違う判断が必要になる」のに、一方で「睡眠不足で判断が鈍る」こと。個人的に一番怖かったのは浮力を失った潜水艦の事故。二酸化炭素の濃度が上がり、睡魔と判断不足に襲われる。そもそも時間がないからこその緊急事態なのだ。まずそういう状況が起こりえないようなシステムの設計というエンジニアリング的発想が一番大事なのはわかるんですけどね・・・ -
原発(スリーマイル、チェルノブイリ)、アポロ13号、潜水艦沈没、石油採掘船沈没、飛行機墜落等の重大事故にスポットを当てて、その事故が起こるまでの経緯やそれが起こってからの人々の行動が詳細に解説されている。この本によると前兆のない事故はないそうで(直感的には自分もそう思う)、前兆を捕らえて、適切に対処していればこれらの事故は起こらなかったといえる。最近、残念なリコールが多い。製造業を支えるエンジニア諸氏にぜひとも読んでほしい。
-
最悪の事故が起こるまで人は何をしていたのか
-
リスクアセスメントの学習の一環で読む。ちょっと驚く内容。こんなこともやってないの?と不思議なくらいずさんなシステム設計例が次々と出てくる。一方で、某法則ではないが、ポカミス、凡ミスはびっくりするくらい自分でやっている。大事故につながるので気を付けたい。
NASAの事故調査レポートのリンクは確かにすごい。少々読むのに気合いがいるが、一読したい。 -
技術的な話については、やや冗長に感じたのが正直なところ。でもさぁ。本書で言われている最悪の事故を避けるために必要なことのひとつに冗長性があるんだよね(笑)。最悪の事故に至るまでの経緯が、とても細かく描写されているので、最初のうちはやや読みづらく感じる。でも読み進めていて、気づくんだ。一番はじめに言われている通りのことをね。現代は、技術とか機械とか、複雑になりすぎていて、それとどうつきあうかが問われるのだ、と。言い回しはちょっと違ったかもしれないけど。複雑で、そして巨大なことができる機械文明の産物に対して、人間は結局は人間なのだ。本書で起きた悲惨な事故に至る道は「えー!?」というほどくだらないことの積み重ねだ。でも、それが人間なんだよね。相手が原発だろうと、原油の採掘施設だろうと、巨大なタンカーだろうと、動かすのは人間であり、である以上、やっぱりいい加減なところはあると思った方がいい。人間は必ずミスをするし、楽な道をとる。それは性悪説でみるというのとは微妙にちがっていてさ。人間は人間の論理で、自分の持つリソース、体力や時間、集中力を最適化する道を探そうとする。機械のそれとはずれるのだ、というのを考えた方がいいのだろう。それは高度な機械を要するのではない場面でもいえるじゃないかな。いろいろ考えさせられる本だった。
-
いやぁ、勉強になります。
これまで人類は、様々な悲惨な事故を経験してきたわけですが、それらの事故の多くが、起こるべくして起きたと言うか、実は避けることが出来たと言う事ですね。
後からゆっくり考察した後付けの知恵と言えばその通りなのですが、人が陥りそうなミスや認知の穴を予め知っておけば、避けることが出来る可能性が高くなります。
日本で言えば、福島の原発然りですね。 -
事例は豊富だが、整理されていない。しかもある事例を紹介している最中に突然別の事例に飛び、ありゃこっちの話になるのかと読み進めるとまたいきなり元の事例に戻ったりする。読みにくいったらありゃしない。こういう本を書く人がプロジェクトを率いたら、スタッフが混乱して事故を起こすんじゃないだろうか。
個別の事例の分析は充分とはいえず納得がいかない。数を揃えることで一般論を導こうとしたのかもしれないが、成功しているとは思えない。
人間は間違えるものだし、機械はいつか壊れるものだ。それを前提としていない組織やシステムは破綻する。それはたぶんみんなわかっていて、知りたいのはどうすれば効率的な安全装置を設計でき、事故をできるだけ減らせるか、だ。そういうことが書いてあるかと思ったのだけれど。 -
人が起こしてしまうミスでどうなことになるのか……
しかし、それを回避できる人もいる。
オーシャンレンジャーの沈まない安全神話は愚かしすぎる。訓練をまともに受けてない人々が操縦していたなど…
そんな日本の臨界事故も、人のミス、とさらりと皮肉られています。
危機を想像している人の方がタフ、当たり前なんだが、いざというとき重要だ。
「ビュデジャ」「ハイパー・ビジランス(超覚醒)」「ヒューリスティクス」覚えました。
ただ2001年の本なので、それからおこった大きな事故には言及がないのがもどかしい。ちょっと古いかな。