ミスを責めるとミスが増え、自己正当化がミスを再発する『失敗の科学』
人はミスをする。これは当たり前のことだ。
だからミスしないように準備をするし、仮にミスしたとしても、トラブルにならないように防護策を立てておく。人命に関わるような重大なトラブルになるのであれば、対策は何重にもなるだろう。
個人的なミスが、ただ一つの「原因→結果」として重大な事故に直結したなら分かりやすいが、現実としてありえない。ミスを事故に至らしめた連鎖や、それを生み出した背景を無視して、「個人」を糾弾することは公正なのか?
例えば、米国における医療ミスによる死亡者数は、年間40万人以上と推計されている(※1)。イギリスでは年間3万4千人もの患者がヒューマンエラーによって死亡している(※2)。
回避できたにもかかわらず死亡させた原因として、誤診や投薬ミス、手術中の外傷、手術部位の取り違え、輸血ミス、術後合併症など多岐にわたる。数字だけで見るならば、米国の三大死因は、「心疾患」「がん」そして「医療ミス」になる。
うっかり見落としたり、忘れてしまうといったミスは、人間だからあたりまえだ。だが、あまりにも多すぎるこの数字は何を物語っているのか。
ミスが再発するメカニズム
マシュー・サイド著『失敗の科学』は、ミスそのものよりも、ミスに対する「姿勢」に着目する。
無謬主義である医療業界には、「完璧でないことは無能に等しい」という考え方が是とされる。失敗は脅威であり不名誉なこととされているため、スタッフはエラーマネジメント(ミスの防止・発見)のトレーニングをほぼ受けていないという。
ミスが起きたとき、人は失敗を隠そうとする。自分を守るために、失敗を認めようとはしない。ちょうど映画のシーンを編集でカットするように、失敗の記憶を消し去ってしまう。自分の過ちを認めるよりも、事実の解釈を変えてしまうこともある。
1つの重大事故の背後には29の軽微な事故があり、その背景には300のヒヤリ・ハットが存在するという。ヒヤリ・ハットは揉み消され、インシデントが共有されることはない。
ひとたび事故が起きて、予期せぬ結果について説明が必要なとき、どう答えるのか?
医療事故の調査によると、「ミス」ではなく「複雑な事態が起こった」と表現されるという。「技術的な問題が生じた」「不測の事態によって」といった婉曲法によって明らかにしない。情報開示に対する抵抗は強く、「患者が知る必要がない」「言っても理解できない」という言葉を盾に取り、事実を語ろうとしない。
疫学的調査によると、受診1万件につき、医療ミスを原因とする深刻な損傷が44~66件発生しているという。しかし、実際にヒアリングをしたところ、この結果通りの申告をしている病院は1%に過ぎなかったという。また、50%の病院は、受診1万件につき5件未満と報告していた。つまり、大半の病院が組織的に言い逃れをしていることになる。
ミスを認めない体質により、インシデントが共有されず、再発が繰り返され、重大事故につながる―――この負のスパイラルは、医療業界に限ったことではないという。あり得ない証拠をでっち上げる検察官や、自己保身のあまり事実を捻じ曲げる経済学者が登場する。
ミスを厳罰化するとミスが報告されなくなる
では、こうしたミスを無くすにはどうすれば良いか?
「失敗は悪」として罰則を設ければよいという考えがある。ミスを厳罰化することで規律を正そうとする発想である。
この仮説を検証するためにリサーチが行われた。投薬ミスが慢性化している複数の病院が選ばれ、一つのグループは懲罰志向で、ミスを厳しく問い詰めさせた。もう一つのグループは非難をしない方針で運営した。
もうお分かりかと思うが、懲罰志向のグループにおいては、ミスの報告は激減した。一方、非難しないグループでは、報告件数は変わらなかった。そして、実際にミスが起きた件数は、懲罰志向のグループが遥かに多かったという。
これと似た経験がある。かつて「品質を向上させるため、バグをゼロにする」というトチ狂った信条の上司が着任し、エラーを見つけ次第、厳しく叱責するようになった。バグは激減したのだが、それは品質が良くなったわけではなく、報告されなくなったに過ぎない(その上司が離任するまで、報告用とは別の管理簿を作ってしのいだ)。
同様に、かつて「いじめ撲滅」を目標にして、いじめが起きた学校や教室を処罰対象にする試みが行われた。数字の上ではいじめは減ったが、告発の手紙を遺して自殺した子どもに対しても、「いじめではなかった」と強弁されていた(レビュー『測りすぎ』参照)。
ミスから学ぶ組織の作り方
では、どうすればよいか?
失敗を認め、そこから学習することで、再発させない。どうすればこれが実現可能になるのか?
本書では、ミシガン州立大学での実験が紹介されている。被験者に単純なテストを受けてもらい、ミスをした時にどのように反応するかを、脳波測定する実験だ(※3)。
着目するべき脳信号は2つあるという。1つ目は、自分のミスに気づいた後50ミリ秒で自動的に現れる信号だ。これは「エラー関連陰性電位(ERN)」と呼ばれ、エラーを検出する機能に関連する前帯状皮質に生じる反応になる。
2つ目は、これはミスの200~500ミリ秒後に生じる信号になる。「エラー陽性電位(Pe)」と呼ばれ、自分が犯したミスに意識的に着目するときに現れる。
自分のミスに気づくERNの信号と、そのミスを意識的に着目するPeの信号、この2つの信号が強いほど、失敗から素早く学ぼうとする傾向があることが分かった。さらに、Peの信号が強い人ほど、「知性や才能は努力によって伸びる」と考える傾向があったという。
ミスから学ぼうとするマインドセットは、個人のみならず組織でも育成できる。
本書では、究極の失敗型アプローチとして「事前検死」が紹介されている。
人の死の原因や状況を明らかにする「検死」は、あたりまえなのだが、人が死んだ「後」に行われるものだ。だが、「事前」とはどういう意味だろうか?
これはpost-mortem(検死)をもじった造語で、pre-mortem(事前検死)になる。プロジェクトが終わった後に振り返るのではなく、実施前に検証するのだ。
まだ始まってもいないのに、「プロジェクトは大失敗でした。なぜですか?」という問いを立て、失敗していないうちから失敗を想定して学ぼうとする手法である。メンバーは、プロジェクトに対し否定的だと受け止められることを恐れず、懸念していることをオープンに話し合うことができる。
これはわたしも行っている。ディスカッションで「もし上手くいかないことがあるとしたら、それはどんな理由?ヤバい順に考えてみよう」と問うて反応を見るやり方だ。荒唐無稽なやつから割と現実的なものまで出てくる。
スイス・チーズの喩え
人だから、ミスが起きるのは当然のこと。そのミスを再発させず、トラブルにまでつなげない仕組みが必要となる。そのためには、まずエラーを受け入れるオープンな姿勢が肝要となる。
フランスでの試みだが、エラーを称賛し、学習・共有する文化を広げようとする『なぜエラーが医療事故を減らすのか』(レビュー)は、まさにこれだろう。
ヒヤリ・ハットから事故への連鎖を止めるための、様々な事例が紹介されている。例えば、成人向けと小児向けの薬剤を同じ棚に置かない。会話のプロトコルをルール化し、「入力の"打つ"」と「注射の"打つ"」と分けて復唱させることで、単に「打つ」だけで伝えないようにする(「この薬剤を打っておいて」と言われたら、「その薬剤データを入力しておくのですよね」と復唱する)。あるいは、多すぎる薬量がオーダーされた場合にはシステムが警告する。
有形無形のさまざまな関所が設けられている。
こうした関所のことを、並べたスイス・チーズで視覚的にモデル化する。一つ一つのチーズは穴だらけだが、並べることにより、エラーという矢の通り道を塞ぐ。幾つもの穴をすり抜け、刺さったチーズが「ヒヤリ・ハット」になる。それぞれのチェックは完璧ではないが、エラーの原因は一つとは限らない。刺さった最後のチーズは確かに目立つかも知れないが、そこへ至る一連の流れを見なおし、各ステップでの不具合を見つけ出し、システム全体としての改善を図ることが必要になる。
スイス・チーズ・モデルに基づけば、不幸にして最後のチーズとなった医療者を責めるのは意味がない。事故の当事者は、たくさんあったはずの防御装置の欠陥を明るみに出した者にすぎないのだから。
ヒューマンエラーは原因ではなく、むしろ結果なのだ。これを報告・学習できる組織になるために、『失敗の科学』をお薦めしたい。
※1
A new, evidence-based estimate of patient harms associated with hospital care - PubMed (nih.gov)
※2
A safer place for patients: learning to improve patient safety - White Rose Research Online
※3
| 固定リンク
コメント