fc2ブログ
 
■プロフィール

ぷろどおむ

Author:ぷろどおむ
元サッカー少年。今はしがない化学屋です。

■最近の記事
■最近のコメント
■最近のトラックバック
■月別アーカイブ
■カテゴリー
■FC2カウンター

■ブロとも申請フォーム
■ブログ内検索

■RSSフィード
■リンク
続・測定器の表示はどのくらい信用できるのか
それでは前回の予告通り検出限界などについての話をしたいと思います。ただ,私自信が専門にしている都合上,どうしても化学分析における機器分析をイメージした話が強くなってしまいますので,ご了承ください。重さや長さなどの物理測定では,また別のファクターが関与する場合が多いのですが,今回はあえてその辺を追求しません。ご希望があれば,別の機会にでも解説させていただきたいのですが,今回は割愛します。

さて,「検出限界」という言葉の響きから「その装置(もしくは方法)が測定対象を検出できるかどうかの限界(下限)」という意味である事はすぐに想像できると思いますが,一つ質問してみたいと思います。

もし,目的とする分析対象物が検出限界以下であるような試料を測定した場合,測定している装置は測定している間,どんなシグナル(信号)を出していると思いますか?

「検出限界以下なんだから,当然シグナルなんて何も出てこないはずじゃないの?」と思われている方が多いのかなぁ?などと想像しているのですが,いかがでしょうか。

直感的には,確かに何となくそうなるのが正しいような気はするんですが,実際には

「一定量のシグナルが常に出続けている」状態
になっています。

この,常に出続けている「一定量のシグナル」を,普通「ノイズ」と呼びます。

ノイズが発生する理由は様々で,検出器に流れる電気的なノイズなどはその代表的なものです。また,測定装置によっては原理上避ける事ができない(例えば,常にシグナルを発生するようなガスや溶液を流し続けなければいけないもの)バックグラウンド由来のノイズもあります。

測定対象が一定量以上存在していた場合,それを示すシグナルがこのノイズの中からひょっこり顔を出してきます。つまり,検出限界とは「ノイズの山の中から頭を出してきたシグナルを,きちんと間違えずに見つけることができる境界線」ということになります。実際には,慣例としてノイズの大きさを基準として,測定したい値(例えば物質量)が与えるシグナルの大きさがノイズの3倍の大きさを示すような場合(シグナル・ノイズ比 S/N=3)として設定される場合が多いです。

ですから,原理的にノイズが小さいことが期待される測定器の方が検出限界が小さくなるのが一般的です。たとえば,化学分析で良く用いられる光を使った検出器の場合も,白色光から特定の波長の光が減少した事を測定する吸光分析よりも,測定対象が入射した特定の波長とは異なった波長の光を出す蛍光分析の方が,そしてそれよりも分析対象自身が光を放出する発光分析の方が,検出限界は低くなります。また,放射線測定の検出感度が高いのも同様の理由です。

ただ,これは測定器の精度が十分に高い場合でして,もし測定器の精度がノイズよりも悪い場合には,同じ試料を測定した時に示す測定値の標準偏差を基準として,その3倍の大きさのシグナルが示す値を,検出限界値と設定します。

この辺は前回の精度や確度の話ともちょっと絡んでくるのですが,具体的な例を挙げてみましょう。

たとえばある測定器Aは,動作中ずっと0.1の桁が上下に変動し続けているけれども,測定中は同じ試料であれば1以上の桁は毎回同じ値を示すとします。このような場合であれば1以上の値が出れば確実に検出されているだろう,と判断することができます。しかし,常に0.1の桁まで全く動かないけれども,測定しなおす度に1の桁の値が変化するような測定器Bの場合には,1の桁の数字が動いても検出できたかどうか判断するのは危ない,と考えなければいけない(=測定対象が存在しない場合でも,1の桁が動いてしまっている可能性を否定できない)ということになります。

一見すると,測定時に0.1の桁まで安定した値を出してくれる測定器Bの方が,最後の桁がふらついて安定した値を表示してくれない測定器Aよりもすばらしい測定器のように見えてしまいます。また安定した値を表示してくれますので,ついつい一回しか測定していないのに最初に測定器Bから出てきた値を信用してしまいがちです。しかし,前述した通りより信用できる値を出してくれているのは測定器Aの方なのです。

実際こういうことは良くあったりしますので,自分が使っている測定器の素性をしっかり把握するという事は,正確な測定を行う上で非常に大切な事なのです。

ちょっと話がずれてしまいました。がんばって本題に戻りましょう。

このようにそれぞれの測定器には検出限界というものがあるわけですが,これは検出器そのものについての問題であると同時に,検出限界よりも大きなシグナルさえ得られたとしても,「表示された測定値が正確であることを保証しない」ことにも注意が必要です。

それは,もちろん前回お話しした「校正」の問題もあります。また,検出した物理量から物質量を推定する化学測定の場合には,測定器自身について「検出限界」とは別に「定量限界」という値があり,それ以上の測定値が得られない場合には,正しい物質量を推定する事ができません。定量限界は検出限界に準じた考え方でS/N=10(もしくは標準偏差の10倍)となるような値が設定される場合が多く,検出限界とは別に設定されています。

しかし,これらとはまた別の重要な要因もあります。それは「試料自身に由来するノイズ」です。

特に土壌や空気,水や食品など自然界に存在する試料では,「試料の均一性」が大きな問題となります。

人工的に制御して作られたものの場合は,きちんと条件さえ揃えれば均質なほぼ同一と言っても過言ではないような試料の集合を作成する事が可能です。これには,人工的に合成した化合物や溶液だけではなく,遺伝子的な均質性を保たれた実験用の細胞や,実験動物,実験植物なども含まれます。

しかし,制御された環境下で生み出されたわけではない,いわゆる天然試料には,当然ですがある一定量のばらつきが存在します。極端な例を挙げれば,関東地方における空気中の粉塵を評価しようとして筑波山の山頂や那須高原などの空気を採取し,「関東地方の空気はこんなに綺麗です」と言っても意味がありません。同様に東京のど真ん中を走るトンネルの中の空気を採取して「関東地方の空気はこんなに汚れています」といっても意味はありません。これは,土壌にしろ環境水にしろ同じことです。人間の体だって,手足や髪の毛とでは元々の構成成分も,有害物質の蓄積状態も全く異なります。なので,通常は「何のどのような状態を知りたいのか」という目的に応じて,必要な対象範囲から可能なかぎり数多くの試料を採取し,その平均とばらつきを評価します。もちろん可能な限り1カ所当たりの採取量を大きくするのも,測定値の精度を上げるためには重要です。

また,今一番の話題である空間線量のようにバックグラウンドにシグナルが常に存在し続けている場合も問題になります。このような場合に今現在の値が示している意味を評価するためには,通常値として採用可能な過去のデータの存在が必要不可欠です。そして,それらの値がどの程度ばらついているのかを確かめ,バックグラウンド値として考慮に入れる必要があります。

たとえば,通常の状況でも空間線量が年間を通した平均として0.10 μSv/h程度の平均値と±0.08 μSv/h程度の変動がある地域において,0.15 μSv/hの測定値が出たからと言って「通常の1.5倍の空間線量が測定された!!」と騒いでも全く意味がないですよね。つまりはそういうことです。

また,目的によっては変動値のみに注目するために,得られた実測値からバックグラウンドを差し引いた値を(正味の)測定値として出す場合もあります。このような場合には当然測定値としてマイナスの値が出てくる可能性もあります。

ちなみに,普通は検出限界以下のシグナルしか得られなかった場合は不検出(Not Detectable; ND)と表現します。なぜこのような表現になってるかというと,その検出器(あるいは測定方法)で検出されなかったからと言って,検出対象が存在していないとは言い切れません。たまたまこの検出器や測定方法で検出できなかっただけであって,異なる全ての検出器や全ての測定方法で同じ試料から測定対象を検出できる可能性がゼロであるということを意味しないからです。要するに今話題の「ゼロではない」ということです。困った事にこの表現が,現在批判対象とされてしまっているわけですが,私自身は科学者がこういった表現を好むのは,科学者自身が誠実に自らの限界を認知しながら活動している証拠だと思っていますので,たぶんこの先も使い続けると思います。

また脱線しかかりましたね。本題に戻りましょう。

先ほどのようにバックグラウンドを差し引いた場合には,「きちんと検出されたけれども,通常値より低い」というケースが十分あり得ます。ですので,「測定値」として表示された値がマイナスになる可能性があるわけです。もちろんこのような差異を示したい場合には,通常マイナスの値を持った測定値には意味が無くなる(=通常状態からの異常は検知されないと判断できる)わけではありますが,測定結果としては前述の「ND」とは意味が全く異なりますので,より正確な情報を提供するために,あえてマイナスの値を表記する場合があります。

さらに,このような場合には,差し引かれて出てきた測定値が意味を持っているのかどうか(=有意差を持つかどうか)を評価しなくてはなりません。そのため通常時における測定値の変動をノイズとみなし,その変動(ノイズ)の山から十分大きく頭を出しているような値であるかどうかを判定します。要するに検出限界の亜種みたいなものなんですが,このようにして出した値は検出下限濃度(Minimum Detection Concentration; MDC)なんて呼ばれ方をしたりします。つまり,MDC以下の値を示した測定値は,ばらつきの中に埋もれてしまう=通常の検出限界以下の値として見なす事ができますので,意味を持たない値つまりゼロであると判断されます。

このような表現は,大気中核実験や今回のような原子炉事故により環境中に放出された放射性核種による放射能や空間線量への影響を見る場合のように,通常状態と非かくて大きな変動があるのかどうかを表現したい場合によく用いられる傾向があります。ですので,表などに出ている値を読み取る際には,このような表現方法が用いられている可能性も考慮に入れつつ,十分に注意して読み解く事をお勧めします。

さて,ここからはちょっと余談になります。

皆様ご存知の通り,福島第一原発の事故により低線量放射線の健康影響についての議論が様々な場所で見られるようになりました。しかし,それらの議論を聞いていると,今回の検出限界にまつわる話でも出てきた

ばらつきの中に埋もれてしまう程度の増分

をどう扱うべきか,と言う認識が非常に危ういのではないかというような印象を感じてしまいます。

具体的な例を挙げて考えてみましょう。こちらのページでは,ガンによる死亡率の統計データが公開されています。ここで公開されている2009年度の都道府県別悪性新生物死亡率(人口10万対)データから,この値が各都道府県間でどのくらいばらつきがあるかを計算すると相対標準偏差で約12.3 %となりました。要するに,日本国内だけでも地域によって一年間でこのくらいのばらつきが地域差として存在するという事です。かなり大きいですよね。

また,こちらの2005年罹患・死亡データに基づく「累積がん罹患・死亡リスク」統計(PDF)によれば,生涯における全がんの罹患リスクは男性で53.6 %,女性で40.5 %,2009年死亡データに基づくがんによる生涯死亡リスクは男性で26.1 %,女性で15.9%となっています。

それに対し低線量放射線によるガン死亡リスクの増加分は0.005~0.006 % / mSvとされており,仮に年間で20 mSvを連続的に浴びてしまったとしても「リスクの増分」は生涯において0.1~0.12 %です。また,こちらの図に示されている不確かさを加味しても上限で0.00884 %/mSV,20 mSvでも約0.18 %の増分です。

もちろん前述した生涯リスク算定の不確かさがどの程度あるのかについての情報がありませんので何とも言えませんが,20 mSv/年におけるリスク増分0.1 %は男性の死亡リスク26.1 %に対する相対値で0.38 %,女性の15.9%に対しても0.63 %の変動でしかありません。不確かさの上限である0.18 %を用いても,それぞれ0.69 %,1.13 %の変動でしかありません。ですので,どちらの場合を取っても普通は統計処理上十分無視できる範囲として処理されてしまうレベルの変動なのです。

しかし,世の中の論調を見ていると,こういうより大きな変動の中に増分が埋もれてしまうと言う事象が,感覚的に理解できない(あるいはしたくない?)方が,かなり多いように見受けられます。個人的には,そういった極めて微少な変動を意識しすぎる事で,ストレスなどの別要因が増大する方が,健康上良くないのではないかと心配しております。

余談が長くなってしまいました。

様々な測定値が各所であふれかえっている極めて混沌とした状況ではありますが,このエントリが様々な数字を正しく理解するための一助となれば幸いです。いつものようにご質問,あるいはここの理解間違っているだろというご指摘大歓迎です。どうかよろしくお願いいたします。

テーマ:科学・医療・心理 - ジャンル:学問・文化・芸術

雑学 | 18:37:17 | Trackback(0) | Comments(7)
測定器の表示はどのくらい信用できるのか
すっかりご無沙汰してしまいました。福島の方は,残念ながら炉心が融けてしまっているのがほぼ確定となった上に,水棺形成作業も極めて困難であるという報告があり,ますます予断を許さない状況になっております。

このような状況の中では不安になるなと言うのが無理な話ですが,より正確な状況が把握された事はより正確な対処を行える可能性が高まったという事でもあります。また,こんな事を言うとお叱りを受けるかもしれませんが,現場の人間に正確な情報が行ってないのは困りますが,現場の人間に必要な情報が提供されているのであれば,原子炉内部の状況に関して言えば外部の人間に情報が出てようが出て無かろうが,どちらにしろ我々ができる事は何もないのは一緒です。なので,できるだけ冷静に事態の推移を見守りたいと思います。ただ,周辺の空間線量や農作物の放射能レベルについては,我々でも可能なアクションが必要になる場合がありますので,その様な情報についてはしっかり注目していきたいと思っています。

しかし,ネット上に流れ飛ぶ様々な測定値から正しく不安を感じ,現在の状況を正しく理解するためには,やはり測定器に表示される測定値はどういう意味を持っているのか,そしてその信頼性を確保するためにはどのような作業が必要なのか,についてを十分理解する必要があると感じました。

というわけで,そもそも測定器一般が持っているエラーについて基本的な部分,つまりガイガーカウンタなどに限らない一般的な測定機器が持つエラーについて説明をさせていただきたいと思います。

さて,先ほどから私は測定の「誤差」と言わずに測定の「エラー」という表現をしています。これはどうしてかというと,そもそも「誤差」という言葉の定義である「真の値からのずれ」を成立させるために必要な「真の値」を知る事は,神ならぬ人の身には不可能だからです。

そのため,現在測定科学の領域では「不確かさ(uncertainty)」という言葉を用いて,その測定値の持つ信頼性を表現しています。たとえば「(0.52 ± 0.03) mg/kg」などと書かれた分析結果の場合には,真の値が0.55から0.49の間にある一定の確率(通常は95%)で存在する事を保証した分析値である事を意味しています。

この「不確かさ」がどのように導かれるのかについてはこの後順に説明していきたいと思っていますが,より簡便な表記方法とも言える「有効数字」という概念についても,もう一度復習していただきたいと思います。

「有効数字」というのは,文字通り「有効」つまり「十分な意味がある」数字と考えてください。よく例として用いられるのは,「5」と「5.0」では意味が違う,と言う話です。

有効数字を正しく理解して表現されている場合,「5」と1桁で表記された場合,この数字は「5.4から4.5」の間の幅を持つことを意味しますが,「5.0」と表記された場合にはこの数字は「5.04から4.95」の間の幅を持つことを意味します。また,「5」と書いている時は「有効数字が一桁」であると言い,「5.0」の時は「有効数字が二桁」であると言います。

では,この不確かさや有効数字の桁数はどのようにして求められているのでしょうか。

測定値は当然何らかの測定器を用いて求められますが,得られる測定値には大ざっぱに言って

ズレとばらつき

の2種類が含まれています。そして,それぞれがどのくらいの大きさを持っているのかを表現する言葉として「確度(ズレ)」と「精度(ばらつき)」があります。

「ばらつき」や「精度」という言葉には皆さん結構聞きなじみがあるのではないでしょうか。ちなみにここで言う「ズレとばらつき」は,より専門的な用語を使うと「系統誤差(systematic error)」と「偶然誤差(random error)」にあたります。また「ズレ」は「バイアス(bias,かたより)」という呼び方をする場合もあります。「ズレ」という語感から意味もなんとなく想像はできるかと思いますが,その測定器(もしくは測定方法)において本質的に発生してしまうエラーのことです。

そして,時々誤解されがちなのできちんと理解していただきたいのは,この両者の間には本質的には相関関係は存在しないということです。もちろん,ぞんざいに行われた測定はズレもばらつきも大きくなりますし,丁寧に行われた測定はズレもばらつきも小さくなるのは良くある事ですので,一見するとこの両者には関係がありそうに見えます。しかし,ばらつきが小さいからと言ってズレも小さいとは限りませんし,例えばらついていたとしてもその平均値や中央値が真値に限りなく近い(と考えられる)なんて事も良くある話なのです。

しかし,実は「ズレ」や「ばらつき」なんかよりも重大で測定を全てやり直さなければならない大きなエラーの原因として測定の教科書やJISなどでもあげられているのは,「gross error(まちがい)」と呼ばれる要因です。

まぁ,要するに装置の故障・装置や分析対象の不適切な取り扱い・分析手法の選択ミス・試料や装置の汚染などのことです。

つまり,目的とする測定値に対して「間違った装置の選択」「間違った手法の選択」「間違った操作」「間違った試料の取り扱い」などが存在したら,すべておしまいという事です。まぁ,当たり前ですね(^^; だからこそ「測定値」を真剣に考える人は,「どのようにして測定されたか」を重要視するんです。

たとえば,「間違った装置の選択」のわかりやすい例として重さを量る場合を考えましょう。人間の体重を測るのであれば,0.1 kgの桁まで表示できる秤があれば普通は十分です。でも,その様な秤で50 gのおもりと40 gのおもりの重さを区別する事ができるでしょうか?もちろんできませんよね?50 gと40 gの重さを区別したければ,最低でも10 g単位まで表示される秤が必要です。さらに50 gが51 gか49 gなのかを区別したければ1 g単位まで,50.1 gか49.9 gなのかを区別したければ,0.1 g単位まで表示できる秤が必要になります。もちろん表示される最後の一桁は信用できるかどうかわかりませんので,0.1 g単位まで信頼できる値として知りたいと思ったら,0.01 gまで表示される秤が必要になります。要するに,同じ「重さ」を測る場合であっても,測る対象と知りたい値の精度によって使う測定器(秤)は異なってくるという事です。

もちろん昨今話題のガイガーカウンタについても,太陽や岩盤から生じているバックグラウンド値を適切に取り除けているか,あるいはそれらが測定に与える影響を防げているか,前回の測定時に装置自身が汚染されていないか,測定レンジは適切か,線源との距離は適切かどうかなど,考えなくてはならない要因がたくさんありますので,これらの測定の妨害となる要因に関する知識と測定対象に関する知識,あと可能であれば測定原理に関する知識などが要求されます。

さて本題に戻ります。ある測定全体においてこのようなズレとばらつきから生じるエラー(不確かさ)は測定に関わる作業一つ一つについて発生します。私の専門の化学分析で話をすれば,サンプリングした試料の均質性に関わる不確かさ,サンプリングした瞬間から測定するまでの間の安定性に関わる不確かさ,試料の重さを量る時の不確かさ,測定に必要な前処理操作に関わる不確かさ,検量線を書くために使った標準物質の純度の不確かさ,測定器自身が持つ不確かさ,ありとあらゆる作業で不確かさが生じます。そして,これらの作業一つ一つについて発生した不確かさを積み上げることで,分析や測定全体で生じる不確かさを見積もることが可能になります。

このようにして得られた不確かさから,最終的な測定値がどの桁まで信用できるかということが判断され,測定値の有効数字が出てくるわけですが,当然それぞれの測定で用いられた測定器の精度が悪ければ,信用できる有効数字の桁数は小さくなりますし,適切な測定器を使わなければさらに有効数字の桁数は小さくなります。

それではばらつきとズレをなるべく抑えるにはどうすればよいのでしょう。

もちろん性能の高い測定器を使うというのが簡単に思いつく事かもしれませんが,「ばらつき」は,「偶然誤差」という呼ばれ方からもわかるとおり,真の値に対して正側にも負側にも或る一定の確率でばらまかれますので,測定回数を増やす事である程度のレベルまで下げる事は可能です。しかし,「ズレ」はその測定を行う事で本質的に生じるものですので,測定回数をいくら増やしても消える事はありません。そこで必要なのが「校正」と呼ばれる作業です。

校正(calibration)は,どんな測定器でもそれを正しく利用したい時には必ず必要な作業です。

どのような作業を行うかは,その測定器により様々ではありますが,本質的には「答えのわかっているものを測定して答え合わせをする」のが基本です。

その「答え」の究極はSI(国際単位系)であり,具体的にはキログラム原器や様々な物理量の定義となっている物理現象だったりするわけですが,実際にはそれぞれの測定器用に上位の標準(最終的にはSIにたどり着けるモノ=SIトレーサビリティが取れたモノ)により校正された実用標準と呼ばれるモノを使って校正を行います。校正を行う事により,その測定器が持つズレ(=系統誤差)の存在を明らかにし,得られた測定値に修正を加える事でより確かな測定値を得る事が可能になります。

さて,だいぶ昔に学生から「10 mLのホールピペットで1回測定するよりも,1 mLのホールピペットで10回測定する方が,ばらつきが抑えられてより正確に測れるのではないか」という質問をされた時がありました。ちなみにガラス体積計の許容差はJIS R3505-1994に規定されており,今話の出たホールピペットの場合は2 mL以下のもので±0.01 mL,10 mL以下のものですと±0.02 mL。一見すると,2 mL以下のものの方がより精度が高いように感じますが,彼のアイディアは正しいでしょうか?間違っているでしょうか???



それでは一緒に考えてみましょう。最近のガラス器具は非常に性能が高いので,実際にはこれより小さい不確かさしかないかもしれませんが,規格上ではここまでの不確かさは存在する可能性があると考えられます。また,確かに絶対量で表現すると2 mL以下の方が精度が高いように感じますが,測定する全体量に対する相対比で表すと2 mL以下のものが±0.5 %であるのに対し,10 mL以下のものですと±0.2 %となり,実は10 mL以下のものの方がより精確度(=精度+確度)が高い測定器であると言えるのです。

また,前述したとおりこの規格で許容されているエラーには系統誤差が含まれています。仮に±0.01 mLのうち,+0.003 mL分が系統誤差であるとすると10回繰り返し測定を行う事で,系統誤差由来のものだけで純粋に0.03 mL分のずれが生じてしまい,10 mLのホールピペットが持つ不確かさより大きくなってしまいます。

もちろんばらつき(偶然誤差)がより大きな場合には,そのばらつきの中に吸収されてしまうかもしれませんが,その保証はありませんし,どちらがどのくらい大きいのかを確かめるためには校正を行って,測定で生じるばらつきとズレを確認する必要があります。もしかするとそこまでやって確かめれば非常に精度の高い神様のような1 mLホールピペットを見つける事ができるかもしれませんが,そこまでするメリットが無さそうなのはご理解いただけるかと思います。

最初の方で話したガイガーカウンタやこのようなガラス器具は,一見すると最新鋭のコンピュータによる制御や処理の必要な大型装置よりも簡便で簡単に値が出るように見えます。しかし,実際にガラス器具で正確に水の体積を量り取ろうと思うと,実験環境での温度変化やガラス器具の洗浄具合,ホールピペットなどでは水を排出させる速度や,大ざっぱに排出させた後の待ち時間など気をつけなければならない要因がたくさんあります。しかも,原理が簡単なだけに,出てきた表示や目盛りを無意識に信用してしまいがちになるという罠まであります。

なので,実はコンピュータなどで測定環境や測定条件を精密に制御されている最近の大型測定装置よりも,単純な測定装置であればあるほど,測定者本人がしっかりと頭と体を使わないと正確な値を測定する事は非常に困難な,とても厄介な代物になる。ということは,十分に理解していただきたいと思います。

ただし,測定原理やエラーの原因となる要因を知り尽くしている熟練の分析技術者がこれらのより原理原則に近い測定法を使うと,その辺の大型装置ではかなわないような精密なデータを出したりするのも事実です。だからこそ「職人」と呼ばれるような人の存在が様々な分野で重要視されるわけなのですが,その辺は本題とはまた違う話になってしまいますし,長くなりましたのでとりあえずこの辺で一旦終了します。次回は検出限界とか,その辺りについてお話ししたいと思います。

テーマ:科学・医療・心理 - ジャンル:学問・文化・芸術

雑学 | 19:08:25 | Trackback(0) | Comments(0)