ベイズ統計
ベイズ統計学
統計学 |
ベイズ統計学 |
---|
理論 |
|
技法 |
|
ベイズ統計学(ベイズとうけいがく、英: Bayesian statistics)は、確率のベイズ的解釈に基づく統計学(および理論)を指す。
- この確率のベイズ的解釈では、対象の変数に関する確率(分布)は事象における直観的信頼度(仮説モデルの信頼度)を表す。したがってパラメーター変数に対しても確率であるとし固定値と捉えない特徴を持つ。
- さらにこの確率は新たに集めた現実の情報・データを取り込むことでより尖鋭型へ更新され、したがって事実を忠実に反映する働きと捉える[1]。直観的信頼度は、以前の実験の結果や事象に関する個人的信頼度といった事象に関する事前知識に基づいてよい。
- 上記は数多くの他の確率の解釈に基づく統計学理論とは異なる。例えば、頻度主義の解釈では、確率を多数の試行後の事象の相対的頻度の極限と見なす[2]。またパラメーター変数は固定値と捉えることを原則とする。
ベイズ統計的手法は、新たなデータを得た後に確率を計算および更新するためにベイズの定理を用いる。ベイズの定理は、データに基づく事象の条件付き確率や事象に関する事前情報または直観的信頼度、事象に関連した条件を説明する。例えば、ベイズ推定において、ベイズの定理を確率分布または統計モデルのパラメータを見積るために使うことができる。ベイズ統計学は確率を直感的信頼度として扱うため、ベイズの定理はパラメータまたはパラメータのセットに対して、信頼度を定量化する確率分布を直接的に割当てることができる[2]。
ベイズ統計学という名称は、1763年に発表された論文においてベイズの理論の特殊な場合を定式化したトーマス・ベイズに因む。18世紀末から19世紀初頭にわたるいくつかの論文において、ピエール=シモン・ラプラスは確率のベイズ的解釈を発展させた。ラプラスは、数多くの統計問題を解くためにベイズ的手法と現在は見なされるであろう手法を用いた。多くのベイズ的手法は後の執筆者らによって発展されたが、この用語は1950年代までこういった手法を言い表すためには一般的に用いれらなかった。20世紀の大半、ベイズ的手法は哲学的および実践的判断により多くの統計学者によって好まれなかった。多くのベイズ的手法は完了するのに多くの計算を必要とし、20世紀に広く用いられたほとんどの手法は頻度主義的解釈に基づいていた。しかしながら、強力な計算機とマルコフ連鎖モンテカルロ法のような新たなアルゴリズムの出現によって、ベイズ的手法は21世紀に入り統計学内において利用の増加が見られてきている[2][3]。
ベイズの定理
ベイズの定理はベイズ統計学における基本定理である。ベイズの定理は新たなデータを得た後に確率(直感的信頼度)を更新するためにベイズ的手法によって用いられる。2つの事象
- Eliezer S. Yudkowsky. “An Intuitive Explanation of Bayes' Theorem”. 2015年6月15日閲覧。
- Theo Kypraios. “A Gentle Tutorial in Bayesian Statistics”. 2013年11月3日閲覧。
- Bayesian statistics David Spiegelhalter, Kenneth Rice Scholarpedia 4(8):5230. doi:10.4249/scholarpedia.5230
- Bayesian modeling book and examples available for downloading.
- Bayesian A/B Testing Calculator Dynamic Yield
- Think Bayes, Allen B. Downey
- Bayesian Statistics: Why and How