エントロピーの基本的性質 (1)情報量は確率だけによって決まる。(2)情報量は非負の値または無限大を取る。...(4)確率変数XとYが独立である必要十分条件は、H(X) + H(Y) = H(X,Y)が成立することである。

teni-totteteni-totte のブックマーク 2011/01/31 02:11

その他

このブックマークにはスターがありません。
最初のスターをつけてみよう!

情報量 - Wikipedia

    情報量(じょうほうりょう)やエントロピー(英: entropy)は、情報理論の概念で、あるできごと(事象)が起きた際、それがどれほど起こりにくいかを表す尺度である。ありふれたできごと(たとえば「風の音」)が...

    \ コメントが サクサク読める アプリです /

    • App Storeからダウンロード
    • Google Playで手に入れよう