サクサク読めて、アプリ限定の機能も多数!
エントロピーの基本的性質 (1)情報量は確率だけによって決まる。(2)情報量は非負の値または無限大を取る。...(4)確率変数XとYが独立である必要十分条件は、H(X) + H(Y) = H(X,Y)が成立することである。
teni-totte のブックマーク 2011/01/31 02:11
情報量 - Wikipediaエントロピーの基本的性質 (1)情報量は確率だけによって決まる。(2)情報量は非負の値または無限大を取る。...(4)確率変数XとYが独立である必要十分条件は、H(X) + H(Y) = H(X,Y)が成立することである。2011/01/31 02:11
このブックマークにはスターがありません。 最初のスターをつけてみよう!
ja.wikipedia.org2003/07/05
情報量(じょうほうりょう)やエントロピー(英: entropy)は、情報理論の概念で、あるできごと(事象)が起きた際、それがどれほど起こりにくいかを表す尺度である。ありふれたできごと(たとえば「風の音」)が...
66 人がブックマーク・11 件のコメント
\ コメントが サクサク読める アプリです /
エントロピーの基本的性質 (1)情報量は確率だけによって決まる。(2)情報量は非負の値または無限大を取る。...(4)確率変数XとYが独立である必要十分条件は、H(X) + H(Y) = H(X,Y)が成立することである。
teni-totte のブックマーク 2011/01/31 02:11
このブックマークにはスターがありません。
最初のスターをつけてみよう!