共有
  • 記事へのコメント11

    • 注目コメント
    • 新着コメント
    その他
    mn36555023
    mn36555023 とりあえず

    2020/11/19 リンク

    その他
    gt-r-blaze
    gt-r-blaze Iはスロ数、Pは1スロあたりの通せる確率、Eは通ったかどうか。自然対数の底はe。eは、限りなく100%に近い確率の∞スロが通る確率。

    2020/01/07 リンク

    その他
    goodstoriez
    goodstoriez “情報量(じょうほうりょう)やエントロピー(英: entropy)は、情報理論の概念で、あるできごと(事象)が起きた際、それがどれほど起こりにくいかを表す尺度である。”

    2019/01/12 リンク

    その他
    fm315
    fm315 エントロピーについて

    2011/12/04 リンク

    その他
    babydaemons
    babydaemons 情報系学生には常識だと思ってるんだけど

    2011/03/27 リンク

    その他
    simpleplay
    simpleplay エントロピーの基本的性質 (1)情報量は確率だけによって決まる。(2)情報量は非負の値または無限大を取る。...(4)確率変数XとYが独立である必要十分条件は、H(X) + H(Y) = H(X,Y)が成立することである。

    2011/01/31 リンク

    その他
    teni-totte
    teni-totte エントロピーの基本的性質 (1)情報量は確率だけによって決まる。(2)情報量は非負の値または無限大を取る。...(4)確率変数XとYが独立である必要十分条件は、H(X) + H(Y) = H(X,Y)が成立することである。

    2011/01/31 リンク

    その他
    comogly
    comogly エントロピーともいう。

    2009/07/24 リンク

    その他
    lamich
    lamich 自己情報量(選択情報量)はI(E)=-logP(E)/意味:確率1 / uで起こる事象の情報量は、ほぼuの桁数になる。/平均情報量(選択情報量の期待値)はH(P)=-∑P(A)logP(A)/情報量の加法はlogの下方と等しく、真数はかけ算される

    2009/01/18 リンク

    その他
    ultraquiz
    ultraquiz 情報量(じょうほうりょう、エントロピーとも)は、情報理論の概念で、あるできごと(事象)が起きた際、それがどれほど起こりにくいかを表す尺度である。

    2008/07/14 リンク

    その他
    pipehead
    pipehead 選択情報量 (自己エントロピー), 平均情報量 (エントロピー)

    2003/07/05 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    情報量 - Wikipedia

    情報量(じょうほうりょう)やエントロピー(英: entropy)は、情報理論の概念で、あるできごと(事象)...

    ブックマークしたユーザー

    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - 学び

    いま人気の記事 - 学びをもっと読む

    新着記事 - 学び

    新着記事 - 学びをもっと読む

    同時期にブックマークされた記事