共有
  • 記事へのコメント4

    • 注目コメント
    • 新着コメント
    その他
    オーナーコメントを固定しています
    imslotter
    オーナー imslotter Keras便利よなぁ~、そしてReLU凄い #deeplearning #活性化関数 #ReLU

    2017/01/12 リンク

    その他
    chess-news
    chess-news 活性化関数relu

    2017/05/28 リンク

    その他
    stealthinu
    stealthinu RReLUってのがあるのか。Leaky ReLUのLeaky部分をランダムな傾きにするらしいのだがなんでそれで精度上がるんだろう。それで精度出るのならプラス方向分もランダム性もたせると精度出たりしないのかな?

    2017/03/21 リンク

    その他
    karaage
    karaage こういうのみると、最先端の世界も結構職人芸的チューニングの世界なんだなと思ったり。それだけじゃないのだろうけど

    2017/01/13 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    【ReLU, PReLU, シグモイド etc...】ニューラルネットでよく使う活性化関数の効果をKerasで調べてみた - プロクラシスト

    こんにちは、ほけきよです! Kerasは簡単に実験ができて便利ですね!今回は、Kerasを使って活性化関数が...

    ブックマークしたユーザー

    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事