RReLUってのがあるのか。Leaky ReLUのLeaky部分をランダムな傾きにするらしいのだがなんでそれで精度上がるんだろう。それで精度出るのならプラス方向分もランダム性もたせると精度出たりしないのかな?

stealthinustealthinu のブックマーク 2017/03/21 13:41

その他

このブックマークにはスターがありません。
最初のスターをつけてみよう!

【ReLU, PReLU, シグモイド etc...】ニューラルネットでよく使う活性化関数の効果をKerasで調べてみた - プロクラシスト

    こんにちは、ほけきよです! Kerasは簡単に実験ができて便利ですね!今回は、Kerasを使って活性化関数が実際の精度に与える影響を調べてみます。 使用するデータ : MNIST 使用するライブラリ : Keras Kerasの動か...

    \ コメントが サクサク読める アプリです /

    • App Storeからダウンロード
    • Google Playで手に入れよう