サクサク読めて、アプリ限定の機能も多数!
RReLUってのがあるのか。Leaky ReLUのLeaky部分をランダムな傾きにするらしいのだがなんでそれで精度上がるんだろう。それで精度出るのならプラス方向分もランダム性もたせると精度出たりしないのかな?
stealthinu のブックマーク 2017/03/21 13:41
【ReLU, PReLU, シグモイド etc...】ニューラルネットでよく使う活性化関数の効果をKerasで調べてみた - プロクラシスト[機械学習][deeplearning]RReLUってのがあるのか。Leaky ReLUのLeaky部分をランダムな傾きにするらしいのだがなんでそれで精度上がるんだろう。それで精度出るのならプラス方向分もランダム性もたせると精度出たりしないのかな?2017/03/21 13:41
このブックマークにはスターがありません。 最初のスターをつけてみよう!
www.procrasist.com2017/01/12
こんにちは、ほけきよです! Kerasは簡単に実験ができて便利ですね!今回は、Kerasを使って活性化関数が実際の精度に与える影響を調べてみます。 使用するデータ : MNIST 使用するライブラリ : Keras Kerasの動か...
30 人がブックマーク・4 件のコメント
\ コメントが サクサク読める アプリです /
RReLUってのがあるのか。Leaky ReLUのLeaky部分をランダムな傾きにするらしいのだがなんでそれで精度上がるんだろう。それで精度出るのならプラス方向分もランダム性もたせると精度出たりしないのかな?
stealthinu のブックマーク 2017/03/21 13:41
このブックマークにはスターがありません。
最初のスターをつけてみよう!