サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
Switch 2
ch.nicovideo.jp/akiba-cyberspacecowboys
ch.nicovideo.jp
「今週は暑かったのでうちの会社はサンダル出勤もOKだった」という文章が伝わらないと嘆いてるツイートを見たが僕も何を言ってるのかよくわからない。 というような書き込みが流れてきて、「あーあ」と思った。 でも残念なことに、僕もどちらかというと、そっち側の人間だった。 「今週は暑かったのでうちの会社はサンダル出勤もOKだった」という言葉は、日本語として文法にツッコミどころがあるかもしれない。 「そんな日本語はない」というセリフは、よく言われたし、残念ながら僕も言ったことがある。 なんでそんなふうに考えてしまうのか、自分なりに分析してみると、要は「言語の厳格な運用」が可能であるという仮説があるからだ。実際それは可能だ。 そして、厳格な運用をしなければどうにもならないものもある。プログラミング言語だ。 プログラミング教育によって得られる恩恵が「言語の厳格な運用」だとすれば、その弊害は「あらゆる言語に
みんな深層学習してるかな? さて、GoogLeNetとか、みんな好きかな?オレはわりと好き。 なにしろプリトレインドモデルがあるからお手軽なんだよね。そこが好き。 あと、なにしろalexnetはデカすぎる。 なんでこんなにデカイんだ、という感じ。まあ1GBくらいなんだけど、Raspberry Piだと普通に読み込めないほど巨大なのよね。 しかし自分で作ったニューラル・ネットワークにImageNetのILSVRC2012を学習させようとするとやばいことになる。 なんということでしょう。 この圧倒的絶望感 SSDonlyでこのスピードですからね。 9日経っても1エポックすら進んでいないとは 一説によると、GoogleのGPU(TPU?)ファームは3万GPU(Maxwell世代だと合計約1億2千万コア)あるらしく、1000GPU(300万コア)でILSVRC2012の学習に1日かかるらしい。 火
敵対生成学習した深層畳み込みニューラル・ネットワークをDCGANと呼ぶ。 最近はこのDCGANの育成にハマっているので、僕のかわいい人工知能ちゃんの観察日記をご紹介。人工知能の真実に迫るのに多少役立てば幸いである。 さて、今回は比較しやすいようにMNISTにしてみた。 MNISTで6万字のデータをぬきだし、学習させるとこんな感じになる。 つくづく驚異的なのは、GANの場合、画像しか見せないでラベル(その画像がなんであるか)は一切見せる必要がない。それでいてこんなにうまくもとの状態を表現できるのである。これが驚異でなくてなんだろうか。 しかしこれだけの表現を獲得するにはどれだけの学習データが必要なのか気になる。世の中には似たようなものが6万字とか、そんな恵まれたデータだけではないはずだ。 そこで徐々にデータを減らしてみた。 すると・・・ 3万字でも44エポックでここまでいく。 悪くない。悪く
Deep3dというのがあって、これは左目用画像を渡すと右目用画像を勝手に生成するというムチャクチャなエンジンだ。 んで、すごいのは、「奥行きとかどうでもよくて、なんとなく立体だとこんな感じの視差になるはず」というのを3D映画から学習しているのである。狂ってる。 この段階でも充分狂ってるが、これが意外となかなかいけてしまうから二重に狂ってるのである。 普通に考えると、画像→デプス(深度)マップ→右目用の映像という流れになるはずだが、デプスマップをすっ飛ばしていきなり右目用の画像を学ばせるという鬼畜ワザによって、一体全体AIが「どのようにして」空間の奥行きを確認しているのかは知りようもないが、とにかく力技によって出来てしまうことが事実として分かってしまっている。 ってここまで説明しても、「わかるかよ!」という気分である。 論より証拠、そのdeep3dとやらを動かせばいい・・・ ・・・が、このイ
チャオ! オレだ。 深層学習を手軽に使いたいというニーズは日に日に高まっているはずなのに、ガクシャ先生どもと来たら、やれMatlabだ、やれPythonだのと軟弱言語の話しかしやしねえ。どこかに気骨溢れたナイスガイはおらんのか! と思ったら、居た。 それが今回紹介するdarknetだ。 darknetという名前から想像する異常にダークである。 バーン どうよこのダークネス感 いまどき黒いページというのは珍しい。 そして無駄に凝った魔法陣のようなロゴ。ダークだ。 しかしダークネット、厨二満開とせせら笑っていられるのもいまのうちだ。 このダークネット、実に必要十分な機能を最短で試せる超絶優れたツールなのである。 CaffeやTensorFlowほどの知名度はないが、実用性皆無なTensorFlowに比べてdarknetはものすごく実用的。Cが分かる人ならばこれほど使いやすいものもちょっと他にな
チュッス!オレだ。 あちら側でニューラル・ネットワークの蒸留がヤバイぜみたいな話になっているけど、あっちはあっちであんまり技術的要素強めの内容は書けないので実際に実験してみたオレの回顧録をここに記しておく。 蒸留について詳しくはあっちの記事を読んでほしいんだけど、かいつまんで言うと、要は勇気がないんでしょ・・・じゃなくて、複雑なネットワークをより単純なネットワークで置き換える手法である。 たとえばGoogLeNetで解析した画像をよりシンプルな構造のネットワークに転写することができるというわけだ。 ほんとかよ。 で、最初ためしに適当に作ってみたら・・・ わかりますかこの圧倒的絶望感 lossの値に注目 e+29ですよ。つまり0が29も付くんですよ。 たしかにlossは下がってるから学習はできているのだろう。 だがしかし!だがしかし!こんなんじゃいつまで経っても無理じゃんか なにがいけないの
前回、ついにChainerのCaffeFunctionを改造したことで、いろいろなCaffemodelを取り込んで使う時にもう「Chainerの内部で落ちてるから使い方わからんオワタ」と思わなくて済むようになった。しかし改めてChainerはわかりやすくて素晴らしい。 ちなみにCaffeモデルは公開されているものでも簡単に使えるやつと使えないやつがある。 ものによってはCaffeモデルだけでなく改造済みのCaffeとセットで公開されているものもあり、ちょっとノイローゼになりそうな気分である。それを移植しようとすると、改造済みのCaffeの中身も調査しなければならず、まあ単純に関数が増えたとかならまだいいんだけど、どうもそういうわけでもないケースも散見されて悩ましい。つらい まあいいや。 そういうわけで、いろいろすぐに使えるやつを試して見たんだけど、とりあえず性別判定と年齢判定、それと場所判
やあみんな、畳み込んでるかな? 今日はMicrosoft先生が昨年発表した152層というノイローゼのような超深層のニューラル・ネットワークの話をしよう。 GoogLeNetが、Inceptionモジュールという組を作って、Inceptionモジュールごとにlossを逆伝播させてやることで層を深くしていたことはみんなもよく知っていると思う。 これがInceptionモジュール Pervious layerから入力された特徴が1x1の畳み込みや3x3の畳み込みを経由して最終的には統合される。 これをノイローゼのように繰り返し繰り返し深くしていって、38層という非常に深いネットワークを構築している。 図で黄色で表されたところがSoftmax層で、要はここで推定しているわけだから、lossを返すのはこの三箇所ということになる。 GoogLeNetは層が深い割には計算量が少ない。そのかわり、学習させ
次のページ
このページを最初にブックマークしてみませんか?
『電脳空間カウボーイズZZ(電脳空間カウボーイズ) - ニコニコチャンネル:生活』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く