Science
福島邦彦
人間の脳のメカニズムを、
わたしは知りたくてたまらない。
いまや人工知能(AI)を支える技術となったディープラーニング(深層学習)。その基礎となる技術を生み出したことで、「ディープラーニングの父」と呼ばれるエンジニアが日本にいる。その福島邦彦が1979年に世に問うた階層型の人工神経回路モデル「ネオコグニトロン」が、近年のディープラーニングの革命期において世界的に再評価されているのだ。83歳の福島は、いまも東京郊外にある一軒家の自室で3台のPCモニターの前に座って研究を続け、論文を発表している。そんな彼を突き動かすのは「人間の脳のメカニズムを理解したい」という情熱だった。
PHOTOGRAPHS BY SHINTARO YOSHIMATSU
TEXT BY FUMIHISA MIYATA
2019.10.25 Fri
Profile
福島邦彦
KUNIHIKO FUKUSHIMA
ファジィシステム研究所特別研究員、工学博士。1936年、台湾生まれ。引き揚げ後、58年に京都大学工学部電子工学科卒業、同年NHK入局。NHK技術研究所テレビ研究部、放送科学基礎研究所視聴科学研究室などに所属。89年以降、大阪大学、電気通信大学、東京工科大学などで教授職を歴任。日本神経回路学会(JNNS)初代会長も務めた。国際的な学会IEEE(米電気電子学会)によるによる「IEEE CIS Neural Networks Pioneer Award 」、科学技術庁長官賞など受賞多数。
正方形のマス目の一つひとつに、手書きで歪んだ「A」の文字が並んでいるとしよう。マス目のなかで描かれる位置は、上下左右に寄るなどしてバラバラだ。それらのさまざまな「A」を、同じひとつの「A」という文字として人間の脳のように認識する神経回路をつくるとしたら、どうすれば成立すると考えられるだろうか。
東京郊外、小高い林から鳥のさえずりが聞こえてくる一角。そこで日々、PCのモニターの前に座って研究を続けている福島邦彦を、いま世界が“再発見”している。ディープラーニングに革命をもたらしたとして、コンピューター界のノーベル賞とも呼ばれる「チューリング賞」を今年受賞したヤン・ルカン(フェイスブックAIラボ所長)も、かつて『Nature』誌に掲載した論文で福島の研究を引用しているのだ。
目の前に座る伝説のエンジニアは、自身の歩みをゆっくりと振り返ってくれた。語り口こそ穏やかなれど、そこに潜む熱量はどこまでも圧倒的だった。
優れた発想力と革新によって「新しい未来」をもたらすイノヴェイターたちを支えるべく、『WIRED』日本版とAudiが2016年にスタートしたプロジェクトの第4回。世界3カ国で展開されるグローバルプロジェクトにおいて、日本では世界に向けて世に問うべき"真のイノヴェイター"たちと、Audiがもたらすイノヴェイションを発信していきます。
──福島さんが長年取り組まれてきた「神経回路モデル」は、脳と同じ反応をするような人工の神経回路を仮説のもとに合成し、数学的な解析などをもとに検証していくものですね。脳そのものの解明と、神経系の特徴に基づいた新たな情報処理システムの創出という二面性をもっています。
そのことについて説明するには、わたしが1965年に配属になったNHK放送科学基礎研究所で取り組んでいた研究からお話しするのがいいと思います。テレビやラジオが送っている映像や音、それらを最終的に受け取る人間の脳のメカニズムを知ろう、ということで始まった研究所でした。そこで行われていたのが、神経生理学、心理学、そして神経回路モデルという三位一体の研究です。その3つの分野の人たちが集まって、脳のメカニズムを探究していたのです。エンジニアのバックグラウンドをもっているわたしは、神経回路モデルを担当しました。
例えば神経生理学の人たちは、コイなどの生物の網膜に光を当てるところから始め、だんだん発展してネコやサルの大脳の視覚野の細胞が光刺激にどう反応しているのか、といったことを研究していきました。心理学では、例えば人間の被験者にいろんな色を見せて、見せる時間が極端に短くなると同じ色でも違った色に見える、といったことなどを実験していました。
そうして脳の性質を実験的な手法によって分析していった一方で、わたしたち神経回路モデルの担当者たちは、逆の見方、すなわち合成的な手法で説明しようとしました。つまり、単純化・抽象化したモデルをつくり、脳と同じ反応を示す回路網を合成することを目指したのです。

福島邦彦は、まだコンピューターが普及する前から、現在のディープラーニングの基礎となる技術を提唱していた。
──相互に影響関係はありつつ、脳のメカニズムに対するアプローチは真逆なのですね。
はい。そんな折に興味をもったのが、デイヴィッド・ヒューベルとトルステン・ウィーセルという、のちに1981年にノーベル生理学・医学賞を受賞したふたりの神経学者の研究でした。彼らはネコを用いながら、大脳皮質の第一次視覚野では3種類の細胞が階層をなして結合し、視覚情報を処理している、という仮説を提唱していたのです。
わたしはこれにヒントを得て、同じような神経回路モデルをつくり、いろんな図形の曲率(曲がり具合)を検出しようとしました。生理学グループの同僚がいるものですから、関連する雑誌が研究所には置いてあって、面白そうだな、と思ったんです。といっても、最初は生理学のテクニカルタームなんてよくわからないんですよ(笑)。興味が惹かれる実験の図解をもとに、同じような絵が載っているペーパーを探しては読みあさる、というところから始めました。そこでまずわたしがつくったのが、現在では「CNN(畳み込みニューラルネットワーク)」と呼ばれる多層回路につながるような、画像の入力層と出力層が結合する構造をもつものだったんです。
──いまの人工知能(AI)の画像認識の主力となっているニューラルネットワークですね。とはいえ、当時はコンピューターが発展する前の時代です。神経回路モデルをつくるにも、抵抗のような部品を一つひとつ接続して手づくりしていったといいますし、時代や環境よりも先に福島さんたちの仮説やヴィジョンが先行していた印象を受けます。
そうでうすね。当初は画像を直に出力する装置もありませんでしたから。(文字を1列ごとに印刷する)ラインプリンターで数字をバーッと打ち出して、その数字ごとに異なる濃度の色紙を5mm四方くらいに小さく切ったものをアルバイトの子に貼ってもらって、出力される絵をつくっていました(笑)
NHKの研究所では毎年1回は一般公開もあり、技術を見せなければならない。ならば網膜のモデルはどうだということで、小さな太陽電池をズラッと並べてそれに光を当て、出力はやはり何百個も並べたランプで表示する、ということもやっていましたね。
とはいえ、多層回路といってもまだ単純なもの。時代はもう70年代に入っています。もっと層を重ねていったときに何が起きているのかを知りたくて、生理学の論文が出てくるのを待っていたのですが、一向に出てこない。ならば「学習」させるほかないと、「パーセプトロン」というニューラルネットワークを参考にしながら考案したのが、「コグニトロン」という神経回路モデルだったんです。
──「ネオコグニトロン」の前身ですね。
はい。「パーセプトロン」は、入力層・中間層・出力層の三層構造なんですが、学習できるのは出力層のみ。しかも毎回、教師データ(例題と答えのデータ)と照合して最適化しなければならない、というものでした。効率的な学習ではありませんよね。そこでわたしがコグニトロンで導入したのは、教師なしの「競合学習」というものなんです。入力データに対して細胞(ニューロン)同士を競争させて、最も大きな反応=出力したものが勝ち、より入力データに近いように更新していく。すると、多層神経回路にいろいろなものを見せて刺激を与えてやれば、適切に反応する細胞が自動的にできあがっていくわけです。
ただ、ひとつ問題がありました。入力パターンが変形したり位置がずれたりすると、うまく認識できず、まったく別のパターンとみなしてしまう、といった性質があったのです。

コンピューターが人間の脳のように文字を認識していく──。福島は神経回路モデルである「ネオコグニトロン」の改良を重ねることで、いまも大きなブレークスルーを目指して研究を続けている。
──手書きの「A」の歪みや位置によって、「A」ではない文字として認識してしまう、といったことですね。
そうなんです。そこで曲率を検出する多層の神経回路に、コグニトロン流の学習法則を取り入れて、いわゆる「畳み込み(convolution)」の学習を行う神経回路を考案しました。つまり、あるひとつの細胞が学習すると、その周りのほかの細胞もすべて同じような性質をもつように成長していく。これが1979年に発表した「ネオコグニトロン」という神経回路モデルなのです。
──「A」という文字の局所的な特徴、たとえば尖っている頂点や線が交差している部分を、階層が上の細胞が大局的に認識し、学習していく。すると、過去に学習したことのないパターンでも、似ていれば適切に認識してくれるわけですね。
はい。「コグニトロン(Cognitron)」とは、「パーセプトロン(Perceptron)」をもじって付けた名前だったんです。「perception(知覚)」に、「tron」(機械や道具を意味する接尾辞)がついていたので、じゃあ「cognition(認知)」にトロンをつければいいだろう、と。それが発展したからネオをつけよう、ということで「ネオコグニトロン」にしたんですね(笑)
──そんな由来があったんですね(笑)。それにしても当時、この斬新なアイデアは理解されたのでしょうか。手応えはありましたか。
いや、それほどでもないかもしれません。面白いと言ってくれる人はずいぶんいましたけれど、それで世の中が変わるというような状況ではなかったと思います。そもそも研究所のあり方が、当時においてとても斬新でした。生理学、心理学、工学の人々を集めて研究所を立ち上げた樋渡涓二さんという、わたしたちのボスがいまして、研究のことを非常によくわかっている方だったんです。「きみたちは研究をする上で、NHKのことなんか忘れろ」なんて言ってくれる人だったんですよ(笑)
学界に寄与できることをやれば、それは巡り巡ってNHKに返ってくる。だから細かいことを考えるな、ということを言われたわけなんですね。彼は非常に先見の明があったと思います。何の役に立つのかを特に聞かれず、自由に研究させてもらいました。

いまも東京都内の自宅を拠点に研究を続け、論文を発表し続けている福島。「脳のメカニズムを知りたい」という思いが、彼を突き動かしている。
──クロスオーヴァーで自由な場をつくりあげた方がいたからこそ、だったんですね。
とはいえ、わたしがネオコグニトロンを発表した当時は、神経回路モデルの世界は「冬の時代」を迎えていました。50年代後半にパーセプトロンが提唱され、神経回路モデルの第一次ブームがあったのですが、60年代末にパーセプトロンに関して一種の理論的な限界を提示されたことがあって、ブームが去ってしまっていたのです。
そのあと第二次ブームが起きて、メーカーが「ニューロ」と名の付く電化製品を売り出した時代もありました。それもやがて下火になり……そしていまが、第三次のブームなんです。ディープラーニングで何でもできるということで、みんながわあっと飛びついてきたんですね(笑)
──AIがこれほど注目され、その根幹をなす技術であるディープラーニングの「父」として評価されることは、福島さんにとってどういう経験なのでしょうか。
素直にうれしいです。当初は似たようなことをやってもわたしの論文を引用してくれない人が、正直けっこういましたから。それが最近ですと、昔は引用してくれなかった人も引用してくれるようになりました(笑)。顔認識を筆頭に、人間以上の能力をもつAIができ始めているのも、すごいことだと思います。
ただ、そうしたディープラーニングでも、いろいろ問題はあるわけですよね。例えば、とにかく多量のデータを学習させないと、なかなか人間並みの能力を出せない、といったことが挙げられます。人間だったら、もっと少ないデータで能力を発揮できるわけです。
わたし自身、いまでもネオコグニトロンをいろいろと発展させて改良を加えて、ディープラーニングとは少し違った方法で学習できないか、ということを研究しています。端的にいいますと、それほどたくさんのデータを入れなくても済む手法です。学習する段階はさほどなくて、むしろ学習が終わったあとの認識する段階で多数のデータをつくりだしていく、ということをやっているんです。
──いま盛り上がっている潮流だけが可能性のすべてではない、ということですね。
そもそも人工知能というもの自体の定義が、ずいぶん変わってきていますから。例えば80年代ころの人工知能というものは、「if-then」──つまりこうやれということを人間が全部教えてつくっていく、というものでした。それがいま、CNNに基づくディープラーニング=AIともいえる状況になっています。人工知能の分野の方々が取り組んできた手法も、意味合いそのものも変化してきているわけです。

脳のメカニズムという真理を解明するための道具として人工知能が使えるのではないかと、福島は考えているという。
──人工知能と神経回路モデルの結びつきや可能性も、相対化しつつ考えるべきものなのですね。そうしたなかで、福島さんを突き動かしている思いとは何なのでしょうか。
やっぱりわたしは、脳のメカニズムを知りたい。脳の中でどんなことが行われているから、われわれはものを見て、認識することができるのだろう、と思うわけです。脳の中には神経細胞が10の10乗個以上あります。それがどうつながって、何をやっているから、われわれはものを見ることができるのか。そのメカニズムを実現するような神経回路のモデルがつくれないか、と思って続けているんですね。
また「冬の時代」を訪れさせないためにも、脳に学んでいかなければならないと思っています。とにかく、脳を制御している基本原理を見つけたい。過去にもパーセプトロンなどさまざまなモデルがあったように、それは決してひとつだけじゃない。まだ、いっぱいあるはずです。その基本原理を見つけ出し、いまのうちに準備をしておけば、「冬の時代」は訪れず、このブームがずっと続くことでしょう。
──ご自身にとって、探究のゴールはあるのでしょうか。
いや、特に設定していません。脳そのもののメカニズムを人間が完全に知ることになるのは、何世紀も先のことかもしれない。現在のディープラーニングも含めて、わたしたちの進歩といっても遅々たるものだと思います。それでも、真理を理解したい。ですから、その解明のための道具として人工知能は使えるのではないだろうかと、わたしは思っているんです。
Audi Story 09
そのクルマが「Avant」と呼ばれる理由
一般的にステーションワゴンと呼ばれるクルマのことを、Audiでは「Avant(アヴァント)」と呼ぶ。それは、なぜなのか。歴史的にステーションワゴンは商用車にルーツがあり、あくまで「荷物を運ぶ自動車」といった意味合いが濃い。だが、あくまでもAudiにとっては「人が中心」のクルマである。だからこそ、あえて別の名称を採用したというわけだ。「Avant」という言葉には、フランス語で「前に」という意味がある。そこには、Audiが実用性の高いボディ形状に独自のデザイン哲学と最先端技術を両立させ、「Vorsprung durch Technik(技術による先進)」を実現させてきたという強い自負が込められている。(PHOTOGRAPH BY AUDI AG)
See more