Web上の膨大な画像に基づく自動カラリゼーション山中俊治教授「デザインと身体」ノート

2010年11月08日

11月3日に秋葉原UDX マルチスペースで開催された第三回インタラクションデザイン研究会(SIGIXD)では、大変興味深い講演、質疑応答が行われた。本エントリでは、東京大学暦本純一教授(@rkmt)による「デザインの身体性 身体性のデザイン.Augmenting Real, Augmenting Humans」についてまとめたい。なお、本エントリは講演テキストではなく、必要に応じて改変、注釈の付与等を行ったノートである。講演内容自体は、こちらでUST録画が公開されているので確認して欲しい。なお、本エントリ中で掲載している図表は全てリンクを示している、各論文、紹介ページからの引用である。



一番伝えたいこと

  • Augmented Human、つまり人間をテクノロジで拡張できるとしたらどうなるか。
  • 究極のテクノロジは、人間を拡張したり、良くしたり、助けたり、もしかすると再デザインするものだ。
  • 人間の知的能力を拡張することもあるし、人間のフィジカルな、歩いたり走ったりする能力を拡張したり、サポートしたりすることもある。フィジカルシステムとしては、人間の健康も拡張の対象となりうる。その観点から情報デザインや情報テクノロジを考え直すとどうなるかというところを大きなテーマとしている。

NaviCam: 世界初のモバイルARシステム


CyberCode: 世界最初のARマーカー


ARの2つの見方

  • ARには次の2つの見方がある。
    • 現実に情報を添付する: 現実を見ると現実の上の情報が重畳されている。
    • 人間の知覚能力を強化する: 我々の目が突如良くなって情報が見えるようになる。つまり単に情報を重畳するということに限らず、人間の能力を拡張すればどうなるかというところにARがある。
  • ターミネータの視覚は典型的なARとして知られているが、これはロボットの知覚能力が高いということを示している。様々な情報が取れるということ。スカウターに関してもコレをつけることで、相手の戦闘能力が分かったりと、あくまでも人間を強化している。このように人間を強化するアプローチを取りたい。

As We May Think

  • 1945年、Vannevar BushはAtlantic Monthly誌にAs We May Thinkという有名な論文を発表している。
  • 額にカメラをつけてみたものを全て記録しようというライフログのコンセプトそのものだが、論文の挿絵をよく見ると、瞳の部分に切り欠きがついていることが分かる(下図はGoogleブックスより引用)。
  • つまり、この段階において、単にキャプチャするだけではなく、ユーザが見たということと記録との関係がリンクされている。それによってユーザが着目したことを記録できるというコンセプトが語られている。
  • NOTE: Vannevar Bushが考案したmemexは情報探索システムとして、後世のPCやUI、Webのハイパーテキストの概念に大きな影響を与えたとされる。memexに関しては、本の未来はどうなるか―新しい記憶技術の時代へが、面白く参考になる。

Aided Eyes: 眼の動きをキャプチャする

Aided Eyes: Eye Activity Sensing for Daily Life from rkmtlab on Vimeo.

  • ここでは、Bushのコンセプトを本気で実現しようとしている。眼はインプットデバイスであると同時に、人間の内部状態を表すアウトプットデバイスでもある。人は眼で見てアテンションがあって、考えて思い出して作業をする。そのプロセスをコンピュータがキャプチャできれば、作業をサポートすることができるし、もしそれを他の人とネットワークで繋ぐことが出来れば、体験を共有することができる。
  • NOTE: 久しぶりに人に会ったが誰だか思い出せないとき、Aided Eyesはユーザが注目している領域(gazed area)を抽出し、人の顔を切りだして、ライフログデータベースの中からマッチングする人の情報を検索する。そしてその情報やさらにインターネットから関連する最新情報を検索してユーザに提示する。このように外部記憶をシームレスに検索して利用することができる。
  • Aided Eyesは眼球のセンシングとカメラを組み合わせたもので、簡単なフォトセンサ(最終的には眼鏡のリムに入る)で眼球の方向を取ることができる。カメラと画像認識を組み合わせることで、その人が見ている情報がコンピュータでキャプチャできる。これによって、Bushのコンセプトのように、着目している情報とコンピュータの中の情報をマージする。
  • まず、眼球の動きから、興味を持っているとか本を読んでいる(眼が横に動く)とかそう人間のアクティビティが眼球の動きからわかる.眼球の動きをクラスタリングすることで、テキスト入力とか、ウェブブラウジングとか、ビデオ視聴とかのアクテビティを簡単に取ることができる。
  • 見ているところと、コンピュータ内に蓄積された画像をマッチングして、情報を検索することができる(下図上)。これはある意味人間の脳もやっていること。またライフログとして、OCRで読んでいるテキストを認識したり(下図中)、顔認識したりして記録する(下図下)。これらの情報はあとでメモリとして利用する。
  • 今はプリミティブだが,たとえば見ているものに対して何かガイダンスを出すなど、ユーザの興味を持っているモノから情報を検索して出すという一つのループができると,オーグメントのひとつの形となる。

Cat@Log: 猫のライフログ

cat@log: human animal interaction platform from rkmtlab on Vimeo.

  • 猫のライフログ。人間がもし自分以外のものに体外離脱して、入り込んだらどうなるか。動物と人間はともに社会の重要な構成要素だし、ヒューマンアニマルインタラクションや、もしかするとアニマルコンピュータインタラクションという未開拓の分野があるかも知れない。
  • 人間だと命令されれば重いものを背負うが、動物の場合は体重の5%以内でなければならないというレギュレーションがあって、ここでは3%以内を目標とした。デバイスをイエネコにつけて実験をした。

  • 猫視点の映像を見ると、猫と別の猫との微妙なインタラクションが垣間見られる。加速度センサで移動や食事などをセンシングして、別のことにつなげようとしている。御飯を食べたらTwitterにごはんを食べましたと出る(彼女はTwitterアカウント@ann_catalogを持っている)。


  • 猫同士のやりとりはこういうFirst Person Videoを見て始めて分かる。自分自身が他の存在になったり、他の体験をするということも含めて新しい人間の拡張ではないかと考えている。
  • 他の人の体験を見るというのは注目されていて、鳥の頭につけた例もある。普通の飛行機ではありえない視点の映像が撮れる。これもある種の体験の拡張である。

PossessedHand: 指を自在に動かす

  • 身体機能の拡張例。ジェスチャ認識はコンピュータへのインプットだが、これは逆で、コンピュータが人間の身体をコントロールする方向。ある意味人間の体を乗っ取って、制御したり、人間が何らかの身体行為を行うときに筋肉を動かしてそれを補助するアプローチ。
  • 前腕に付けたパッド型電極で手指を駆動する筋肉に電気刺激を与えることで手指の関節を自在に動かす。電極の位置は付けるたびに多少ずれるがうまくマッチングするように学習させてやると筋肉の制御ができるようになる。
  • 将来的には前腕に電極をつけると指が動く、理想的にはピアノを弾けない人が、ホロビッツをダウンロードするといきなりベートーヴェンが弾け出すというのが理想。そこまでいかなくてもピアノを弾く時にどの指で弾くべきか正否を指先そのものにフィードバックするなど、全く新しい内部の感覚によるフィードバックが実現する。
  • 本人が脱力している状態で、USB経由で筋肉に電気刺激を与えてやると、各指を選択的に動かすことができる。組み合わせて指差し行為を行わせることもできるので、そうすると未来のナビゲーションシステムは自分の指が行く方向を示すようなことになるかも(冗談)。 将来的には筋肉動作のサポートにITが入り込んでいくはず。
  • 一般的に拡張というと、コンピュータを使うので知的能力の拡張が多くなるが、我々の生活では身体を使う割合が多い。たとえば楽器を弾くとか、スポーツをするとか、リハビリをするなど、そこでは精密な筋肉動作をしているので、そこにITがもっと入っていくべきだと思う。

身体性の拡張

デザインの身体性 身体性のデザイン

  • 従来はHuman Computer Interactionというように人間とコンピュータの間がインタフェースであるという考え方だったが、身体の拡張ということを含むと、Human Computer Integration、よりタイトにテクノロジと人間が結びつくということになるのではないか。身体性を拡張することはインタラクションデザインの中で最も大きなテーマ。
  • 来年、Augmented Human Conference 2011が東京で開催予定。

所感

コンピュータは人間の知的能力を大きく拡張してきたが、まだ外部記憶のようにシームレスにアクセスする手段を持ち得ていない。もし人間が外部記憶にリアルタイムにアクセスできるようになれば、人間の知的生産能力は大きく向上するだろう。一方で、コンピュータの支援は知的能力にとどまらず、我々の身体性全般を包括するようになるに違いない。習熟が必要なスキルをダウンロードしてインストールするような使い方が実現するのは時間がかかるだろうが、我々の健康をエンハンスするような支援(姿勢制御など)は案外早く実現するのではないかと思う。

テクノロジが我々の身体性を拡張できる余地はまだたくさん残っている。拡張された人間を強化人間と呼ぶのか、サイボーグと呼ぶのかはわからないが、究極のテクノロジが拡張した人間はきっと神と見分けがつかないに違いない。



lunarmodule7 at 22:04│Comments(0)TrackBack(0)

トラックバックURL

コメントする

名前
 
  絵文字
 
 
Web上の膨大な画像に基づく自動カラリゼーション山中俊治教授「デザインと身体」ノート
<% for ( var i = 0; i < 7; i++ ) { %> <% } %>
<%= wdays[i] %>
<% for ( var i = 0; i < cal.length; i++ ) { %> <% for ( var j = 0; j < cal[i].length; j++) { %> <% } %> <% } %>
0) { %> id="calendar-711414-day-<%= cal[i][j]%>"<% } %>><%= cal[i][j] %>
この日記のはてなブックマーク数
アクセスカウンター
  • 累計:

記事検索
  • ライブドアブログ