2010年11月08日
11月3日に秋葉原UDX マルチスペースで開催された第三回インタラクションデザイン研究会(SIGIXD)では、大変興味深い講演、質疑応答が行われた。本エントリでは、東京大学暦本純一教授(@rkmt)による「デザインの身体性 身体性のデザイン.Augmenting Real, Augmenting Humans」についてまとめたい。なお、本エントリは講演テキストではなく、必要に応じて改変、注釈の付与等を行ったノートである。講演内容自体は、こちらでUST録画が公開されているので確認して欲しい。なお、本エントリ中で掲載している図表は全てリンクを示している、各論文、紹介ページからの引用である。
一番伝えたいこと
- Augmented Human、つまり人間をテクノロジで拡張できるとしたらどうなるか。
- 究極のテクノロジは、人間を拡張したり、良くしたり、助けたり、もしかすると再デザインするものだ。
- 人間の知的能力を拡張することもあるし、人間のフィジカルな、歩いたり走ったりする能力を拡張したり、サポートしたりすることもある。フィジカルシステムとしては、人間の健康も拡張の対象となりうる。その観点から情報デザインや情報テクノロジを考え直すとどうなるかというところを大きなテーマとしている。
NaviCam: 世界初のモバイルARシステム
- Augmented Interaction: The World Through the Computer
- Jun Rekimoto and Katashi Nagao, "The World through the Computer: Computer Augmented Interaction with Real World Environments", User Interface Software and Technology (UIST '95)
- おそらく世界で最初のモバイルARシステム。1994年。小型の液晶テレビとCCDカメラ、ケーブルで後ろにSGIワークステーションに繋がっている。人間の能力を拡張しようとした。
- NOTE: 2次元バーコードを認識して、このデバイスを通してみると人間が新たな知覚能力を得られる(情報が重畳表示される)。ジャイロセンサで方向を認識して、3次元的に矢印を重畳してナビゲーションを行うこともできる。プリミティブなARシステムだが、現在iPhone等で行われているARアプリケーションのアイデアの多くが15年以上前に実現されていたことに注目。モバイルARは15年かかってコンシューマに降りてきたと言える。
CyberCode: 世界最初のARマーカー
- Matrix: A Realtime Object Identification and Registration Method for Augmented Reality
- Jun Rekimoto, "Augmented Reality using the 2D matrix code" Workshop on Interactive Systems and Software (WISS'96)
- ARTookKitの数年前にマーカーをベースとした位置合わせを実現していた。これは、PlayStation3のEye of Judgement(世界初のARゲーム)で使われいて、プロモーションビデオにSONY CSLのクレジットが入っていることが自慢。
- ゲームとしては実物のカードにオーグメントしてPS3で描画したオブジェクトが描写され、ジェスチャも認識するので、仮想世界と実世界が融合したというもの。こういったARが近年研究的にも産業的にも流行しているのは御存知の通り。
- 現在、Cybercodeはクウジット株式会社にライセンスされ、KART技術の一部として利用されている。参照→CyberCode技術と KART(Koozyt AR Technology) ソリューション
ARの2つの見方
- ARには次の2つの見方がある。
- 現実に情報を添付する: 現実を見ると現実の上の情報が重畳されている。
- 人間の知覚能力を強化する: 我々の目が突如良くなって情報が見えるようになる。つまり単に情報を重畳するということに限らず、人間の能力を拡張すればどうなるかというところにARがある。
- ターミネータの視覚は典型的なARとして知られているが、これはロボットの知覚能力が高いということを示している。様々な情報が取れるということ。スカウターに関してもコレをつけることで、相手の戦闘能力が分かったりと、あくまでも人間を強化している。このように人間を強化するアプローチを取りたい。
As We May Think
- 1945年、Vannevar BushはAtlantic Monthly誌にAs We May Thinkという有名な論文を発表している。
- 額にカメラをつけてみたものを全て記録しようというライフログのコンセプトそのものだが、論文の挿絵をよく見ると、瞳の部分に切り欠きがついていることが分かる(下図はGoogleブックスより引用)。
- つまり、この段階において、単にキャプチャするだけではなく、ユーザが見たということと記録との関係がリンクされている。それによってユーザが着目したことを記録できるというコンセプトが語られている。
- NOTE: Vannevar Bushが考案したmemexは情報探索システムとして、後世のPCやUI、Webのハイパーテキストの概念に大きな影響を与えたとされる。memexに関しては、本の未来はどうなるか―新しい記憶技術の時代へが、面白く参考になる。
Aided Eyes: 眼の動きをキャプチャする
Aided Eyes: Eye Activity Sensing for Daily Life from rkmtlab on Vimeo.
- Aided Eyes: Eye Activity Sensing for Daily Life
- Yoshio Ishiguro, Adiyan Mujibiya, Takashi Miyaki and Jun Rekimoto, Aided Eyes: Eye Activity Sensing for Daily Life, The 1st Augmented Human International Conference (AH2010), Megeve, France, 2010.
- ここでは、Bushのコンセプトを本気で実現しようとしている。眼はインプットデバイスであると同時に、人間の内部状態を表すアウトプットデバイスでもある。人は眼で見てアテンションがあって、考えて思い出して作業をする。そのプロセスをコンピュータがキャプチャできれば、作業をサポートすることができるし、もしそれを他の人とネットワークで繋ぐことが出来れば、体験を共有することができる。
- NOTE: 久しぶりに人に会ったが誰だか思い出せないとき、Aided Eyesはユーザが注目している領域(gazed area)を抽出し、人の顔を切りだして、ライフログデータベースの中からマッチングする人の情報を検索する。そしてその情報やさらにインターネットから関連する最新情報を検索してユーザに提示する。このように外部記憶をシームレスに検索して利用することができる。
- Aided Eyesは眼球のセンシングとカメラを組み合わせたもので、簡単なフォトセンサ(最終的には眼鏡のリムに入る)で眼球の方向を取ることができる。カメラと画像認識を組み合わせることで、その人が見ている情報がコンピュータでキャプチャできる。これによって、Bushのコンセプトのように、着目している情報とコンピュータの中の情報をマージする。
- まず、眼球の動きから、興味を持っているとか本を読んでいる(眼が横に動く)とかそう人間のアクティビティが眼球の動きからわかる.眼球の動きをクラスタリングすることで、テキスト入力とか、ウェブブラウジングとか、ビデオ視聴とかのアクテビティを簡単に取ることができる。
- 見ているところと、コンピュータ内に蓄積された画像をマッチングして、情報を検索することができる(下図上)。これはある意味人間の脳もやっていること。またライフログとして、OCRで読んでいるテキストを認識したり(下図中)、顔認識したりして記録する(下図下)。これらの情報はあとでメモリとして利用する。
- 今はプリミティブだが,たとえば見ているものに対して何かガイダンスを出すなど、ユーザの興味を持っているモノから情報を検索して出すという一つのループができると,オーグメントのひとつの形となる。
Cat@Log: 猫のライフログ
cat@log: human animal interaction platform from rkmtlab on Vimeo.
- Cat@Log: A Human-Pet Interaction Platform
- Kyoko Yonezawa, Takashi Miyaki, Jun Rekimoto, “Cat@Log: Sensing Device Attachable to Pet Cats for Supporting Human-Pet Interaction”, International Conference on Advances in Computer Entertainment Technology (ACE2009), 2009.
- 猫のライフログ。人間がもし自分以外のものに体外離脱して、入り込んだらどうなるか。動物と人間はともに社会の重要な構成要素だし、ヒューマンアニマルインタラクションや、もしかするとアニマルコンピュータインタラクションという未開拓の分野があるかも知れない。
- 人間だと命令されれば重いものを背負うが、動物の場合は体重の5%以内でなければならないというレギュレーションがあって、ここでは3%以内を目標とした。デバイスをイエネコにつけて実験をした。
- 猫視点の映像を見ると、猫と別の猫との微妙なインタラクションが垣間見られる。加速度センサで移動や食事などをセンシングして、別のことにつなげようとしている。御飯を食べたらTwitterにごはんを食べましたと出る(彼女はTwitterアカウント@ann_catalogを持っている)。
- 猫同士のやりとりはこういうFirst Person Videoを見て始めて分かる。自分自身が他の存在になったり、他の体験をするということも含めて新しい人間の拡張ではないかと考えている。
- 他の人の体験を見るというのは注目されていて、鳥の頭につけた例もある。普通の飛行機ではありえない視点の映像が撮れる。これもある種の体験の拡張である。
PossessedHand: 指を自在に動かす
- PossessedHand: A Hand Gesture Controlling System using Electrical Stimulation
- PossessedHand: A Hand Gesture Manipulation System using Electrical Stimuli, Emi Tamaki, Miyaki Takashi and Jun Rekimoto, Augmented Human, 2010
- 身体機能の拡張例。ジェスチャ認識はコンピュータへのインプットだが、これは逆で、コンピュータが人間の身体をコントロールする方向。ある意味人間の体を乗っ取って、制御したり、人間が何らかの身体行為を行うときに筋肉を動かしてそれを補助するアプローチ。
- 前腕に付けたパッド型電極で手指を駆動する筋肉に電気刺激を与えることで手指の関節を自在に動かす。電極の位置は付けるたびに多少ずれるがうまくマッチングするように学習させてやると筋肉の制御ができるようになる。
- 将来的には前腕に電極をつけると指が動く、理想的にはピアノを弾けない人が、ホロビッツをダウンロードするといきなりベートーヴェンが弾け出すというのが理想。そこまでいかなくてもピアノを弾く時にどの指で弾くべきか正否を指先そのものにフィードバックするなど、全く新しい内部の感覚によるフィードバックが実現する。
- 本人が脱力している状態で、USB経由で筋肉に電気刺激を与えてやると、各指を選択的に動かすことができる。組み合わせて指差し行為を行わせることもできるので、そうすると未来のナビゲーションシステムは自分の指が行く方向を示すようなことになるかも(冗談)。 将来的には筋肉動作のサポートにITが入り込んでいくはず。
- 一般的に拡張というと、コンピュータを使うので知的能力の拡張が多くなるが、我々の生活では身体を使う割合が多い。たとえば楽器を弾くとか、スポーツをするとか、リハビリをするなど、そこでは精密な筋肉動作をしているので、そこにITがもっと入っていくべきだと思う。
身体性の拡張
- ハンマー投げ金メダリストの室伏広治氏は博士号を持っている研究者でもあって、サイバネティックトレーニングと言って、ハンマー投げの軌道があって、それがどう理想的に回っているかという事をバイオフィードバックで返すというような(ハンマー投の聴覚バイオフィードバック・システム)、完全にコンピュータとスポーツマンがハイブリッドなシステムを用いてトレーニングすることによって、能率を上げる研究をされている。これはある意味ITによる身体性の拡張と言える。
- また、スポーツ義足による100mの世界記録は現時点で10秒91(オスカー・ピストリウス)と、健常者の記録と1秒程度しか変わらない。テクノロジが進化すると、我々を凌駕するようになるかも知れない。
デザインの身体性 身体性のデザイン
- 従来はHuman Computer Interactionというように人間とコンピュータの間がインタフェースであるという考え方だったが、身体の拡張ということを含むと、Human Computer Integration、よりタイトにテクノロジと人間が結びつくということになるのではないか。身体性を拡張することはインタラクションデザインの中で最も大きなテーマ。
- 来年、Augmented Human Conference 2011が東京で開催予定。
所感
コンピュータは人間の知的能力を大きく拡張してきたが、まだ外部記憶のようにシームレスにアクセスする手段を持ち得ていない。もし人間が外部記憶にリアルタイムにアクセスできるようになれば、人間の知的生産能力は大きく向上するだろう。一方で、コンピュータの支援は知的能力にとどまらず、我々の身体性全般を包括するようになるに違いない。習熟が必要なスキルをダウンロードしてインストールするような使い方が実現するのは時間がかかるだろうが、我々の健康をエンハンスするような支援(姿勢制御など)は案外早く実現するのではないかと思う。
テクノロジが我々の身体性を拡張できる余地はまだたくさん残っている。拡張された人間を強化人間と呼ぶのか、サイボーグと呼ぶのかはわからないが、究極のテクノロジが拡張した人間はきっと神と見分けがつかないに違いない。