複合現実感に関しての講演と展示を中心としたシンポジウム、第1回複合現実感国際シンポジウム(ISMR'99)が、神奈川県のパシフィコ横浜で11日まで開催されている。主催は日本バーチャルリアリティ学会複合現実感研究会と、(株)エム・アール・システム研究所。
複合現実感(MR=Mixed Reality)とは、仮想世界(ヴァーチャル・リアリティー)と現実世界を融合させる技術のこと。医療や都市計画、娯楽・教育にも応用できる分野として、研究が進んでいる分野だという。
今回のISMR'99は同分野のシンポジウムとしては日本で初めてのものとなる。参加者の顔ぶれも米国をはじめとする海外の大学教授が多く、シンポジウム自体が英語で進行されるなど、雰囲気はまさしく海外の学会然としたものが感じられた。
●3Dモデル化した体内に向けてレーザーを照射
初日の9日には、3人の研究者が基調講演を行なった。最初に登場したのは、米ノースカロライナ大学教授ののHenry
Fuchs(ヘンリー・フックス)氏。Univ. of North CarolinaのHenry Fuchs教授 |
Fuchs氏は“Displays for Augmented Reality”(拡張現実感のためのディスプレー)と題し、医療分野への応用を中心に講演を行なった。Fuchs氏は、手術の際に医師が装着するHMD(ヘッド・マウント・ディスプレー)を紹介。医師の目に見えている患者の体表面(現実世界)と、予めCTやMRIでスキャンした体内のモデリング画像(仮想世界)を合成することで、体内にある患部へのレーザー照射が正確に行なえるという例を示した。
患部にレーザーを当てているところ、内臓がモデリング化されている |
次に、手術室の壁一面にビデオカメラを配した“Sea of Camera”を紹介。これは、手術の様子を多くの視点から撮影し、動的な3Dモデルを作成するというもの。その3Dモデルを利用して手術の検証を行なったり、医学生の学習に応用することができるという。
最後にFuchs氏は、複合現実感のオフィスへの応用について言及。“Office
Display”と呼ばれるシステムは、オフィス内にビデオプロジェクターと3D
CADディスプレー、ビデオカメラを用意するというもので、隣室の人と会話をする感覚で遠隔地の人とビデオ会議ができるという。Fuchs氏によれば、将来のオフィスとされるOffice
Displayは、すぐにでも実現可能とのことだった。
●4Dの応用で、サッカー選手の視点をテレビで楽しむ
次に基調講演を行なったのは、米カーネギーメロン大学(CMU)教授でロボット研究所の所長を務める金出武雄氏。金出氏は、“Virtulized
Reality: Digitizing a 3D Time-Varying Event As Is and in Real-Time”と題し、運動する物体をそのまま3Dモデル化するという研究についての発表を行なった。Carnegie Mellon Univ.の金出武雄教授、火星探査機の眼を開発したことで知られる |
金出氏はまず、CMUで開発した“Ladar”と呼ばれる3Dスキャン装置を紹介。これは左右360度・上下60度の範囲で周辺を撮影し、3Dモデル化するというシステム。デモでは工場の内部を丸ごとスキャンした映像や、北極圏の島にあるクレーターをスキャンした映像を紹介した。クレーターの撮影には自動操縦のヘリコプターが使われており、GPSデータを応用することで自動的にデータを採取できるというエピソードを披露した。
次に金出氏は“3D DOME”を紹介。空間をビデオカメラで囲い、全方位から撮影した映像を3Dデータ化することで、自由な視点での鑑賞が行なえることを示した。ここで金出氏は、3DにDynamic(動き)やTime(時間)のデータを付加することで“4D”を表現できると強調。4Dの応用例として“Virtualized
Event”を挙げた。これはサッカーなどのスポーツイベントを丸ごと収録しデータ化するもので、観客はフィールド上の任意の視点を楽しむことができるというもの。データ処理をリアルタイム化すれば、テレビ中継の際に選手の視点でゲームを楽しむことさえも可能になるという。
●写真にデータを貼りつけて、現実を拡張する
基調講演の最後に登場したのは、カナダ・トロント大学教授のPaul
Milgram(ポール・ミルグラム)氏。Milgram氏は複合現実感(MR)という言葉を初めて使ったことで知られているという。MRの提唱者であるMilgram氏は、講演の多くを“MRの定義”の説明に費やした。それによるとMRとは現実世界と仮想世界の中間に属するものであり、拡張現実感(Augumented Reality)と拡張仮想感(Augumented Environment)に分けられると解説。Milgram氏は風景写真を例に挙げ、写っている世界がモデル化されていない現実世界に木の3Dデータを貼りこめば、それが拡張現実感になると説明した。逆に完全にモデル化された3Dデータに写真を貼りこんだ場合は、それが拡張仮想感になるという。
次にMilgram氏は“ego”と“exo”の違いについて説明。自分の視点で見ることを“Ego Centric”、外部の視点で見ることを“Exo Centric”と定義し、例としてクルマの運転は前者だが、カーナビを見るときは後者になることを指摘。その両者を融合することで複合現実感が得られることを説明した。
Univ. of TorontoのPaul Milgram教授 |
基調講演の内容はいずれも実際に実験が行なわれているもので、具体的なものがほとんどだった。そのため、スライドとビデオを利用しながらの講演は、複合現実感という概念に初めて接する参加者にとっても理解しやすいものだった。会場にはISMR'99にボランティアとして参加している大学生も少なくなかったが、全編英語というハンデにも関わらず、真剣に講演に耳を傾ける姿が随所で見ることができた。