SIGGRAPH2002現地レポート
Emerging Technologies |
展示エリアは、プロジェクタや各種センサーなどが多用されているため照明をおとしている。展示への影響を避けるため展示物の撮影には極力フラッシュを使用していないので、多少見づらい画像が含まれている点はご了解願いたい。なお本稿で掲載している画像には展示会場で撮影したもののほかに、ACM SIGGRAPHからメディア向けに提供されている「Media Images CD-ROM」に収録されている素材も含まれている。
■ブロック状の音楽インターフェイス「Block Jam」
SONYのComputer Science Laboratoriesによる展示。24個のブロックを組み合わせて、再生中の音楽を自由にコントロールする。ターミナルになるブロックを基準にして、ブロックを追加しながらコマンドを設定して、リズムや音楽パートなどを調節したり加えたりする。元になる音源を使って、誰もがコンポーザーやパフォーマーのように、自由に音楽をアレンジできるインターフェイスだ。ブロックの側面には電気的な接点があり、ここを使ってブロック同士が相互に情報の伝達を行なっている。それぞれのブロック上面にはタッチセンサー式のコントローラがあって、触れることで信号のルーティングを変えたり、ジョグダイヤルのようになぞってそれぞれのブロックの役割を変更できたりする。ブロックには赤、緑、橙のLED表示があるので、そのブロックがいまどんな役割を果たしているか視覚的にも確認できる。
元になる音源はMacintoshで再生。これらのブロックはその音楽を制御するインターフェイス部分ということになる。背後のディスプレイでは、リアルタイムでブロックの接続状態や個々のブロックがいまどのような制御を行なっているかモニタされている。
基礎研究による展示が多いEmerging Technologiesのなかでは、特に完成度の高いデモンストレーションだが、このまま発展させて商業化するわけではなく、あくまでもインターフェイス開発のための基礎研究ということだ。
適当に組み合わせているだけでも、再生されている音源に影響を与えて曲のイメージが変わるのでなかなか楽しい。ブロックに与えるコマンドを理解してくると、目的に沿ったアレンジができるようになる |
■フォースフィードバックの付いた剣で忍者を倒す「Virtual Chanbara」
入力インターフェイスになっているのは、フォースフィードバック機能のついた仮想的なサムライ・ソード。写真にある半円状のドームの内部には高速で回転しているフライホイールがあって、この回転を仮想画面のなかの状況に応じてインタラクティブに制御する。敵を切ったり剣を切り結んだときの衝撃を、フライホイールの回転数を変えたり急激に止めたりして、プレーヤーにフィードバックする仕組みだ。
ヘッドマウントディスプレイを付けて剣を握れば、VR空間でプレイできるよう、一応簡単なゲームとしての体裁を整えてデモンストレーションされている。将来的には、インターネットを介した情報伝達で、チャンバラの師匠が全世界の子供たちに稽古をつけるという楽しいビジョンも披露していた。体験者には結構のめりこむプレーヤーも多くて、かなり乱暴に扱われたりするせいか、スタッフが機器の調整に忙殺される一幕も……。
剣の持ち方にも日米格差。サムライ・ソードだけに日本人は両手で持つが、欧米人は片手持ちが主流。ギャラリー用にフィールド全体もモニタ表示されているが、実際のプレーヤーの視覚は右隅にある主観視点となる |
■平面上のラインを指先のバイブレーションで伝える「Smart Finger」
東京大学前田研究室のグループによる出展。指先にセンサー付きのユニットを取り付けて平面上の文字や絵をなぞると、ユニットのバイブレーションで線の有無を伝える。ユニットはUVセンサーと、爪の先を検出するセンサーで構成されていて、絵や文字のエッジの部分と指先の位置を検出。ユニットに一体化された携帯電話のバイブレーションなどに使われるコイルを振動させて、そこに文字や絵があることを指先に伝える仕組みになっている。現在は、下地の部分と文字や絵の色の付いた分のエッジを検出するので、そこにラインがあることは把握できるが、詳細な絵や文字をなぞるような処理には至っていない。
可視光ではなくUVセンサーを使っていることで、半球状のアクリルに紫外線で浮かび上がる絵を描いて、光のON/OFFで同一の面上でも反応が異なるというデモも行なっていた。
デモ用に使われている切り絵のイメージ。指先が黒いライン上にかかると、バイブレーションする。左上のメモパッドにサインペンでラインをひいた様なもので、指でなぞるとマーカーの部分がはっきりとバイブレーションで認識できる |
■回転するLED群による裸眼立体視「TWISTER:A Media Booth」
東京大学舘研究室のグループによる出展。LEDを使った裸眼立体視のできる360度モニタ装置である。スティック状の器具にLEDを並べ、それを一定の速度で振ったりすることで空中に文字を描き出す玩具や時計は製品化されているので見たことのある人も多いだろう。また、成田エクスプレスや東京モノレールなどのトンネル内で列車内から見えるLEDの広告と同じ、目の残像現象を応用した研究だ。 この「TWISTER-3」では、円筒状の機器の内側に映像を映し出す。解像度は、水平方向(360度)で1,920ドット、垂直方向には256ドット。LEDの並んだスティック状の基盤を何枚も高速で回転させて、映像を表示する。回転部分は、外周と内周それぞれのユニットで構成されており、外周部はLED、内周部はそれを遮蔽するスリットになっている。外周部分のLEDと内周のスリット部分は連結して回転しているため、中央に位置する視聴者の視野には常に左目と右目への情報がそれぞれ別に入ってくることになり、それによって裸眼立体視を可能としている。被験者は円筒の中心部に立つことで、約90度の視野で立体視ができる。映像自体は全周囲に映し出されているので、体の向きを変えても問題ない。
映し出される映像を見てみると、上映されている素材にもよるが奥行きは十分に感じられるもののオブジェクト自体は描き割りのような印象。光軸をずらした2枚の写真による裸眼立体視の写真が映像になった感じと表現すると、少しはイメージが伝わるだろうか。
高速でユニットを回転させるという機械的な部分もあるため、デモンストレーションとメンテナンスとを絶え間なく繰り返しながらの展示。それでも、デモ中は被験者の行列が絶えることのない人気ぶりだった |
■NIMA-Vision
9個のCCDカメラでとらえられる映像は、鏡を使って光軸を調整してあるので、現実の視野に近い映像を被験者の正面にある9個のリアプロジェクションモニタに映し出すことができる。モニタ部分を動かすとカメラ部分も連動して動く。筑波大学の研究グループによる出展。
■A New Step-in-Place Locomotion Interface for Virtual Environment With Large Display System
■Lewis the Robotic Photographer
(2002年7月26日)
[Reported by 矢作晃]
|
GAME Watchホームページ |