身の回り(+身体自体も)タッチスクリーン化するカーネギーメロン大学およびMicrosoftのプロジェクト

次の記事

Twitter、日本で新タイプの広告を展開―トレンド内広告、アカウント広告などが可能に

近い将来、コンピュータに指示を出すのに、自分の手に向かって話しかければ良いという時代がくるかもしれない。 MicrosoftCarnegie Mellon Human Computer Interaction Institute が共同で、物体の表面をインタフェースに変えてしまう仕組みを構築中だ。たとえばノート、身体、テーブルなどがコンピュータインタフェースとして利用できるようになる。実現されるUIはマルチタッチをサポートしている。肩に装着した機械でどこを操作用画面として利用しているのかを把握して、その部分にUIパーツを表示し続ける。システムでは、Kinectでも用いられているのと同様のピコプロジェクターおよび3Dスキャナを利用する。

本プロジェクトはOmniTouchと呼ばれており、物体表面でのクリック動作を認識したり、手のひらを浮かして各コントロール間を移動する動作を認知したりすることができる。Microsoft Surfaceとは違い、専用の複雑なハードウェアは必要ない。ただし、肩にのせるオウムのようなKinectセンサー風デバイスは必要だ。実際のところ、この肩のせセンサーはかなり邪魔な存在だ。ただこのOmniTouchプロジェクトはコンセプト実証段階のものであり、将来的にはより小型にできるものなのだろう。

線を引いてみたり、クロスヘアでポイント場所のチェックをしてみたりしたところでは、腕、手のひら、紙のノート、テーブルの上などをインタフェースとして用いることができるようだ。ただ、先にも述べたようにまだまだ実験段階のものであり、すぐにショルダーマウント型のXboxが登場するというわけではない。しかしこれは見る価値のある、クールなものだと思う。

YouTubeのビデオはプライベートで公開されていたが、CMUに依頼してこちらに掲載できるようにしてもらった。

プロジェクトページはこちら

原文へ

(翻訳:Maeda, H)