Project Glass
kinect
gesture

MicrosoftのSemanticMap, 個人化拡張現実でGoogleのProject Glassを追う

次の記事

Googleのモバイル開発支援サービスGoMoがDIYのモバイルWebサイト構築ツールを提供

SemanticMap_04

拡張現実の話題が今週は沸騰している。今朝はMicrosoftが、うちもやってます、と知らせてきた。それは、ユーザの位置体験をそのユーザ固有のものにする技術だ。昨日はGoogleが、それの同社バージョンとも言えるProject Glassの詳細を発表したばかりだが。

MicrosoftのそれはSemanticMapと呼ばれ、拡張現実の内容がユーザに合わせて変わる。そのユーザの現在位置、何を探しているのか、などによって。Googleの眼鏡のように特殊な装置をユーザが身につける必要はなく、Microsoftがこれまで手がけてきた3つの基本技術を利用している。その3つの基本技術は、今後の数年間でいろんなところで使われるようになるだろう: 顔分析、ジェスチャー認識、そして近接検出。これらの一部はすでに、Kinectで効果的に利用されている。

SemanticMapの現状はまだプロトタイプだが、北京のMicrosoft Research AsiaにあるHuman-Computer Interaction Groupのシニアリサーチデザイナー、Sergio Paolantonioによると、“今のところMicrosoftの製品として出す予定はない”そうだ。

でもこれはすでに実動プロトタイプだから、製品化が近いと期待してもおかしくないだろう。彼は今朝、“デモが今ここにあるが、とてもよくできてる。SFではない。超現実だ。Microsoftの研究技術の成果だ!”、と興奮気味に語った。

このビデオでお分かりと思うが、彼の言う‘超現実’な技術が女性を助けて、標識等のない巨大な迷路のようなオフィスを案内する。デモとしては少々退屈だが、実際には、マーケティングキャンペーンやゲームなど、単純に情報を表示するだけでは足りない世界で真価を発揮するだろう。しかも、そのためにわざわざ眼鏡を使ったり、スマートフォンの拡張現実アプリを使うのは、大仰すぎるかもしれない。

[原文へ]
[jpTechCrunch最新記事サムネイル集]
[米TechCrunch最新記事サムネイル集]
(翻訳:iwatani(a.k.a. hiwa))