『マイノリティリポート』に最も近い、Oblongの空中動作認識インターフェイス「g-speak」(デモあり)

次の記事

ソーシャルレコメンデーションエンジン「Plista」にDraper Investmentが投資


g-speak overview 1828121108 from john underkoffler on Vimeo.

ジェスチャー認識の“spatial operating interface(SOE、空中動作入力インターフェイスか?)”のソフトウェア専用プラットフォーム「g-speak」は、MITのメディアラボで1990年代初頭から開発が進められてきた。用途は僕らが思うほどナードじゃない。現実世界の問題に対処できるよう、考案されている。例えば;

巨大なデータセットの解析(処理)
3次元インターフェイスの操作
効率の良い多人数協働アプリの作成
大型スクリーンや複数のコンピュータを部屋あるいはビル全体のワーク環境に合わせて導入
エンタープライズネットワーク全体で使えるスケールの大きいアプリケーションの開発

プラットフォームはLinux、Mac互換で、現在はフォーチュン50社・政府機関・大学で以下のような様々な領域で使用されている。;

金融サービス
テレプレゼンス
ネットワークオペレーションセンター(NOC)
ロジスティク&サプライチェーン管理
軍用&諜報用
自動車
天然資源採掘
データマイニング&解析
医療用イメージング
ハイタッチ・リテール
業界展示会・舞台発表
家電のインターフェイス

G-speakは部屋1室分・ユーザー1人分のサイズで設営できる。これって、どうしたら経費で落とせるんだろう?


luminous room demos from john underkoffler on Vimeo.

Oblong via Techamok

関連: Tech-On!(2005年GDC初披露の時の記事)

[原文へ]

(翻訳:satomi)