レーダーによるジェスチャー入力ができるGoogleのProject Soliが、今度はオブジェクトの認識能力を持った

次の記事

TC Tokyoセッション変更のお知らせ:Prismaに代わってPlacemeter CEOが登壇

GoogleのProject Soliを思い出せない人も多いだろうけど、無理もない。このプロジェクトは2015年のGoogle I/Oで披露され、これはすごいかも、と思わせたが、その後、音沙汰無しとなった。Soliは、小さなレーダー素子(上図)を使って、ジェスチャー入力を捉える。タッチ画面をタッチするなど、そのほかの入力方法が使えない場面で重宝するだろう。Googleはスマートウォッチでデモを見せたが、デスクなどの元々無脳なオブジェクトに対話機能を組み込むのにも、向いてるかもしれない。

そのSoliに、スコットランドのセント・アンドリュース大学の研究者たちが、新しい機能を加えた。オブジェクトを認識できる機能だ。レーダーを使って、物の外形と内部構造を判断し、その物が何であるかを教える。まだ完全ではないから、同じような素材と密度の物を見分けられないし、オブジェクトを認識できるためには、その前に訓練が必要だ。

研究者たちは今、似たようなオブジェクトでも見分けられるように、システムを改良中だ。教育の問題は、オブジェクトにIDをつけた大きな参照用データベースを作り、ソフトウェアがそのIDを照合する、という方法で解決した。でもそのようなリソースは、ふつうの使い方をしていても急速に大きくなるだろう。Soliが将来、Androidスマートフォンやウェアラブルに実装されたら、なおさらだ。

AraやSoliなどでGoogleは、モバイルの高度なセンサー技術の、今後の多様な応用システムに賭けてきた。それらが実用化されれば、未来のスマートフォンの使い方が大きく変わるだろう。Soliだけに限っても、単なるジェスチャー入力の方法には終わらない、より高度な能力を持たせようとしている。スマートフォンが、自分のまわりの状況や環境を感知できるようになる日も、遠くない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))