コンピュータビジョン

Bots_aliveキットは、AIでおもちゃのロボットに、生き物のような可愛らしさを吹き込む

次の記事

同一のコードベースからiOSアプリとAndroidアプリを並行開発できるUXツールキットFuseが$12Mを調達

CESではガジェットの数が足りなくて困るということはなかったし、来月の玩具フェアでもガジェットに不足することはないだろう。素晴らしい人工知能を搭載したロボットとガジェットたち。とはいえ実は「人工知能」という意味では不足しているのだ。しかし、実際のAI研究者による、より慎ましやかなアプローチが、生き物のような振舞を生み出す、巧妙な手段を作り出した。既存のロボットを使ったシンプルでエレガントなソリューションによってそれは実現されている。

このキットの名前はbots_aliveというもので、現在Kickstarter上でわずか1万5000ドルを募集中だ。私はCESの会場で、作成者のBrad Knoxと、この技術について話をすることができた。大袈裟に喋って踊るロボットのおもちゃが当たり前とされていた会場の中で、そのシンプルなデザインに強く心惹かれながら私は会場を後にした。

それはこのようなものだ。まず1台のHexbug Spiderを手に入れることから始まる。これは25ドルで購入できるリモコン式の歩行ロボットだ。これは通常は小さな赤外線コントローラーで操作される。そして、このロボットをスマートにするために必要なのは、その頭にマーカーを貼り付けて、キットに付属する赤外線発生デバイスをスマートフォンのヘッドフォンポート(ほら、これが私の懸念していたことだ)に差し込み、アプリを立ち上げることだけだ。

bots_alive_playアプリは、コンピュータービジョンを用いて、ロボットならびにキットに含まれているブロックの位置を追跡する。またアプリはロボットの頭脳としても働き、ロボットにどのように動き、どこへ向かうかを指示する。ルールは単純だ:ロボットは、青いブロックを好み、赤いブロックを避ける。これは、それぞれはシンプルな要素が組み合わさって、シンプルではない遊びを生み出す例の1つだ。小さな迷路を作ってその道を歩かせたり、もしロボットを2台持っているなら、相手に向かって戦わせたりすることもできる。

しかし、Knoxのチームが、他の巧妙なプロセスを経て予め与えた生体模倣パターンによって、ロボットの振舞はより複雑で自然なものだ。そしてもちろん、機械学習も使われている。

このロボットのAIを構築するために、長年MITのメディアラボで働いてきたKnoxは、その振舞を実際の動物のものに基づくことを決定した。特に人間の振舞を用いている。チームはコンピュータービジョンシステムに、様々なシナリオで人間が操るロボットを見せた。例えば赤いブロックの向こうに青いブロックがあるシナリオ、赤いブロックが迷路になったシナリオ、等距離にある青いブロックのシナリオなどだ。

bots_alive_aug移動のためのベクトルデータといったシンプルなものだけではなく、ミスや、躊躇、障害物への衝突、なども同時に記録されている。そして、彼らはこの記録の全てを機械学習システムで処理してモデルを作った。それを使ってロボットを操り、その結果をテストしているが、まだ調整と個性の付与を行っている段階だ。こうしたプロセスについての詳細は、Knoxが今日(米国時間24日)投稿したブログ記事で読むことができる。

結果として得られたのは、不規則に振舞うロボットだ。間違った方向に少し進み、止まっては辺りを見回し、足跡を辿り直す。まあ要するに、小さな本当の生き物の振舞いのように見える。私個人にとってそれはとても魅力的だし、そのちょっとした気まぐれさは、事前に記述された人工的なものには見えない。

それは生命の存在を錯覚させる方法を考えさせる、興味深い事例だ。ヒト型ロボットが、予めキャプチャーされたダンスをきっちりと踊る動きは不快だが、この小さな虫のようなプラスチックのロボットが見せる、ちょっとした振舞は、人の気持を惹きつけることになんとか成功している。

特定の動作による強化を通じて「学習」する能力といった、機能の追加も計画されている。そして将来的には動作に対して、より明示的な制御を行うことができるようになるだろう。

bots_aliveキットはKickstarterの支援者には35ドルで提供される。もしHexbugも一緒に欲しい場合には60ドルだ。クラウドファンディングの終了後は、bots_aliveのサイトをフォローして、キットを購入することができる。

[ 原文へ ]
(翻訳:Sako)