画像認識リアルタイム百科事典Google Lensが今年の終わりごろPixelスマートフォンで実用化

次の記事

Rasa Coreはチャットボットのコンテキスト判断用機械学習モデルを人間参加の半自動で作る

Googleが、Google Assistantに接続する画像認識アプリLensを初めてデモしたのは、5月に行われたデベロッパーカンファレンスGoogle I/Oだった。当時それは、大いに人気を博したが、そのときの発表の多くがそうであったように、リリースの日程などは明らかにされず、“近く”(soon)という言葉だけがあった。それからほぼ5か月になる。

今日(米国時間10/4)のGoogleのハードウェアイベントでは、Lensの最初のプレビューが同社のPixelスマートフォンに今年の終わりごろ登場する、と発表された。あくまでも、プレビューだ。そしてそのほかのデバイスには、“随時”ということだ。

LensはGoogleのさまざまな機械学習サービスを利用している。画像認識の能力にGoogle Translateのリアルタイム翻訳と、Google Assistantを結びつける。たとえば花のスナップと撮ると、Lensが花の名前を教え、そのほかのことも教えてくれる。ランドマークや名所旧跡、それにレストランですら、情報を教える。

I/Oで拍手の音がたぶんいちばん大きかったのは、Wi-FiルーターのSSIDとパスワードを読んで、ユーザーのスマートフォンをそこに自動的に接続するLensの機能だった。



[原文へ]
(翻訳:iwatani(a.k.a. hiwa))