Google Lensが多機能化してPixelスマートフォンのGoogle Assistantにやってくる

次の記事

イーロン・マスクのトンネル掘削会社、ロゴ付帽子を売った「イニシャル・ハット・オファリング」で30万ドルを調達

今や時間の問題だと誰もが思っていたGoogle Lens、それがついに今日(米国時間11/21)、Google Assistantの機能としてPixelスマートフォンに搭載される。そのことはすでにGoogleのハードウェアイベントで発表されていたが、今日までその日時等は不明だった。

Google Assistantを開いてLensが見えない人も心配ご無用。この機能の展開は徐々に進める、とGoogleも言っているが、とにかく“数週間以内に”アメリカとイギリス、オーストラリア、カナダ、インド、そしてシンガポールのPixelフォーンにやってくる。Assistantの画面の右下にLensのロゴが見えたら(右図)、Lensがある、使える、という意味だ。

これまでは、Lensを使う唯一の方法が、Pixelフォーンの上のGoogle Photosからだったから、まず写真を撮ってPhotosを開き、その写真を見ながらLensのアイコンをタップする必要があった。

それはとても面倒だったし、しかも多くの場合Lensは、ユーザーがすでに知ってることを教えるか、あまり多くのことに答えられないか、どちらかのケースだ(それがシドニーのオペラハウスであることを、知らない人はいないよ!)。だからGoogle Photosから使うLensには、かなりがっかりした(デザインは良かったけど)。

でもAssistantに載ったLensは、やや多機能になった。名刺(古語か?)の情報を保存したり、URLをフォローしたり、電話番号を呼び出したり、アドレスを認識したりする。ランドマークも認識するが、誰もが知ってるランドマークであることが多いだろう。背表紙やポスターを見て、映画や本に関する情報を教えてくれる。バーコードのスキャンもできる。どれぐらい上手にできるか、早く実機で試してみたいね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa