ニュース
Google / グーグル(企業)

Google、モバイル検索を見直し

次の記事

Google、Facebookのリアルタイムストリームを初めて体験

今日(米国時間12/7)Googleの発表イベントで、検索の巨人は、同社が検索を強化するための新しいテクノロジーと戦略を数多く 公表した。Googleは同社の戦略の中でもモバイル検索の重要性を強調し、利用者が出先で検索する際に役立つさまざまな新機能を発表した。Googleのモバイル戦略が焦点を当てる領域は、音声、位置、視覚の3つだ。

音声

Googleの技術担当VP、Vic Gundotraは、Googleのモバイルアプリを、音声による詳細な検索クエリに対応し、より正確な検索結果を出すよう強化することを明らかにした。また、Googleは英語以外に、中国語と日本語を含む多言語への対応も開始する。この技術分野の他の技術としては、外出先での音声翻訳がある。

位置情報

Gundotraは位置情報について、Googleが開発する「全製品の中でも第一級の技術要素である」と語った。Google.comの新しいモバイル向けホームページには、位置情報に基づいてカスタマイズされた予測検索が導入される。商品検索にも位置情報を取り込むことが可能となり、この新しいモバイル技術によって地元店舗の在庫情報を提供できる。例えばキヤノンのカメラを検索すると、現在位置の一番近くで、そのカメラを在庫している店が検索結果のトップにくるようにもなる。

また、Googleモバイルホームページの「Near Me Now」(最寄りの)機能を使うと、近くのレストランやコーヒーショップ、バー、ATMなどが表示される。Yelpがモバイルアプリでやっているのと似ている。Googleの新しいバージョンのAndroid用モバイル地図で、この技術が利用される。

視覚

Googleが、Google Labsでスタートする全く新しいサービスのデモを行った。それはGoogle Gogglesという、携帯電話でビジュアル検索を行うという試みだ。

Gundotraが壇上で見せたデモでは、まずワインボトルの写真を撮った。それをGoogle Gogglesに渡すと、そのワインには少量の杏が含まれていることがわかった。さらには、GoogleでCDのジャケットやバーコードを探すこともできる(これは、人気のAndroidアプリのShopSavvyに似ている)。Google Gogglesでは、テキストについてはOCRを使って、ラベルなどを読んで検索を補助している。

リアルタイム検索

今日の午前、Googleがリアルタイム検索の提供を開始した。Android機とiPhoneでは直ちに利用可能になる。Googleによると、1日に10億件以上のリアルタイム文書を収集するという。この中には、Twitterのツイートやブログ記事、さらにはMySpaceやFacebookなどの情報も含まれる。

正直なところ、位置情報ベース検索の強化には全く新鮮味がないが、この新技術によってYelpなどが生計を立てている分野が侵害されことになるのかは興味深い。今日すでに本誌で報じた通り、Gogglesはビジュアル検索分野における巨大な一歩を踏み出すものだ。もちろん、Googleがリアルタイム技術を応用することによって、同社のモバイル製品はさらに著しく強力になるだろう。

[原文へ]

(翻訳:Nob Takahashi)