Googleのストリートビューの大量の画像で近隣社会の投票パターンを正確に予想できる

次の記事

音声インターフェースがビジネス向けに進出中

コンピューターによる画像分析がテキストの分析と同じぐらい上手になることの兆候か、スタンフォードの研究者グループが、Googleのストリートビューから集めた数百万の画像に基づいて、近隣社会の投票パターンを正確に予想することができた、とThe New York Timesが報じている。人工知能を利用してGoogleのストリートビューを社会経済学的な目的のために分析する研究プロジェクトは、Streetchangeなど過去にもあったが、今回のプロジェクトは大量の画像をAIのソフトウェアが処理する点が新しい。

研究のリーダーはスタンフォードのコンピュータービジョンのサイエンティストTimnit Gebru、そして研究チームはソフトウェアを使って5000万点の街路画像と位置データを分析した。目標は、ひとつのzipコードで表される地域や、ひとつの街区(有権者人口1000人ぐらい)の住民の、さまざまな特性情報を予想するために使えるデータを見つけることだ。

そしてそれらの画像から彼らが取得できた情報は、約2200万台(アメリカ全体の約8%)の車のメーカーと車種 と年式、3000種のzipコード、そして39000の選挙区だ。それらのデータを、国勢調査や大統領選投票記録など他のソースから得た情報とつき合わせることによって、各近隣社会の平均所得や人種構成、教育、そして投票パターンを正確に予想することができた。

たとえばAIが車の分類をできるようになるために、チームはMechanical Turkなどから集めた数百名の人間と車の専門家を使って、何百万もの画像中の自動車を同定できるよう訓練した。その結果彼らのソフトウェアは、5000万の画像中の車をわずか2週間で分類できたが、Timesの記事によると、それをもし車の専門家である人間がやったら15年はかかるそうだ。

全米科学アカデミーの会報に載った記事によるとチームは、自分たちの技術が毎年2億5000万ドルもかけている国勢調査を補完するものだ、と主張している。国勢調査は調査員の戸別訪問方式で労働集約的であり、人口65000に満たないような小さな地区は見過ごされることも多い。技術の進歩とともに、人口統計はリアルタイムにアップデートされるようになるかもしれないが、しかし研究者たちによると、個人のプライバシーを守るためにはデータの収集はコミュニティのレベルにとどめるべきだ、という。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa