マシーンラーニング
機械学習

バイアスなきAIを創るのは、なぜ難しいのか

次の記事

MyHeritageがDNAテストサービスを開始、より詳細な家族の歴史がわかるように

編集部注:本稿を執筆したのは、TechTalksの創業者であり、自身もソフトウェアエンジニアであるBen Dicksonだ。

 

人工知能と機械学習のテクノロジーが成熟し、それを利用すれば複雑な問題をも解決できることが実証されつつある。それにつれて、私たちはこれまで人間には不可能だったことも、ロボットなら成し遂げることが可能なのではないかと考えるようになった。それはすなわち、個人的なバイアスを排除して物事を判断するということだ。だが、最近の事例によって機械学習が抱える予想外の問題が浮き彫りになっている。その他の革新的な技術と同じように、機械学習でさえも時には人間界のモラルや道徳的な基準からかけ離れた結果を生むことが分かったのだ。

これからお話するストーリーの中には面白おかしいものもあるが、それは同時に、私たちに未来についてよく考えるためのきっかけを与えてくれる。その未来とは、ロボットや人工知能が今よりももっと重要な責任をもち、もしそれらが間違った判断を下したとすれば、ロボット自身がその責任を取るという未来だ。

機械学習特有の問題点

機械学習とは、アルゴリズムを使ってデータを解析し、そこからパターンを抽出することで得た洞察をもとに、未来を予測したり、物事を判断することを指す。私たちが毎日のように使うサービスにもこの機械学習が利用されている。サーチエンジン、顔認識アプリ、デジタルなパーソナルアシスタントなどがその例だ。機械に投入するデータの量が多ければ多いほど、機械はより賢くなっていく。だからこそ、企業はより多くの顧客データやユーザーデータを集める方法を探し求めているのだ。

だが結局、機械は投入されたデータ以上に賢くなることはできない。そして、それこそが機械学習に特有の問題を生んでいる。アルゴリズムをトレーニングするために使用したデータによっては、機械が悪の心を持つことも、バイアスを持つこともあり得るからだ。

人間の子どもと同じように、機械もその育て親が持つ趣味嗜好やバイアスを受け継ぐ傾向がある。機械学習という分野において、この問題はより複雑だ。企業は自分たちのサービスの背後にあるアルゴリズムの内部を明かそうとせず、それを企業秘密として扱うからだ。

機械学習はどのように間違った結論を生むのか

機械学習のスタートアップであるBeauty.aiは今年、史上初のAIによる美人コンテストを開催した。このコンテストには6000人以上の人々が参加し、AIは提出された顔写真を解析して、顔の対称性やしわなどを元にその人がもつ「魅力度」を算出した。

このコンテストでは人間の審査員がもつバイアスを排除できるはずだった。しかし、結果はいくらか期待外れのものだった:44人の受賞者のうち、白人がその大半を占め、アジア人の受賞者は数えるほどしかいなかったのだ。褐色の肌を持つ受賞者にいたっては、そのうち1人しかいなかった。この結果について、Motherboardが掲載した記事では、アルゴリズムをトレーニングする際に使われた画像サンプル自体がもつ、人種や民族に対するバイアスがこの結果を生む原因となったのだと結論づけている。

機械学習の「白人びいき問題」が表沙汰になったのはこれが初めてではない。今年初めには、ある言語処理アルゴリズムが、JamalやEbonyといった黒人に多い名前よりも、EmilyやMattなどの白人に多い名前の方が心地の良い響きを持つと結論付けるという事件があった。

データベースからバイアスを取り除くことこそ、公正な機械学習アルゴリズムを設計するための鍵となる。

この他にも、Microsoftが開発したチャットボットの「Tay」がサービス停止に追い込まれるという事もあった。10代の女の子の言動を真似るように開発されたTayが、暴力的な内容のツイートをしたことが問題視されたからだ。Tayはもともと、ユーザーから受け取ったコメントを吸収し、そのデータを元に学習することで、より人間に近い会話をするという目的をもって開発されたチャットボットだった。しかし、ユーザーはTayに人間味を持たせることよりも、彼女に人種差別やナチズムの概念を教えることの方に興味があったようだ。

だが、もしこれが人間の命や自由に関わるような状況だったとしたらどうだろうか?ProPublicaが5月に発表したレポートによれば、当時フロリダ州が導入していた囚人の再犯率を計算するアルゴリズムは、黒人に対して特に高い再犯率を算出するような設計だったという。

黒人をゴリラとして認識するGoogleのアルゴリズム高給の求人広告を女性には表示しない広告エンジン下品なトピックや嘘の出来事を表示するニュース・アルゴリズムなど、機械学習の失敗例は他にも数えきれないほどある。

機械学習が犯した過ちの責任を取るのは誰か?

従来のソフトウェアでは、エラーの原因がユーザーにあるのか、それともソフトウェアの設計自体にあるのかということを判断するのは簡単だった。

しかし機械学習ではそうはいかない。機械学習において一番の難問となるのは、過ちが起きたときの責任の所在を明らかにすることなのだ。機械学習の開発は従来のソフトウェア開発とは全く異なり、プログラムのコードと同じくらい重要なのが、アルゴリズムのトレーニングだ。アルゴリズムの生みの親でさえも、それがもつ正確性を厳密に予測することは出来ない。時には、自分がつくったアルゴリズムの正確さに驚かされることもある。

そのため、Facebookの「Trending Topics」がもつ政治的バイアスの責任の所在を明らかにするのは難しい。そのサービスの少なくとも一部には機械学習が利用されているからだ。共和党の大統領候補であるDonald Trumpは、Googleが同社の検索エンジンを操作してHillary Clintonに不利なニュースを表示しないようにしていると批判しているが、これに関しても、Googleが検索エンジンの仕組みを明確に説明して、その主張を跳ね返すのは難しいだろう。

人工知能がより重要な判断をするような状況では、この問題はもっと深刻なものになる。例えば、自動運転車が歩行者をひいてしまったとしたら、その事故の責任は誰にあるのだろうか?運転手、より正確に言えばそのクルマの所有者の責任になるのだろうか、それとも、そのアルゴリズムを開発した者の責任なのだろうか?

機械学習のアルゴリズムからバイアスを取り除く方法とは?

データベースからバイアスを取り除くことこそ、公正な機械学習アルゴリズムを設計するための鍵となる。だが、バイアスのないデータベースをつくること自体が難問だ。現状、アルゴリズムのトレーニングに使われるデータの管理に関する規制や基準などは存在しておらず、時には、すでにバイアスを含んだフレームワークやデータベースが開発者のあいだで使い回されることもある。

この問題に対する解決策の1つとして、厳密に管理されたデータベースを共有し、その所有権を複数の組織に与えることで、ある1つの組織が自分たちに有利になるようにデータを操作することを防ぐという方法が考えられる。

これを可能にするのが、Facebook、Amazon、Google、IBM、Microsoftなど、機械学習界のイノベーターたちが結んだ歴史的なパートナーシップである「Partnership on Artificial Intelligence」だ。機械学習と人工知能が発展するにつれて様々な問題が浮き彫りとなった今、そのような問題を解決することがこのパートナーシップの目的である。人工知能がもつ道徳性の問題を解決すること、そして、複数の組織による人工知能のチェック機能をつくることなどがその例だ。

Elon MuskのOpenAIも面白い取り組みの1つである。OpenAIでは、AIの開発にさまざまな人々を参加させることで、その透明性を高め、AIが犯す過ちを未然に防ぐことを目指している。

ロボットが自分の言動の理由を説明し、みずから間違いを正すという未来もいつか来るだろう。しかし、それはまだまだ遠い未来だ。それまでのあいだ、人間がもつバイアスをAIが受け継ぐことを防げるのは人間しかいない。そして、それは1つの組織や個人によって成し遂げられるものではない。

人間の知恵を結集してこそ達成可能な目標なのだ。

[原文]

(翻訳:木村 拓哉 /Website /Facebook /Twitter