偏見
多様性

AIの偏見、認識されつつも未解決の難題とは?

次の記事

無人運転車の大量配備の時代に備える駐車場アプリSpotHero

AIテクノロジーを人類最大の問題を解決してくれるものと賛美する人もいれば、AIは人類存続の危機をもたらす悪魔と恐れる人もいる。もちろんこれらは、さまざまな考えの中の両極端に位置するものだが、AIが未来に向けた胸躍る好機をもたらすものであり、同時に克服しなければならない難題を孕んでいることに変わりはない。

近年、多くのメディアの関心を惹きつけている問題点のひとつに、AIに生じた偏見がある。それは、2年以上も前に私がTechCrunchに書いた「Tyrant in Code」(コードの中の暴君)のテーマでもあったが、論議は、ますます激化している。

あの当時、Googleは、ユーザーが「hand」(手)と画像検索すると、ほとんど白人の手が現れ、「black hands」(黒い手)と画像検索すると、白人の手が黒人の手に何かを施していたり、黒人の手が土をいじっていたりなど、じつに侮辱的な画像が「hands」の場合よりもずっと多く示されるとの調査結果から炎上の真っ最中だった。これは大変にショッキングな発見であり、AIテクノロジーは社会の分断を解決するどころか、それを恒久化してしまうという主張を生み出した。

2年前に私が断言したとおり、そうした事態は杞憂ではない。少なくとも2017年当時、米国におけるAIアルゴリズムの開発は、大多数が白人男性の手によって行われていた。その人たちがマイノリティーに対する偏見を持っている兆候は見られなかったものの、彼らが作り上げるAIには、生来の、無意識の偏った意識が植え込まれる可能性は十分にある。

偏ったAIアルゴリズムによって危機にさらされたのは、Googleのアルゴリズムだけではない。あらゆる産業にAI技術が当たり前のものとして普及してゆくのに従って、そのテクノロジーから偏見を取り除く重要性は、ますます高まっている。

問題を理解する

2年前、AIは多くの産業やアプリケーションにとって、非常に重要で不可欠な存在だったが、その重要性は、予想どおり、以来ますます高まっている。AIシステムは、今では求人の際に有能な人材を特定したり、顧客がローンを組めるかどうかを判断したり、受刑者が再び罪を犯すかどうかを慎重に審査する場面にまで使われている。

たしかに、AIやデータを使えば、より多くの知識に基づく判断を人が下せるようになるが、AIテクノロジーが偏っていたなら、結果もそれに引きずられる。もし、私たちがこのまま排他的なグループのためのAIテクノロジーの未来を信頼し続けるならば、この社会の弱い立場の人たちは、就職口を探したり、ローンを申請したり、合法的に生きようと努力するといった、さまざまなことが難しくなってしまう。

AI革命は
望むと望まざるとに
関わらず進行する

幸いなことに近年、偏見にまつわるこの問題が表面化し、大きな影響力を持つ人、組織、政治団体などがこれを深刻にとらえ、対処策を考える人たちが増えてきている。

AI Now Instituteは、そうした団体のひとつだが、社会に対するAIの影響を研究している。科学者ケイト・クロフォード(Kate Crawford)氏とメレディス・ウィテカー(Meredith Whittaker)氏によって2017年に設立されたこの団体の研究対象は、人権と労働に及ぼすAIの効果、さらにAIの安全な導入方法、AIテクノロジーから偏見を排除する方法などだ。

昨年5月、欧州連合は一般データ保護規則(GDPR)を施行した。欧州の市民がインターネット上で利用される個人情報を自分で管理する権限を強化するための規則をまとめたものだ。これはAIテクノロジーの偏見に直接対処するものではないが、欧州の組織(または欧州に顧客を持つすべての組織)は、AIアルゴリズムの使用法を、一層透明化するよう求められる。企業は、自社が使用するAIの出自について、しっかりとした信頼を示さなければならないという大きな圧力を受ける。

2017年12月の時点では、まだ米国にはデータ利用とAIに関する同様の規制はないが、AIテクノロジーが刑事裁判の判決に人種的偏見をもたらすとの報告を受けて、ニューヨーク市議会と市長は、AIの透明性を求める法案を通過させた

研究グループや政府機関は、偏向したAIが社会に与える破壊的な役割に関心を抱いているが、その責任の大半はAIテクノロジーを開発した企業にあり、根本的にその問題と取り組む覚悟が求められている。幸いなことに、過去にAIの偏見を見過ごしてきたとして非難を浴びたものも含め、最大手のハイテク企業も、この問題の解決に乗り出している。

例えば、Microsoft(マイクロソフト)は、アーティスト、哲学者、小説家を雇い入れ、微妙な言語表現の「ありなし」をAIボットに教えている。不適切なスラングを使わない、不用意に人種的または性的批判をしないといったものだ。IBMは、自社のAIシステムの公正さを判断する、独立した偏見評価基準をAIマシンに適用し、偏見の緩和に努めている。また昨年6月には、GoogleのSundar Pichai(サンダー・ピチャイ)氏は一連のAI原則を発表した。業務や研究において、同社のアルゴリズムに偏見を植えつけたり助長したりしないことを目指している。

AIに作用するデモグラフィック

AIの偏見に対処するためには、個人、組織、政府が、この問題の根源を真剣に考える必要がある。しかし、その根源は、多くの場合、そもそもAIサービスを開発した人間の側にある。2年前に私が書いた『Tyrant in the Code』でも話したとおり、右利き用のハサミや帳簿や缶切りで苦労している左利きの人たちは、それらが発明者の都合のよいように作られていることを肌で知っている。AIシステムにも同じことが言える。

米国労働統計局が発表した最新のデータによれば、AIプログラムを製作したプロの開発者は、今も大半が白人男性だ。また、昨年8月にまとめられたWiredとElement AIによる調査では、主要な機械学習研究者に占める女性の割合は、12パーセントに過ぎない。

しかしこの問題は、AIシステムを開発する技術系企業がまったく見落としているわけではない。たとえば、Intelは、同社の技術職の性的多様性の改善に積極的に乗り出している。最近のデータでは、Intelの技術職の女性の割合は24%に達している。業界の平均値よりもずっと高い。Googleは、次世代のAIを牽引する人間を育てるためのAIサマーキャンプ“AI4ALL”に出資し、この技術分野では少数派である女性やマイノリティーの若者に教育の手を差し伸べようとしている。

とは言え、AIテクノロジーから偏見を追い払うのに必要なレベルの多様性をAIが勝ち取るまで、まだまだ先は長いことを統計データは示している。一部の企業は個人の努力とは裏腹に、技術系企業はいまだに白人男性が圧倒的多数で占められているのだ。

AIの偏見問題を解決する

もちろん、大手AI企業の多様性改善策は、AIテクノロジーの偏見解消に大いに貢献するはずだ。社会に大きな影響を与えるAIシステムの普及に責任を持つ大手企業は、AIテクノロジーの偏見を監視でき、倫理基準に準拠できるよう、そして、そのアルゴリズムは誰をターゲットに想定しているのかを深く理解できるよう、世間一般に向けた透明性を提供する必要がある。

政府も業界リーダーも真剣に自問

しかし、政府機関による規制がなければ、こうした解決策は、有効であったとしても、効果が現れるまでに時間がかかるものだ。いろいろな意味でAIの偏見を緩和させるGDPRをEUは施行したが、米国には直ちにこれに追従する確かな兆候は見られない。

政府は、民間の研究所やシクタンクと協力して、素早くその方向へ舵を切り、アルゴリズムの規制方法と格闘している。さらに、Facebookなどの企業も、規制は有益だと主張している。だが、ユーザー作成コンテンツ用プラットフォームに強い規制をかけてしまえば、市場に新規参入するスタートアップの競争力が阻害され、Facebookのような企業を利することにもなりかねない。

大切なのは、イノベーションを押さえ付けない程度の、ちょうどよい政府の介入加減だ。

規制はイノベーションの敵であり、ゲームの流れを変える可能性を秘めた若いテクノロジーの育成のためには、一切の障害物を何が何でも取り除くべきだと、多くの起業家は訴える。しかしAIは、望むと望まざるとに関わらず、今後も継続する革命だ。無数の人々の生活を、これから変えてゆくものだ。だからこそ、倫理的で偏見のない方向に向かわせる必要がある。

政府も業界のリーダーも、真剣に自問しているが、考えている時間はあまりない。AIは急速に開発が進むテクノロジーであり、優柔不断では置いていかれる。倫理感が薄く、排他的な開発者によるイノベーションが野放しになってしまえば、米国のみならず世界中で分断が進んでしまう。

【編集部注】著者のCyrus Radfar(クリス・ラドファー)氏は、V1 Worldwideの創設パートナー。

[原文へ]

(翻訳:金井哲夫)