グーグルのピチャイ氏CEOはAIの危険性から目をそらして欲しいと思っている

次の記事

スマートスピーカー開発のSonosが古いデバイスのアップデートを打ち切り

Alphabet(アルファベット)とGoogle(グーグル)のCEOであるSundar Pichai(サンダー・ピチャイ)氏もまた大手テック企業のキーパーソンとして、公にはAIの規制を求めているが、同時に議員に対しては、AI技術で可能になることを極力制限しない緩めのフレームワーク導入を働きかけている。

ピチャイ氏は1月20日のFinancial Timesの論説で、「人工知能を規制すべき」という目を引く見出しで呼びかけた。しかし、同氏が論説で暗に示したのは、技術者が普通にビジネスを続けられず、また万人に影響を及ぼす規模でAIが利用できないなら、人類にとってのリスクがかえって高まってしまうということだ。グーグルのトップは次のように主張した。「AIは数十億人の生活をより良くする力を秘めている。最大のリスクはそれが達成できないことだと思う」。だから、人類にとって実際には最も安全な選択肢として「厳しい制限はしない」という枠組みを求めている。

また論説では、AIの負の側面については軽視している。そうした負の側面がもたらす影よりも、AIが解き放つ利点の方が大きいと同氏は示唆する。単純に「潜在的な負の影響」を技術進歩に必要かつ避けられないコストとして描いている。

顔認識などの非常にリスクの高い技術の使用が民主主義社会で本当に許されるのかについては正面から問わずに、むしろリスクのレベルを管理することが重要だと指摘している。

「内燃機関は、人々が自分の住む地域の外へ旅行することを可能にしたが、多くの事故を引き起こすことにもなった」とピチャイ氏は述べ、歴史を急に引っ張り出して自説を擁護しているが、燃焼機関のために発生する甚大な気候コストと存続の脅威に直面している数え切れないほどの地球上の絶滅危惧種については無視している。

「インターネットは誰とでもつながり、どこからでも情報を入手することを可能にしたが、誤った情報が広まりやすくもなった」と同氏は続ける。「ここから得られる教訓は、うまくいかない可能性があるとすれば何か、よく考えておく必要があるということだ」。

「よく考えておく」の意味は、テクノロジー産業が「副次的損害」(目的を果たすためにはやむを得ない損害)だと解釈する事態を覚悟するということだ(偽情報やFacebookの場合、副次的損害というのは民主主義という肉をターゲット広告というミンチ機に投入することのようだ)。

一方、ピチャイ氏のAIリスクの議論でまったく触れていないことがある。それは独占するパワーが集中することだ。人工知能は独占集中のパワーを極めて巧みに強化する。

これなどは面白い。

もちろん、近年、研究部門全体のブランドを「Google AI」に変更したり、以前、軍事兵器テクノロジーへAIを利用するプロジェクトに関して一部の従業員から非難されたりした大手テック企業であれば、可能な限り緩く抽象的なAI「規制」を設定するよう議員にロビー活動を行ったとしても驚くにあたらない。

ゼロ規制よりも、使える馬鹿が作った法律のほうが優れている。彼らは「イノベーションかプライバシーか」といった二者択一の、業界主導の誤った論理に騙される。

ピチャイ氏の論説による介入のタイミングは戦略的だ。米国の議員らは大手テック企業が求める「イノベーションに優しい」ルールに迎合しているように見える。そんなルールの下でなら、大手テック企業のビジネスはやりやすくなる。今月ホワイトハウスのCTOであるMichael Kratsios(マイケル・クラトシオス)氏はBloomberg(ブルームバーグ)の論説で、「AIのイノベーションと成長を不必要に妨げるような、負担が重く先制攻撃的で厳重なルール」に強く反対した。

一方、新しい欧州委員会は、AIと大手テック企業の両方についてより強固な方針を打ち出した。

同委員会のUrsula von der Leyen(ウルズラ・フォン・デア・ライエン)大統領は、テクノロジーの変化に対応することを政策上の優先事項に掲げ、大手テック企業を規制していく方針を明らかにした。また、就任後最初の100日以内に「人工知能の人間的および倫理的意味合いに関する欧州の協調的アプローチ」を発表することを約束した。同氏は2019年12月1日に就任したため、期限は迫りつつある。

先週リークされた汎EU AI規制に関する欧州委員会提案の草案を読むと、比較的軽いタッチのアプローチに傾いていることがわかる(ただし、欧州における軽いタッチは、トランプ大統領のホワイトハウスに比べかなり関与や介入の度合いが強いことは明らかだ)。ただし規制案によると、公共の場での顔認識技術の使用を一時的に禁止するという考えが浮上している。

規制案は、一時的使用禁止によって「個人の権利が特に技術の不正使用の可能性から保護」されると予想されるものの、これは「技術の開発と普及を妨げる可能性のある広範囲にわたる措置」であるため、既存のEU法の規定(EUのデータ保護フレームワークであるGDPRなど)を適用したり、現行の製品安全および責任に関する法律に必要な修正を加えるなどの対応が望ましいとしている。

委員会がAIの規制に乗り出すにあたり、どちらの方向に進むのかまだはっきりしないが、軽いタッチのバージョンであっても、ピチャイ氏が望むよりはるかに面倒になることが予想される。

論説で同氏は「分別ある規制」と表現するものを求めている。「分別ある規制には、特にリスクの高い分野で想定される悪影響と社会的機会のバランスを取る均衡的アプローチが必要になる」

「社会的機会」が意味するところは、AIが実際に利用される分野に厳しい法的制限が課されても、Googleがスパイしている豊富な「ビジネスチャンス」が頓挫することはないということだ。Googleは健康から輸送まであらゆる業種やセクターで、AIの利用を推進してサービスの質を高め、莫大な規模の収益を狙っていると考えられる。

「さまざまなセクターでニーズに応じた実装を可能にしつつ、幅広いガイダンスを提供する規制が実現可能なはずだ」。ピチャイ氏は守るべき「原則」と適用後の「レビュー」に関して優先順位を設定することにより、AIというスパイスの流れを維持しようとしている。

FTの編集者がテクノロジーのイメージで説明するよう試みているにもかかわらず、論説は顔認識について、「悪用」の懸念にごく短く触れるにとどめている。ここでピチャイ氏は再び、その性質上極端に権利に敵対する技術に関する議論として再構成しようとしている。

もちろんこれは、顔が公共のスペースを通るたびに、ブラックボックスマシンがIDをアルゴリズムで推測できるといった固有のリスクを意図的にわかりにくくしている。

こんなシナリオの下ではプライバシー保護は望めない。テクノロジーの用途によっても異なるが、他にも多くの権利が危険にさらされる。そのため、実際には、顔認識の使用には個人的および社会的リスクが伴う。

しかし、ピチャイ氏は議員に瞬きさせようとしている。同氏は、そのようなテクノロジーがもたらす強力な固有のリスクに議員が目を向けることを望んでいない。議員に注目してほしいのは「悪意」があり「負の側面」を持つAIの使用例や、「本当に懸念」すべき「悪影響」があるケースだけだ。

だから同氏は「原則や規制に基づきAIを利用するアプローチ」を再び強調する。とりわけ、AIの利用が許される規制に重点を置く。

ここで技術者が最も恐れるのは、人工知能が絶対に利用できないケースを規定するルールだ。

倫理と原則は、ある程度変更可能な概念だ。大手テック企業は、PRとして、自分たちに都合の良い倫理や原則を主張することに慣れている。自前の「ガードレール」を自分自身のAIの運用に適用したりする(だがもちろん、有効な法的拘束力はない)。

同時に、Googleのようなデータマイニング大手は、データ保護に関する既存のEUルールの下でも十分戦える。たとえば、ユーザーインターフェイスに、クリックやスワイプによって気づかずに権利を放棄してしまうような紛らわしいパターンを埋め込んでおくなどの手段がある。

だが、ある特定種類のAIの利用を禁止すると、ゲームのルールが変わる。それは市民社会が運転席に座ることになるからだ。

先見の明のある規制当局が、特定の「危険な」AIの利用について少なくとも一時停止する内容を含む法律を求めている。顔認識技術や、Googleが以前取り組んでいた無人機ベースの自律兵器などがその例だ。

そして禁止措置ということになれば、プラットフォームの巨人たちが自分たちの意向にあわせて単純に曲げることは極めて難しいはずだ。

画像クレジット:Andrew Harrer / Bloomberg / Getty Images

[原文へ]

(翻訳:Mizoguchi