ブラックホール博士HawkingやTesla自動車のMuskらが、AI軍拡競争は始まる前に阻止せよ、と提議

次の記事

複雑膨大すぎてGoogle検索では対応できない法律文書にWatsonのNLPを適用するROSS Intelligence

高名な物理学者のStephen Hawkingや、先進的電気自動車を作るTesla Motors社などのCEO Elon Musk、そして1000名を超えるAIやロボット工学の研究者たちが、アルゼンチンのブエノスアイレスで行われた、人工知能に関する国際合同会議(International Joint Conference on Artificial Intelligence)で月曜日(米国時間7/27)に、AI戦争の禁止を提言する書簡に署名した。書簡は、“自律的能力を持った兵器”による激しい破壊の蔓延を警告している。書簡の宛先は、AI軍備競争に手を染めようとしている世界各国の軍事部門である。

それは、このような警告だ:

人工知能(Artificial Intelligence, AI)の技術は今、そのようなシステムの軍事的な配備が、法的にはともかく少なくとも実用的には、数十年以内ではなく数年以内に可能な地点にまで達しており、それが人類にもたらすリスクはきわめて大きい。自律的能力をもつそれらの兵器は、火薬と核兵器に次ぐ第三の戦争革命と言われている。

研究者たちは、すべてのハイテク戦争を終わらせる、といった理想を述べてはいない。むしろ力点は、人間が機械を確実に制御することに置かれている。彼らの焦点は自律能力を持った兵器の、人間による制御に置かれ、照準を人間が合わせる巡航ミサイルやリモコンドローンなどではなく、事前に決められている一定の基準を満たす標的を、自動的に探索し破壊する兵器の、人間による確実なコントロールを要請している。

書簡は、自律的兵器の開発を追求しないことが、世界の軍事大国の責務だ、と述べている。

世界の軍事大国が一国でもAI兵器の開発を推進すれば、世界的な軍拡競争の招来が不可避となる。そして、そのような技術競争の行き着く先は明白である: それは、自律的兵器が明日のカラシニコフになることだ。

〔カラシニコフ、誰にでも簡単に入手できる銃火器。〕

HawkingとMuskはこれまでにも、AI技術に関する警戒を声高に述べている。Muskは最近、人工知能は人類にとって実在する“最大の脅威だ”と述べ、一方Hawkingは、この技術が““人類の終末をもたらす”、と語った。

この書簡に署名した人の中には、このお二人に加えて、Appleの協同ファウンダSteve Wozniak、人工知能企業Google DeepMindのCEO Demis Hassabis、著名なMIT教授Noam Chomsky、Googleの研究部長Peter Norvigらがいる。

書簡の締めくくりは、

人工知能はさまざまな面で人類に利益をもたらす、とわれわれは信じており、当分野の目標はそこに置かれるべきである。AI軍備競争を開始することは良からぬ考え方であり、攻撃的自律兵器が人間による有意な制御を超えて使われることを禁じることによって、AI軍拡競争の開始を防ぐべきである。

となっている。

Hawking博士は今、一週間の予定で、RedditのAMAに出ておられるので、質問などはそのサイトにポストできる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa