運輸交通

決断が難しい道路状況で運転者の倫理観をテストするゲームMoral Machine、果たして自動運転車は?

次の記事

外国人宿泊客向けのチャットコンシェルジュ「Bebot」開発のビースポークが資金調達

高齢者をたくさん乗せた自動運転車は、横断歩道上の子犬たちを避(よ)けるために、障害物に衝突すべきか?(上図左)。一人の医師を救えるなら、二人の犯罪者を轢(ひ)いても構わないか? どちらの命が重要か?7歳の子どもたちか、高齢者たちか?

この、MITの研究者たちが作った“Moral Machine”というゲームは、有名な“トロッコ問題”の決断を迫り、あなたの倫理観をテストする。今エンジニアたちが、このような状況における決定を、自動運転車に実装しようとしているなら、問題はさらに深刻だ。その選択の責任を、誰が負うべきか? 運転に関わっていない乗客か? AIを作った企業か? それとも誰も責任を負わないのか?

ethics-results

Moral Machineがつきつける選択は、そもそもAIは、より多くの人名を救えるなら介入すべきか、それとも、誰かの死がAIの責任にならないために、積極的には何もすべきでないか?という問だ。

しかしこのシナリオの状況は、もっと難しい。乗客は本質的に危険な、高速の金属箱に、それと知りつつ乗っているのだから、歩行者の方を救うべきか? 無防備な歩行者に突っ込むよりは、エアバッグなどの安全装置に期待して障害物に衝突すべきか?

こんな単純で分かりやすい状況でも、人間にとって決断が難しいなら、混乱した路上における自動運転車にとっては、なおさらだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))