次のSiriは、感情を持つだろうか?

次の記事

米国防総省、バグ探し懸賞プログラム “Hack the Pentagon” を拡大

【本稿の執筆者、Rupa Chaturvediは、Sentient Technologiesのビジュアル・インテリジェンス設計責任者】

AIアシスタントは絶頂期にある。先月Googleはその名もAssistantというAIアシスタントを発表し、「継続的な双方向対話」を可能にした。この分野には、AppleのSiri、AmazonのAlexa、MicrosoftのCortana、FacebookのM、未公開のVivを始め、数多くのライバルがひしめいている。

しかし今のところ、こうしたアシスタントたちは会議を設定したり、天気を教えてくれたり、コーヒーショップへの道順を示すことはできるが、まだ少々冷たく感じられる。人の気分や状況、個人的コンテキスト等々によって、反応を変えることはない。言い換えれば、感情がない。

それは何を意味するのか? 人類は常にテクノロジーを擬人化してきた。テクノロジーに感情的に関与し、信頼に基づく関係を期待し確立してきた。自動的な電話応等に腹を立てたり、重要なミーティングを知らせてくれた携帯電話に感謝したことが一度でもあるなら、これがわれわれの慣れ親んだ感覚だ。

問題は、われわれの健康や幸福にとって真に重要なテクノロジーは、その状態が単なる「物」を超えるという点にある。われわれは、テクノロジーに感情的に関与する。亡くなったスタンフォード大教授、Clifford Nassは、人間とコンピューターの関係は本質的に社会的なものであるとさえ主張した。言い換えれば、もし人間がテクノロジーと感情的な結び付きを持っているなら、われわれのニーズに感情移入するシステムを設計する方がよくないだろうか?

もし、人が機械と真にパーソナルで感情的なつながりを持てる、という考えに同意できないなら、 Ellieの事例を考えてほしい。EllieはAI心理学者で、PTSDを患う兵士の治療に用いられてきた。彼女は言語および非言語的ヒントを使って、AIアシスタントのように対話を構成する。ここで興味深いのは、患者は人間よりEllieと話すことを好むらしいことだ。Ellieのブレーンの一人、Albert Rizzoによると、患者は「判断されたと感じることがなく、印象操作に対する関心が低く、一般により多くの情報を提供するようになる」。

もちろん、心理学者と話すことは、アシスタントと話すのとは違う。しかし、人々が真の個人的苦脳について人間よりも機械に打ち明けやすい、というのは注目すべきだ。そして、AIアシスタントをデザインするにあたり、この教訓を心に留めておくことには価値がある。ユーザーは、自分を知り、理解しているテクノロジーを気味悪がったりしない。適切に行えば、むしろ反対だ。

基本的に共感とは、個人や個人の感じ方を理解することだ。人は常に変わり続けるという認識も必要だ。

では、どうやって感情的AIをデザインすればよいのか? どうやってアルゴリズムを人間的にするのか?まず、あまりに後ろ向きな発想を捨てることから始めることができる。アルゴリズムはもちろん山ほどのデータを必要とするが、飛行機のフライトを予約するために、ユーザーのすべてを知っている必要はない。もし、より人間的(即ち、より感情的)なAIを作ることによって問題に取り組むなら、人間的、社会的なレベルで対話することを考える必要がある。

われわれが見知らぬ人と会った時、相手の全データを聞き出そうとするだろうか?去年何を買ったか? メールアドレスとクレジットカード番号? 過去6ヵ月間の購入履歴に基づいて何が欲しいかを予測することは、知識だ。今われわれはそれができる。しかし、今日私が髪をおろして、くつろいでいたいことを知ることは、共感だ。この判断を、過去の多数の個人データからではなく、個人について下すことのできるアルゴリズムがわれわれには必要だ。

一つの方法は、音声認識で行っていることを再考することだ。今やAIは単語を理解できるできるが、その背後にある感情や論調を真に理解することはできない。もちろんそれは、人間が無意識下でいつも行っていることだ。そして、Mattersight等の会社は、数百万時間もの会話を分析して、個性や気分のヒントを見つけ出そうとしている。

つまり、そういうアルゴリズムは存在している。問題は、その使い方を変え、テクノロジーのためではなく、ユーザーのためにデザインすることだ。アシスタントには、人が何を言ったかを処理させるだけでなく、どのように話したかを理解することにも注力させる。ユーザーがどう感じるかを瞬間に理解できるAIは、共感をもって振る舞うことができる。あなたが浮かない気分の時にへらず口をたたかないAIや、急いでいるようなら対話を早く進めるAIを想像してみてほしい。ユーザーの気分によって、振る舞いを変えるAIだ。

もちろん、音声分析以外にも共感をもてるAIを作る方法はある。顔認識技術の向上によって、感情を直感的に捕えられるようになった。居間に置かれたAIアシスタントは、あなたが過去1時間に好きなコメディーを見て笑っていたのか、あるいは配偶者と言い争っていたのかがわかるので、あなたの表情や声のトーンに基づいて振る舞いや会話内容を変えることができるはずだ。ブラウザーの履歴や消費者プロフィールの似た他のユーザー情報に基づくのではなく、その場で瞬時に反応する。

基本的に共感とは、個人や個人の感じ方を理解することだ。人は常に変わり続けるという認識も必要だ。いい日もあれば悪い日もある。新しい趣味を始めたり、ダイエットで生活パターンを変えたり、休暇に出かけたり、仕事の大きな発表を控えていたり。毎日が違うように、すべての対話が異なる。共感をもつAIはそれを理解する必要がある。カレンダーに会議の日程を入れて、知らせてくれるAIアシスタントをデザインするのは、知識だ。「邪魔が入る」かもしれないことを知り、瞬時に日程変更する必要があることを知るのは、共感だ。

パターンを見つけられただろうか。共感をもつAIを作るためには、ユーザーをグループとして見るのではなく、個々のユーザーを個人として見る必要がある。それは人間がお互いの心理状態や意図を推しはかるのと同じように微妙な変化を読み取り、相手の反応を学習するシステムをデザインすることだ。それは人間が会話する時と同じように、進化しながら瞬時に行動を変化させるものを作ることだ。それは、ユーザーを本来の個別の人間として見ることのできるテクノロジーを作ることだ。そしてもし、次のAIが共感をもつものになるなら、それこそがわれわれのすべきことだ。

[原文へ]

(翻訳:Nob Takahashi / facebook