ニュース
Esri(企業)
cyborg camp
amber case
Adobe / アドビ(企業)

×コンピュータのインタフェイスから◯人間のインタフェイスへ: その5つの未来像

次の記事

FacebookのiOSアプリがアップデート。複数写真のアップロード、写真フィルターが可能に(記事修正あり)

drawingstylus

これからのアプリケーションは、人間をユーザインタフェイスと見なすことをデベロッパに要求する。座っている人間がキーを叩くことではなく、人間は実は、立っている、手がほかの動作をしている、などなどの状態でコンピュータの助けを必要としている。

テーブルやカウンターやホワイトボードなどが、ディスプレイになる。会議室にはタッチパネルがあり、教室の黒板は大型のデジタル画像システムに代わり、教師はチョークの代わりにスタイラスを使う。

MicrosoftのゼネラルマネージャJeff Hanは、先週のBuild Conferenceで、こういった次世代のデバイスやディスプレイのためのアプリケーション開発に関するアドバイスを述べた。ここでは、彼の見方をご紹介するとともに、同様の未来に向けて研究開発をしているほかの4人の視点をお伝えしよう。

大型画面を両手の指で操作

Hanは、スマートフォンと大型画面とではコンピュータとの対話のやり方が違う、という話をした。それは今すでに誰もが知っていることだが、今後デバイスのサイズの多様化が進むと共に、対応の複雑さも増す。彼の言うには、デベロッパは、人が大型ディスプレイの横や前にどのように立つのかを、考える必要がある。スタイラスで文字を書くときの、無理のない高さはどこまでか。マルチタッチが普及すると、ユーザは5本の指を使うようになる。あるいは両手を使ってオブジェクトを操作しコンテンツを作るようになる。Buildでの彼のプレゼンの全篇がここにある。その中で彼は、Microsoftが今後出すであろうデバイスのタイプについても述べている。

ディスプレイ, 複数同時使用時の個人識別

Jim SpadacciniはIdeumで、大型の対話的なディスプレイを作っている。彼のチームの最大の検討事項は、そのようなディスプレイを組み込んだテーブルを囲んで複数の人間がコンピュータやアプリケーションと対話するときのインタフェイスの設計だ。コラボレーションを効果的に、混乱なく支援するには、どうすべきか? そもそもアプリケーションが、複数者の同時使用を前提として作られているか?

彼の言うには、こういう問題を考える場合いちばん重要なのは、情報がどこから来てどこへ行くのかという‘方向’の問題と、アプリケーションの全体的な構造だ。彼は曰く:

諸要素が全方位的だったり、対称的であるようなアプリケーションを設計しなければならない。しかもそれは物理的な方位ではなくて、Aさんがテーブルのどこに座ろうとも、そこからの操作はAさんからの操作だ、という意味での方位だ。対話は固定的な位置関係ではなく、きわめてソーシャルなエンゲージメントになる。ビジターたちが互いに対話する…それはプログラムとの対話と同じだ。

タッチは官能的な出力インタフェイス

サイボーグ研究家のAndrew Warnerによると、これからは手足などの肉体を使わない入力インタフェイスや、目や耳などの感覚器官に依存しない出力インタフェイスが研究開発の主力になる、という。しかし、確かにそれはそうだが、同時にインタフェイスは触感を重視する方向にも進化している。キーボードという武骨な物から、マウスへ(腕全体を動かす)、そしてタッチパッドへ(指だけを動かす)、今のタッチスクリーンにいたっては、指を動かすのではなく、指で触るだけだ。しかしWarnerによると:

次世代のテクノロジにおいては、指は単純な入力インタフェイスであるだけでなく、人が感触で物とその状態を知るように、出力インタフェイスにもなる。デベロッパは、人間が感覚の生き物であることを思い出す必要がある。だから人間の体全体が、最良のインタフェイスなのだ。考えたことを音楽のようなもので伝えることはできるが、しかし人類が長年かけて発達させてきた触感による感知能力は依然として強力だ。今でも圧倒的に多くの快感や快楽が、肉体の行動に由来している(たとえばエクササイズはセロトニンとドーパミンのフィードバックを起こす)。デベロッパはこのことを利用して、コンピュータをより官能的なものにできるだろう。

コンピュータが生成する共感覚(synesthesia)

Amber CaseGeoloqiは、位置対応のモバイルアプリを作っているが、最近Esriに買収された。サイボーグ研究家としても知られる彼女は、今週ポートランドで行われるCyborg Campの主催者でもある。彼女はTwitterで、コンピュータによって起きる共感覚(computer aided synesthesia)という概念に言及した。たとえばそれは、ある感覚(例: 聴覚)を使って、ほかの感覚(例: 味覚)を伝えることだ。

Artificial Visionのページより:

人工的な共感(とクロスモーダルな神経変調)を追究する主な動機は、聴覚障害や視覚障害などの感覚障害者に、別の感覚で欠けている感覚を与えられる可能性にある。たとえば、画像を音に写像するデバイスを使って耳でものが見えるようにしたり、音を画像に写像するデバイスで目で音を聞くようにできるだろう。

インタフェイスの多様化がアクセス増大の鍵

Matt Mayは、Adobeのアクセシビリティエヴァンジェリストだ。彼によると、今デベロッパにとっていちばん重要なのは、ユーザがどんなインタフェイス(や複数のインタフェイスの組み合わせ)を好むかは、デベロッパがコントロール不能であることだ。

これからはアプリケーションを、キーボードとマウスだけでなく、タッチ、音声、異なるディスプレイサイズと解像度、各種の障害者支援技術、などなど多様な条件下でテストしなければならない。それは非常におもしろいと同時に、最悪の結果に導くこともあり得る。人びとが、何をどのように使うか、その多様な局面に正しく対応することによって、すべてのユーザに参加性と満足度の高い体験を提供できる。

コンピュータにまったく関心のない人たちが、iPhoneのファンになっている。タッチという、使いやすいインタフェイスを提供したからだ。このことが示唆しているのは、それぞれの人の状況や嗜好性に合ったインタフェイスを提供することによって、コンピュータのユーザをもっともっと増やせる、ということだ。それが、これからのUIの課題であり、しかもそれは、人間は生活や仕事の中で、コンピュータに束縛されずにあちこちいろいろ動き回っていることを前提に、構想されなければならない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))