OTOYのサーバサイド・レンダリング技術

次の記事

Appleが開発者に向け発表:iPhoneのApp Storeローンチは木曜の朝

映画の「トランスフォーマー」や「ウォーリー」みたいな、非常にハイグレードな3Dのゲームを楽しめてしかも、その画像をユーザがリアルタイムで自由にコントロールできるとしたら、すごいと思わない? 実は、パソコンやセットトップボックスやiPhoneのような、インターネットに接続できる装置から、それが簡単にできるようになるんだ。

そんな夢のような話を実現した人物が、Jules Urbach。彼はロサンゼルスのOTOYという会社のCEOだが、それまではIntel互換のマイクロプロセッサを作っているAMDで、2006年から、「サーバサイドグラフィクス処理」と呼ばれる技術の開発を担当していた。3Dの描画を従来のように個々のクライアントマシン(ユーザのパソコンなど)の上ではなく、ネットワークのサーバが行う。「アプリケーションサービスとしてのゲーム(gaming as a service – GaaS)」とも呼ばれるこの技術を使うと、もう、Xboxも要らない、Playstationも要らない、パソコンのパワーアップにお金をつぎ込む必要もない。1台のモニタと少々の制御回路、そして受信と表示のためのソフトがあれば、強力なサーバの大群から送られてくるコンテンツを楽しめる。

ただし、シンクライアント〔安価な低性能クライアント機〕の上で映画のような高級なグラフィクスを描画するためには、サーバ上で画像を次々とリアルタイムで作り出す技術が必要だ。そのノウハウを、すでに誰よりもよく知っているのが、Industrial Light and Magicのような映画系のプロダクションだが、彼らはたった一こまのために何時間も費やして凝りに凝った画像を作り出すが、ユーザの入力に対応する必要がない。作りっぱなしだ。でも、ゲームのグラフィクスは、ユーザの動作に素早く反応し、どんなに複雑でも次の画像を一瞬にして作り出すハード/ソフトの技術が命だ。こういう、“リアルタイムの素早い応答性”という絶対的なニーズがあるので、ゲームのCGは何年も前の映画のCGぐらいのお粗末なレベルのまま、このところずっと足踏みしていたのだ。

しかし、先週AMDは、高速グラフィクス専用のプロセッサの新製品RV770 GPUを発表し、そのプロモーションのためにCinema 2.0と名付けたキャンペーンをスタートさせた。このプロセッサを搭載した消費者製品向けグラフィクスカードのデモでUrbachは、スペイン、カナダ、アメリカの3国に分散している複数のアーチストたちをコーディネートし、映画のCGIクラスのビデオをいくつか、その場で作り出した。そのメイキングの概要を、このムービーで見れる。

〔訳者注:従来のゲームでも、タイトルムービーなど「見るだけ」のムービーにはCGIがよく使われていた。〕

そのデモは、映画「トランスフォーマー」の登場キャラであるオートボット〔日本版:サイバトロン〕やディセプティコン〔日本版:デストロン〕を作って動かす。映画館の大画面で見るほどすごくはないが、なかなかのできばえだ。本稿の最後にあるスチル画像は、リアルタイムで作り出されたvoxel〔三次元画素,ボクセル〕モデルのアニメのものだ。本稿の最初にあるムービーも、そんなアニメの一つだ。

でも、マシン・キャラを作るのは実はやさしい。難しいのは人間や人間ロボットの動きだ。動きが不自然だと、見る人やゲームをプレイする人はしらけてしまう。本物の人間らしい動きを作り出すためにUrbachは、LightStageというプロジェクトを立ち上げた。それは、本物の人間が動いているところを全周的にスキャンし、動きのデータから3Dアニメのためのモデルデータを作る。次のムービーでは、UrbachがLightStageについて説明している。

LightStageのような技術は、現実を模倣する仮想経験を作り出すためにこれまで技術者たちがやってきたことの延長線上にある。Urbachの仕事が画期的なのは、技術が作り出す仮想経験をブラウザから提供することだ。もちろん、ブラウザから提供される3Dゲームはこれまでにもあったが、Urbachのやることは相当違う。

まず、OTOYのグラフィクスは、いろんな消費者製品の上でこれまで見ることのできたグラフィクスを、はるかに超えた高度なものになる可能性がある。なぜかというと、画像や動画の作成、そのための計算処理を、消費者のデスクの上や手の中、リビングルームの床の上などにあるハードウェア自身はやらないからだ。Urbachの説明によると、AMDのグラフィクスカードが複数、サーバに搭載されている(クライアント上ではない)。それらが並列的に動いて複雑なグラフィクスを作り出し、完成した一コマぶんの画像データを、遠く離れたクライアントたちに配達する。

したがって、グラフィクスの性能は、ネットワークの帯域とサーバの能力に左右される(サーバからクライアントに1秒間に何こま送れるか、サーバは同時並行的に何人のユーザに対して素早い画像の生成ができるか…もちろん、一人一人違う画像だ)。OTOYの技術では、1クライアントあたりの最大フレームレートが220fps〔コマ/秒〕だそうだ。220は、モニタにとっても人間の目にとっても多すぎる(映画は24fps, テレビは30)。遅延時間は、現在サーバが置かれているアメリカ西海岸で12〜17ミリ秒、日本で100ミリ秒だ。220fpsで送信するための圧縮コーデックも、OTOY内部で開発された(AMDの技術陣が協力)。

以上、クライアント機はほとんど何もしないことが、Urbachの技術の第一の特長。そして第二の特長が、ブラウザのプラグインが要らないことだ(もっともプラグインを利用することもできる)。OTOYのグラフィクスは、Ajax、Flash、Java、ActiveXなどを使って単純にブラウザの画面へ配達できる。意外にも、Safariの上でAjaxを使った場合がいちばん速かった。これは将来のiPhone 3Gのユーザにとってグッドニュースだ。もちろん、このグラフィクス配布システムはiPhone 3Gの上でもそのまま使える(Androidのようなシステムを搭載した本格的なブラウザありのモバイル機でもOKだ)。そうすると、PSPのような従来のポータブルゲーム機は終わりを迎えるのか? とにかく、彼らの言い分では、未来がやたら明るいのは、Webブラウザを備えた携帯電話なのだ。

LightStageの最初の商用実装と、OTOY社のサーバサイド描画技術から、いったいどんな仮想世界が生まれるのだろう。楽しみだね。Urbachの計画では、同社の技術を自分のアプリケーションに利用したいデベロッパのための、優れた開発ツールもいずれ提供されるそうだ。

OTOYはプライベートな資金調達によって創立された会社だ。利用されるグラフィクスプロセッサやそのカード製品などのハードウェアは主としてAMDから提供されることになる。以下のスチル写真は、リアルタイム描画のデモや、LightStageの出力の一部だ。

[原文へ]

(翻訳:Iwatani)