Make3D:2D画像から3Dモデルを作る

次の記事

プログネットワークのMyKindaはBlogNationの二の舞か。 ライターの給料未配

スタンフォード大学のMake3Dサービスは、1枚の絵を自動的に3Dモデルに変換する。

Make3Dは、2次元の画像を元にして、遠近や視点の変化が得られ、3次元を飛び回るモデルを作りあげる。写真は直接アップロードすることも、Flickrからサイトに持ってくることもできる。

このサービスは、スタンフォード大学の学生Andrwe NgとAshutosh SaxenaとMin Sunの3人の作であり、2007年10月にリオデジャネイロで行われた国際コンピュータービジョンカンファレンスで、3D認識および再構築ワークショップの最優秀論文に選ばれたアルゴリズムに基づいている。

Stanford News Serviceの1月の記事にもう少し詳しく書かれている。

…このアルゴリズムは、画像をまず「スーパーピクセル」と呼ばれる小さな平面に分ける。これは画像の内部にあり、色、明るさなどの属性がきわめて均質なものである。スーパーピクセルを隣接するスーパーピクセルと比較し、テクスチャーのグラデーションなどの変化を分析することによって、見る人からの距離と空間における方向をアルゴリズムが判別する。従来のアルゴリズムと異なり、スタンフォードの方式では、水平と垂直だけでなくあらゆる角度から平面を捉えることができる。このため、曲がった木の枝や山の斜面のように、さまざまな方向の平面を持つモデルを作ることができる。

このサービスはMicrosoft Photosynthと同じ分野に属すものだが、Microsoftの方が多くの画像を分割して組み合わせることによって3Dモデルを作る、大がかりなものであるのと比べて、Make3Dは1枚の画像だけを使うサービスだ。Make3Dは言ってみれば、一般人のためのPhotosynthで、速くて簡単で、出来映えはPhotosynthには遠く及ばないものの、十分に感動的だ。いろいろなMake3D作品は ここで見られる。

[原文へ]

(翻訳:Nob Takahashi)