NVIDIA、3Dモデル生成AI「DIB-R 」を開発――2D画像から0.1秒で3Dレンダリングが可能

  • このエントリーをはてなブックマークに追加

写真を撮るだけで、奥行きや質感を立体で再現できるかもしれない。NVIDIAの研究チームは、2D画像から3Dモデルを生成するAIを開発した。ティラノサウルスなどすでに絶滅した動物も、画像があれば1秒たらずでリアルな3Dモデルにすることができる。研究結果は、カナダのバンクーバーで開催された「神経情報処理システム(NeurIPS)」の年会で発表された。

研究チームが開発したAIは、「微分可能な内挿ベースのレンダラー(differentiable interpolation-based renderer)」、略して「DIB-R」と呼ばれるものだ。DIB-Rは、エンコーダ・デコーダアーキテクチャを利用して、2D画像から物体の形や色、質感やライティングといった3Dプロパティを予測し、忠実度の高いレンダリングを作成する。

例えば、あらかじめ鳥のデータセットで学習しておけば、1枚の鳥の2D画像からでも実際の鳥の質感と形状を再現した3Dモデルが得られる。動作も速く、100ミリ秒以内で2Dから3Dへ変換できるという。

DIB-Rは3Dモデルの生成だけでなく、ロボット工学においても有効だ。自律型ロボットにとっては、周辺のものを検知し認識することが重要だが、DIB-Rを利用することで、奥行き方向の認知機能を改善できるとしている。

関連リンク

2D or Not 2D: NVIDIA Researchers Bring Images to Life with AI

関連記事

アーカイブ

fabcross
meitec
next
メルマガ登録
ページ上部へ戻る