Control3D

  • Control3D: Towards Controllable Text-to-3D Generation [107.8]
    本稿では,手書きスケッチ,すなわちコントロール3Dについてテキストから3D生成条件を提案する。 2次元条件付き拡散モデル(ControlNet)を再構成し、NeRFとしてパラメータ化された3次元シーンの学習を誘導する。 合成3Dシーン上での描画画像のスケッチを直接推定するために,事前学習可能なフォト・ツー・スケッチ・モデルを利用する。
    論文  参考訳(メタデータ)   (Thu, 9 Nov 2023 15:50:32 GMT)
  • 手書きスケッチ+テキストによる3Dモデル生成、ControlNetの3D版な印象(「Specifically, a 2D conditioned diffusion model (ControlNet) is remoduled to optimize a Neural Radiance Field (NeRF), encouraging each view of the 3D scene to align with the given text prompt and hand-drawn sketch.」とのこと)

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です