hao86下載站:值得大家信賴的游戲下載站!

首頁 > 區(qū)塊鏈 > 清華、斯坦福、加大開源,圖片生成高精準3D模型

清華、斯坦福、加大開源,圖片生成高精準3D模型

時間:2023-12-27 09:42:48
來源:hao86下載
區(qū)塊鏈

【#區(qū)塊鏈# #清華、斯坦福、加大開源,圖片生成高精準3D模型#】

原文來源:AIGC開放社區(qū)

圖片來源:由無界 AI生成

隨著ChatGPT的出現(xiàn)以及廣泛應用,通過文本生成文本、視頻、音頻等內(nèi)容,成為實現(xiàn)技術(shù)民主化的關(guān)鍵手段。

在3D模型領(lǐng)域通過文本生成并不成熟,多數(shù)方法是通過圖片。而該方法存在生成時間長、缺乏細節(jié)、難以匹配圖像等缺點。

加州大學、清華大學、斯坦福大學共同開發(fā)了全新模型“One-2-3-45++”并將其開源。該模型僅通過圖片,就能在1分鐘內(nèi)將一張RGB圖像轉(zhuǎn)換為高精準3D模型,這對于游戲開發(fā)、3D建模等領(lǐng)域,可以節(jié)省大量開發(fā)時間。

研究人員在包含1030個3D對象的GSO數(shù)據(jù)集上與多個基準方法進行了比較。測試數(shù)據(jù)顯示,One-2-3-45++在幾何相似度、CLIP相似度指標上均優(yōu)于基準方法。

在包含50多名真實用戶的評估數(shù)據(jù)顯示,87.6%表示One-2-3-45++生成的結(jié)果,優(yōu)于其他方法,質(zhì)量更高、更符合輸入圖像。

開源地址:https://github.com/SUDO-AI-3D/One2345plus

論文地址:https://arxiv.org/abs/2311.07885

在線demo:https://www.sudo.ai/3dgen

One-2-3-45++的核心技術(shù)原理主要包括三大塊:一致的多視角圖像生成、基于多視角的3D重建以及紋理優(yōu)化。

一致的多視角圖像生成

這一模塊的作用是從單個輸入圖像中生成多個視角一致的圖像。One-2-3-45++一共可生成6個視角的圖像,布局是一個3x2的矩形網(wǎng)格,分別對應不同的相機位置。

為了避免生成的3D形狀存在方向歧義,這6個相機位姿使用絕對高度角以及相對方位角來定義,同時使用了預訓練文生圖模型Stable Diffusion作為生成器。

此外,使用了Objaverse數(shù)據(jù)集中的3D形狀進行微調(diào)。對每個3D形狀,生成3個訓練樣本,分別對應不同的輸入圖像視角。同時使用統(tǒng)一的HDR環(huán)境光進行渲染,以提升細節(jié)、光影效果。


基于多視角的3D重建


上一個模塊我們已經(jīng)有了6個對象的多視角圖片,這個模塊就是要把二維的圖片轉(zhuǎn)換成3D模型。

具體做法是先用6張圖片生成一個低分辨率的三維體積元素,近似表示整體形狀。然后在體積元素里面生成更高分辨率的“體積元素”,捕捉表面細節(jié)。

體積元素就是用小立方體組成的三維矩陣。這里有兩種體積元素,一種SDF體積元素,記錄了一個位置到物體表面的距離;另一種是顏色體積元素,記錄一個位置到物體表面最近點的顏色。

同時這6張圖片是生成體積元素的條件,先從圖片里提取二維特征,然后反投影到三維空間構(gòu)建一個三維特征體,這個體包含了多視角的先驗信息,可以指導三維模型體積元素的生成。


紋理優(yōu)化


經(jīng)過前面兩個步驟生成的3D模型,在顏色、質(zhì)量、紋理方面還比較粗糙,所以需要進行優(yōu)化達到最終效果。同樣可以利用前面6個視角的圖像,來增強最終網(wǎng)格模型的紋理質(zhì)量。

方法是固定住網(wǎng)格的三維結(jié)構(gòu)不變,僅優(yōu)化表示顏色的網(wǎng)絡(luò)。每次迭代中,用當前的顏色網(wǎng)絡(luò)渲染網(wǎng)格,生成二維圖片。然后與之前生成的多視角圖片計算損失,更新顏色網(wǎng)絡(luò)。

這樣通過不斷地優(yōu)化,網(wǎng)格表面的顏色信息會逐漸跟多視角圖片越來越接近,從而實現(xiàn)紋理的提升。

小編推薦下載

相關(guān)文章

更多>>

資訊排行

同類軟件下載