Meta推出Garment3DGen:可基于圖片定制3D服裝(3d服裝圖片怎么做的)
近日,Meta 研究團(tuán)隊(duì)提出了一種以單張輸入圖像為指導(dǎo),從基礎(chǔ)網(wǎng)格合成 3D 服裝資產(chǎn)的新方法——Garment3DGen。
據(jù)介紹,Garment3DGen 是一種可以從 2D 圖像生成 3D 網(wǎng)格服裝中風(fēng)格化幾何形狀和紋理的方法,可以將其安裝到參數(shù)化身體上并進(jìn)行模擬 3D 服裝生成和應(yīng)用。
給定 RGB 圖像,研究團(tuán)隊(duì)首先使用單視圖到多視圖一致的圖像生成技術(shù)進(jìn)行 3D 重建,將此輸出網(wǎng)格用作 3D 偽地面實(shí)況來(lái)指導(dǎo)網(wǎng)格變形過(guò)程,以使輸入網(wǎng)格幾何形狀變形以匹配目標(biāo)。其輸出幾何體保留了輸入幾何體的結(jié)構(gòu)和拓?fù)浣Y(jié)構(gòu),在頸部/手臂/腰部區(qū)域包含孔,因此它們可以適合身體,并且具有良好的網(wǎng)格質(zhì)量,可以進(jìn)行物理仿真。最后,紋理估算模塊可生成高保真紋理貼圖,這些貼圖具有全局和局部一致性,并能忠實(shí)捕捉輸入導(dǎo)向,從而渲染生成的 3D 資產(chǎn)。
借助 Garment3DGen,用戶(hù)可以生成自己選擇的紋理3D服裝,而無(wú)需藝術(shù)家干預(yù)。人們可以提供文字提示來(lái)描述他們想要生成模擬就緒的 3D 資產(chǎn)的服裝。