TryOnDiffusion
TryOnDiffusion簡(jiǎn)介
TryOnDiffusion是一種基于兩個(gè)UNet的擴(kuò)散架構(gòu),旨在生成穿在輸入人物身上的服裝的可視化效果圖。該方法能夠在保留服裝細(xì)節(jié)的同時(shí),適應(yīng)顯著的身體姿勢(shì)和形狀變化。TryOnDiffusion在定性和定量上都取得了最先進(jìn)的性能,是一種非常有效的虛擬試衣技術(shù)。
TryOnDiffusion 可以將兩幅圖片進(jìn)行合成,幫照片中的人物更換不同的服飾。一張是展示某個(gè)人,另一張是展示另一個(gè)人所穿的服裝——生成一張圖像,展示這件服裝可能在輸入的人身上的樣子。此前這類模型通常會(huì)存在缺乏服飾細(xì)節(jié)的缺點(diǎn)。傳統(tǒng)的合成方法通常只能接受造型區(qū)別不大的兩張圖片,否則合成出來的新圖片會(huì)出現(xiàn)服裝變形嚴(yán)重的情況。而 TryOnDiffusion 利用一種被稱為并行 UNet 的擴(kuò)散式架構(gòu),讓合成的照片可以在保留服飾細(xì)節(jié)的情況下適應(yīng)人體的姿勢(shì)以及形狀變化。
TryOnDiffusion特點(diǎn):
該模型使用擴(kuò)散技術(shù),展示不同體型和姿勢(shì)的人穿著衣物的效果。
新的ai模型能夠生成高質(zhì)量、逼真的試穿圖像。
該模型使用圖像擴(kuò)散和交叉注意力技術(shù),而非文本輸入。
為了提高準(zhǔn)確性,該模型使用Google購(gòu)物圖譜進(jìn)行訓(xùn)練。
虛擬試衣間功能現(xiàn)已支持Anthropologie、LOFT、H&M和Everlane等品牌的女士上衣。
該功能將逐步擴(kuò)展到更多品牌。
目前沒有開源。