TryOnDiffusion
TryOnDiffusion簡介
TryOnDiffusion是一種基于兩個UNet的擴散架構,旨在生成穿在輸入人物身上的服裝的可視化效果圖。該方法能夠在保留服裝細節的同時,適應顯著的身體姿勢和形狀變化。TryOnDiffusion在定性和定量上都取得了最先進的性能,是一種非常有效的虛擬試衣技術。
TryOnDiffusion 可以將兩幅圖片進行合成,幫照片中的人物更換不同的服飾。一張是展示某個人,另一張是展示另一個人所穿的服裝——生成一張圖像,展示這件服裝可能在輸入的人身上的樣子。此前這類模型通常會存在缺乏服飾細節的缺點。傳統的合成方法通常只能接受造型區別不大的兩張圖片,否則合成出來的新圖片會出現服裝變形嚴重的情況。而 TryOnDiffusion 利用一種被稱為并行 UNet 的擴散式架構,讓合成的照片可以在保留服飾細節的情況下適應人體的姿勢以及形狀變化。
TryOnDiffusion特點:
該模型使用擴散技術,展示不同體型和姿勢的人穿著衣物的效果。
新的ai模型能夠生成高質量、逼真的試穿圖像。
該模型使用圖像擴散和交叉注意力技術,而非文本輸入。
為了提高準確性,該模型使用Google購物圖譜進行訓練。
虛擬試衣間功能現已支持Anthropologie、LOFT、H&M和Everlane等品牌的女士上衣。
該功能將逐步擴展到更多品牌。
目前沒有開源。