Adobe推出虛擬試穿技術,解決網購服裝不合身問題

天極網 發佈 2020-01-24T23:47:21+00:00

由於網購時無法試穿,看不到衣物上身效果,所以只能依靠模特的照片進行判斷。研究人員在一台16GB內存的個人電腦上使用4張Nvidia1080Ti顯卡進行實驗,對SieveNet進行了訓練,訓練數據包括約1.9萬張正面的女模特圖像和上身服裝產品圖像。

1月24日消息,現如今,網購已成為主流的購物方式。由於網購時無法試穿,看不到衣物上身效果,所以只能依靠模特的照片進行判斷。等到衣服到手之後,自己穿著又不合適,進而引發一系列的換貨、退貨問題。

調查顯示,29%的購物者在實際購買之前喜歡在網上瀏覽商品,而49%的人對根據他們的尺寸進行測量的解決方案感興趣,這樣他們可以在購買前確定商品是否合身。

基於這種想法,來自Adobe、印度理工學院和史丹福大學的研究人員探索了基於圖像的虛擬試穿技術,該技術名為SieveNet。它能夠在將衣服映射到虛擬身體時保留衣服的特徵,包括褶皺,而不會引起紋理模糊或滲色。

SieveNet的目標是獲取服裝圖像和人體模型圖像,並生成新的服裝模型圖像,並保留原始的身體形狀、姿勢和其他細節。為了實現這一點,它結合了一種多階段的技術,包括在將扭曲的紋理轉移到模型上之前,包括將衣服變形,以配合身體模型的姿勢,然後再將變形的紋理轉移到模型上。

研究人員表示,翹曲需要考慮衣服圖像之間形狀或姿勢的變化,以及模型圖像中的遮擋(例如,長發或雙臂交叉)。SieveNet中的專有模塊可以預測粗級轉換和在早期粗級轉換之上的細級修正,而另一個模塊可以在人體模型上計算渲染圖像和蒙版。

研究人員在一台16GB內存的個人電腦上使用4張Nvidia 1080Ti顯卡進行實驗,對SieveNet進行了訓練,訓練數據包括約1.9萬張正面的女模特圖像和上身服裝產品圖像。在定性測試中,該系統比基線更好地處理了遮擋、姿勢變化、深色、翹曲和整體質量保留。

研究人員指出,像SeiveNet這樣的系統可以更容易地整合到現有的應用程式和網站中。他們表示,虛擬試穿對於在線時裝交易尤為重要,因為它彌補了缺乏直接在實體店購物體驗的不足。

關鍵字: