
繼在谷歌I/O開發(fā)者大會公布產(chǎn)品更新之后,谷歌宣布將在搜索引擎中添加虛擬試穿功能。
從現(xiàn)在開始,美國消費(fèi)者可以使用該功能,該功能將使在線購買衣服變得更加容易。與眾不同的是,谷歌沒有將服裝數(shù)字版本疊加在買家虛擬化身上呈現(xiàn),而是基于人工智能在真實模特身上展示高度詳細(xì)的服裝。

谷歌產(chǎn)品管理高級總監(jiān)Lilian Rincon表示:“我們新的生成式AI模型可以只拍攝一張服裝圖像,便能準(zhǔn)確反映在各種人體姿勢、各種真實模型上懸垂、折疊、緊貼、拉伸以及皺紋和陰影,為此我們特意挑選了XXS-4XL碼的真實模特,以代表不同的膚色、體型、種族和頭發(fā)類型?!?/p>
目前市場上大多數(shù)虛擬試穿工具都是采用幾何變形等技術(shù)以創(chuàng)建服裝虛擬化身,這種技術(shù)可以使服裝圖像變形以適合一個人的形象/虛擬化身。這種方法是有效的,但輸出形式往往并不完美,存在明顯的擬合錯誤——例如不必要的折疊。
為了解決這個問題,谷歌開發(fā)了一種新的基于擴(kuò)散的人工智能模型,擴(kuò)散是通過向圖像添加額外像素直到它變得無法識別然后反轉(zhuǎn)(或去噪)以完美質(zhì)量重建原始圖像來訓(xùn)練模型的過程,使該模型從中學(xué)習(xí)并逐漸從隨機(jī)噪聲圖像中生成新的高質(zhì)量圖像。
基于數(shù)據(jù)和擴(kuò)散技術(shù),該模型學(xué)會了在不同姿勢站立、不同的模特身上渲染服裝。這樣,每當(dāng)用戶在搜索引擎上瀏覽某件衣服點(diǎn)擊試穿時,就可以先選擇一個具有相似體型和尺寸的模特,然后看看這件衣服是否適合。
谷歌高級研究員Ira Kemelmacher-Shlizerman表示:“每張圖片都被發(fā)送到神經(jīng)網(wǎng)絡(luò)(U-net),并在稱為‘交叉注意力’的轉(zhuǎn)換過程中與其他神經(jīng)網(wǎng)絡(luò)共享信息以生成輸出:逼真的服裝圖像?!?/p>
來源:VentureBeat








