
阿里通義萬(wàn)相宣布 “首尾幀生視頻模型” 開(kāi)源。該模型參數(shù)量達(dá)140億,是業(yè)界首個(gè)百億參數(shù)規(guī)模的開(kāi)源首尾幀視頻模型。用戶只需指定開(kāi)始和結(jié)束圖片,它就能生成一段能銜接首尾畫(huà)面的720p高清視頻,滿足用戶更可控、更定制化的視頻生成需求。?
相較于文生視頻、單圖生視頻,首尾幀生視頻的可控性更高,是AI視頻創(chuàng)作者最青睞的功能之一。但這類模型的訓(xùn)練難度較大,要同時(shí)滿足指令遵循、視頻內(nèi)容與首尾幀一致性、視頻過(guò)渡自然流暢性等多項(xiàng)高要求。?
基于現(xiàn)有的Wan2.1文生視頻基礎(chǔ)模型架構(gòu),通義萬(wàn)相首尾幀生視頻模型引入了額外的條件控制機(jī)制,實(shí)現(xiàn)流暢且精準(zhǔn)的首尾幀變換。在訓(xùn)練階段,團(tuán)隊(duì)構(gòu)建了專門(mén)用于首尾幀模式的訓(xùn)練數(shù)據(jù),同時(shí)針對(duì)文本與視頻編碼模塊、擴(kuò)散變換模型模塊采用并行策略,提升了模型訓(xùn)練和生成效率,保障了高分辨率視頻生成效果。在推理階段,為在有限內(nèi)存資源下支持高清視頻推理,模型分別采用模型切分策略以及序列并行策略,在確保推理效果無(wú)損的前提下,顯著縮短推理時(shí)間。?
基于該模型,用戶能完成更復(fù)雜、更個(gè)性化的視頻生成任務(wù)。例如,上傳相同位置不同時(shí)間段的兩張外景圖片,輸入一段提示詞,就能生成一段四季交替變化或者晝夜變化的延時(shí)攝影效果視頻;上傳兩張不同畫(huà)面的場(chǎng)景,通過(guò)旋轉(zhuǎn)、搖鏡、推進(jìn)等運(yùn)鏡控制銜接畫(huà)面,既能保證視頻和預(yù)設(shè)圖片一致性,又能讓視頻擁有更豐富的鏡頭。?
用戶可在通義萬(wàn)相官網(wǎng)直接免費(fèi)體驗(yàn)該模型,也可在Github、Hugging Face、魔搭社區(qū)下載模型進(jìn)行本地部署和二次開(kāi)發(fā)。此次開(kāi)源,有望進(jìn)一步推動(dòng)AI視頻生成技術(shù)的發(fā)展與應(yīng)用,為創(chuàng)作者提供更強(qiáng)大的創(chuàng)作工具。








