阿里通義萬相宣布 “首尾幀生視頻模型” 開源。該模型參數(shù)量達(dá)140億,是業(yè)界首個百億參數(shù)規(guī)模的開源首尾幀視頻模型。用戶只需指定開始和結(jié)束圖片,它就能生成一段能銜接首尾畫面的720p高清視頻,滿足用戶更可控、更定制化的視頻生成需求。?
相較于文生視頻、單圖生視頻,首尾幀生視頻的可控性更高,是AI視頻創(chuàng)作者最青睞的功能之一。但這類模型的訓(xùn)練難度較大,要同時滿足指令遵循、視頻內(nèi)容與首尾幀一致性、視頻過渡自然流暢性等多項高要求。?
基于現(xiàn)有的Wan2.1文生視頻基礎(chǔ)模型架構(gòu),通義萬相首尾幀生視頻模型引入了額外的條件控制機(jī)制,實現(xiàn)流暢且精準(zhǔn)的首尾幀變換。在訓(xùn)練階段,團(tuán)隊構(gòu)建了專門用于首尾幀模式的訓(xùn)練數(shù)據(jù),同時針對文本與視頻編碼模塊、擴(kuò)散變換模型模塊采用并行策略,提升了模型訓(xùn)練和生成效率,保障了高分辨率視頻生成效果。在推理階段,為在有限內(nèi)存資源下支持高清視頻推理,模型分別采用模型切分策略以及序列并行策略,在確保推理效果無損的前提下,顯著縮短推理時間。?
基于該模型,用戶能完成更復(fù)雜、更個性化的視頻生成任務(wù)。例如,上傳相同位置不同時間段的兩張外景圖片,輸入一段提示詞,就能生成一段四季交替變化或者晝夜變化的延時攝影效果視頻;上傳兩張不同畫面的場景,通過旋轉(zhuǎn)、搖鏡、推進(jìn)等運鏡控制銜接畫面,既能保證視頻和預(yù)設(shè)圖片一致性,又能讓視頻擁有更豐富的鏡頭。?
用戶可在通義萬相官網(wǎng)直接免費體驗該模型,也可在Github、Hugging Face、魔搭社區(qū)下載模型進(jìn)行本地部署和二次開發(fā)。此次開源,有望進(jìn)一步推動AI視頻生成技術(shù)的發(fā)展與應(yīng)用,為創(chuàng)作者提供更強(qiáng)大的創(chuàng)作工具。