阿里通義萬相宣布 “首尾幀生視頻模型” 開源。該模型參數(shù)量達(dá)140億,是業(yè)界首個百億參數(shù)規(guī)模的開源首尾幀視頻模型。用戶只需指定開始和結(jié)束圖片,它就能生成一段能銜接首尾畫面的720p高清視頻,滿足用戶更可控、更定制化的視頻生成需求。?
相較于文生視頻、單圖生視頻,首尾幀生視頻的可控性更高,是AI視頻創(chuàng)作者最青睞的功能之一。但這類模型的訓(xùn)練難度較大,要同時滿足指令遵循、視頻內(nèi)容與首尾幀一致性、視頻過渡自然流暢性等多項高要求。?
基于現(xiàn)有的Wan2.1文生視頻基礎(chǔ)模型架構(gòu),通義萬相首尾幀生視頻模型引入了額外的條件控制機(jī)制,實現(xiàn)流暢且精準(zhǔn)的首尾幀變換。在訓(xùn)練階段,團(tuán)隊構(gòu)建了專門用于首尾幀模式的訓(xùn)練數(shù)據(jù),同時針對文本與視頻編碼模塊、擴(kuò)散變換模型模塊采用并行策略,提升了模型訓(xùn)練和生成效率,保障了高分辨率視頻生成效果。在推理階段,為在有限內(nèi)存資源下支持高清視頻推理,模型分別采用模型切分策略以及序列并行策略,在確保推理效果無損的前提下,顯著縮短推理時間。?
基于該模型,用戶能完成更復(fù)雜、更個性化的視頻生成任務(wù)。例如,上傳相同位置不同時間段的兩張外景圖片,輸入一段提示詞,就能生成一段四季交替變化或者晝夜變化的延時攝影效果視頻;上傳兩張不同畫面的場景,通過旋轉(zhuǎn)、搖鏡、推進(jìn)等運鏡控制銜接畫面,既能保證視頻和預(yù)設(shè)圖片一致性,又能讓視頻擁有更豐富的鏡頭。?
用戶可在通義萬相官網(wǎng)直接免費體驗該模型,也可在Github、Hugging Face、魔搭社區(qū)下載模型進(jìn)行本地部署和二次開發(fā)。此次開源,有望進(jìn)一步推動AI視頻生成技術(shù)的發(fā)展與應(yīng)用,為創(chuàng)作者提供更強(qiáng)大的創(chuàng)作工具。
阿里云宣布,已將旗下人工智能視頻生成模型免費開放,這是阿里云為開源社區(qū)貢獻(xiàn)力量的又一重要舉措。作為云計算領(lǐng)域的重要企業(yè),阿里云此次開源的是其Wan2.1系列中140B參數(shù)版本和13B參數(shù)版本的四個模型,這四個模型均為視頻基礎(chǔ)模型通義萬相的最新版本。
這四款模型分別為T2V-14B、T2V-1.3B、I2V-14B-720P和I2V-14B-480P,主要功能是基于文本和圖像輸入,生成高質(zhì)量的圖像與視頻。全球范圍內(nèi)的學(xué)術(shù)界、研究人員以及商業(yè)機(jī)構(gòu),均可在阿里云AI模型社區(qū)Model Scope和協(xié)作AI平臺Hugging Face上進(jìn)行下載使用。
Wan2.1系列模型在今年年初發(fā)布,它是業(yè)界首個支持中英文文本效果的視頻生成模型。
該模型通過對復(fù)雜動作的精準(zhǔn)處理、像素質(zhì)量的提升、物理原理的遵循以及指令執(zhí)行精度的優(yōu)化,能夠生成極為逼真的視覺效果。憑借對指令的精確遵循,Wan2.1在視頻生成模型綜合基準(zhǔn)測試套件VBench排行榜上榮登榜首,并且是Hugging Face VBench排行榜前五名中唯一的開源視頻生成模型。
根據(jù)VBench的測試結(jié)果顯示,Wan2.1系列整體得分達(dá)到86.22%,在動態(tài)度、空間關(guān)系、色彩、多物體交互等關(guān)鍵維度上均處于領(lǐng)先地位。
訓(xùn)練視頻基礎(chǔ)模型不僅需要龐大的計算資源,還依賴大量高質(zhì)量的訓(xùn)練數(shù)據(jù)。阿里云開放這些模型的訪問權(quán)限,有助于降低更多企業(yè)運用人工智能的門檻,讓企業(yè)能夠以經(jīng)濟(jì)高效的方式,創(chuàng)建出符合自身需求的高質(zhì)量視覺內(nèi)容。
具體來看,T2V-14B模型在創(chuàng)建具有大量運動動態(tài)的高質(zhì)量視覺效果方面表現(xiàn)更為出色;而 T2V-1.3B模型則在生成質(zhì)量和計算能力之間實現(xiàn)了良好平衡,對于進(jìn)行二次開發(fā)和學(xué)術(shù)研究的廣大開發(fā)人員來說,是較為理想的選擇。舉例來說,使用標(biāo)準(zhǔn)個人筆記本電腦的用戶,借助T2V-1.3B模型,僅需4分鐘就能生成一段分辨率為480p、時長5秒的視頻。