國內最大AI圖像創(chuàng)作平臺 LiblibAI接入阿里通義系列大模型

?? 由 文心大模型 生成的文章摘要

國內AI領域迎來一項重大進展,最大AI圖像創(chuàng)作平臺LiblibAI成功接入阿里通義系列大模型。這一合作標志著AI創(chuàng)作領域將迎來新一輪的革新,為廣大創(chuàng)作者帶來更為強大且高效的創(chuàng)作工具。?

在此次接入后,基于萬相最新開源模型打造的文生視頻、圖生視頻功能備受矚目。用戶只需輸入提示詞,或者上傳一張圖片,平臺就能生成一段時長10秒的視頻。以萬相2.1(Wan2.1)為例,其性能卓越,在Hugging Face及魔搭社區(qū)的總下載量已超200萬,在Github的Star數(shù)超8.7k。

萬相視頻生成模型在算法設計上獨具匠心,它基于主流DiT架構和線性噪聲軌跡范式,研發(fā)了高效的因果3D VAE、可擴展的預訓練策略等。像在3D VAE 中,為了高效支持任意長度視頻的編碼和解碼,萬相在因果卷積模塊中實現(xiàn)了特征緩存機制,代替直接對長視頻端到端的編解碼過程,從而實現(xiàn)了無限長1080P視頻的高效編解碼。并且,通過將空間降采樣壓縮提前,模型在推理時能夠在不損失性能的情況下,進一步減少29%的內存占用。此外,1.3B 版本的視頻生成模型僅需8.2GB顯存即可生成高質量視頻,在消費級顯卡上就能運行,適用于二次模型開發(fā)和學術研究。?

除了視頻生成功能的升級,LiblibAI在提示詞優(yōu)化方面也取得了重大突破。LiblibAI基于Qwen – turbo打造了全新的提示詞窗口,通過預先設置好的系統(tǒng)提示(System Prompt),能幫助用戶對提示詞進行優(yōu)化。不僅如此,該窗口還具備一項實用功能,可將中文提示詞精準翻譯為模型能夠理解的英文提示詞。

據LiblibAI官方介紹,在接入Qwen – turbo后,平臺的提示詞優(yōu)化時間大幅縮短,超過了50%。這意味著創(chuàng)作者能夠更快地獲得更符合模型需求的提示詞,極大地提升了創(chuàng)作效率。以一位經常使用AI創(chuàng)作的插畫師為例,以往他花費在優(yōu)化提示詞上的時間可能要20分鐘左右,接入新功能后,同樣的工作僅需不到10分鐘就能完成,大大加快了他的創(chuàng)作流程。

「93913原創(chuàng)內容,轉載請注明出處」