Meta挑戰(zhàn)OpenAI,宣布推出生成式音視頻新型AI模型

?? 由 文心大模型 生成的文章摘要

Meta宣布已建立了一個名為Movie Gen的新AI模型,該模型可以根據(jù)用戶提示創(chuàng)建逼真的視頻和音頻剪輯,并聲稱可以與OpenAI和ElevenLabs等領(lǐng)先媒體生成式AI初創(chuàng)公司的工具相媲美。

Meta提供的Movie Gen創(chuàng)作樣本包括動物游泳和沖浪視頻,以及使用真實(shí)照片來描繪在畫布上繪畫等動作的視頻。

Meta一篇博文表示,Movie Gen還可以生成與視頻內(nèi)容同步的背景音樂和音效,并使用該工具編輯現(xiàn)有視頻。

在其中一個視頻中,Meta使用工具將絨球放入到一位獨(dú)自在沙漠中奔跑的男子手中;而在另一段視頻中,它將一位男子正在玩滑板的停車場從干燥的地面變成了水花飛濺的水坑。

Meta表示,Movie Gen制作的視頻最長可達(dá)16秒,音頻最長可達(dá)45秒。該公司分享的盲測數(shù)據(jù)顯示,該模型的表現(xiàn)優(yōu)于Runway、OpenAI、ElevenLabs和Kling等公司的產(chǎn)品。

好萊塢一直在致力于研究如何采用生成式AI視頻技術(shù),OpenAI今年2月展示了其產(chǎn)品Sora 如何根據(jù)文本提示制作類似電影的視頻。

娛樂行業(yè)的技術(shù)人員渴望使用此類工具來增強(qiáng)和加快電影制作,而其他人則擔(dān)心采用似乎未經(jīng)許可就接受版權(quán)作品訓(xùn)練的系統(tǒng)。

Meta發(fā)言人表示,公司不太可能像其Llama系列大型語言模型那樣將Movie Gen公開供開發(fā)者使用,并表示會單獨(dú)考慮每種模型的風(fēng)險。

相反,Meta正直接與娛樂界和其他內(nèi)容創(chuàng)作者合作使用Movie Gen,并將在明年某個時候?qū)⑵湔系組eta產(chǎn)品中。

根據(jù)Meta發(fā)布的有關(guān)該工具的博文和研究論文,Meta基于許可和公開可用的數(shù)據(jù)集來構(gòu)建Movie Gen。

「93913原創(chuàng)內(nèi)容,轉(zhuǎn)載請注明出處」