3 月 6 日消息,,從騰訊混元微信公眾號(hào)獲悉,騰訊混元發(fā)布圖生視頻模型并對(duì)外開(kāi)源,,同時(shí)上線對(duì)口型與動(dòng)作驅(qū)動(dòng)等玩法,,并支持生成背景音效及 2K 高質(zhì)量視頻。
基于圖生視頻的能力,,用戶只需上傳一張圖片,,并簡(jiǎn)短描述希望畫(huà)面如何運(yùn)動(dòng)、鏡頭如何調(diào)度等,,混元即可按要求讓圖片動(dòng)起來(lái),變成 5 秒的短視頻,,還能自動(dòng)配上背景音效,。此外,上傳一張人物圖片,,并輸入希望 " 對(duì)口型 " 的文字或音頻,,圖片中的人物即可 " 說(shuō)話 " 或 " 唱歌 ";使用 " 動(dòng)作驅(qū)動(dòng) " 能力,,還能一鍵生成同款跳舞視頻,。
目前用戶通過(guò)混元 AI 視頻官網(wǎng)(https://video.hunyuan.tencent.com/)即可體驗(yàn),企業(yè)和開(kāi)發(fā)者可在騰訊云申請(qǐng)使用 API 接口使用,。
此次開(kāi)源的圖生視頻模型,,是混元文生視頻模型開(kāi)源工作的延續(xù),模型總參數(shù)量保持 130 億,,模型適用于多種類型的角色和場(chǎng)景,,包括寫(xiě)實(shí)視頻制作、動(dòng)漫角色甚至 CGI 角色制作的生成,。
開(kāi)源內(nèi)容包含權(quán)重,、推理代碼和 LoRA 訓(xùn)練代碼,支持開(kāi)發(fā)者基于混元訓(xùn)練專屬 LoRA 等衍生模型,。目前在 Github,、HuggingFace 等主流開(kāi)發(fā)者社區(qū)均可下載體驗(yàn)。
混元開(kāi)源技術(shù)報(bào)告披露,,混元視頻生成模型具備靈活的擴(kuò)展性,,圖生視頻和文生視頻在相同的數(shù)據(jù)集上開(kāi)展預(yù)訓(xùn)練工作。在保持超寫(xiě)實(shí)畫(huà)質(zhì),、流暢演繹大幅度動(dòng)作,、原生鏡頭切換等特性的基礎(chǔ)上,,讓模型能夠捕捉到豐富的視覺(jué)和語(yǔ)義信息,并結(jié)合圖像,、文本,、音頻和姿態(tài)等多種輸入條件,實(shí)現(xiàn)對(duì)生成視頻的多維度控制,。
目前,,混元開(kāi)源系列模型已經(jīng)完整覆蓋文本、圖像,、視頻和 3D 生成等多個(gè)模態(tài),,在 Github 累計(jì)獲得超 2.3 萬(wàn)開(kāi)發(fā)者關(guān)注和 star。