阿里發布Wan2.7-Video視頻生成模型!從演邁向導 聚焦創作全鏈路

阿里發布Wan2.7-Video視頻生成模型!從演邁向導 聚焦創作全鏈路

文章圖片


快科技4月3日消息 , 阿里巴巴今日正式發布Wan2.7-Video視頻生成系列模型 , 涵蓋文生視頻、圖生視頻、參考生視頻和視頻編輯四大模型 。
新模型擁有全面的創作控制力 , 將AI的能力從單一素材生成擴至創作全鏈路 , 從“演”邁向“導” 。

據介紹 , 當前AI生視頻距離影視級創作工具仍有距離 , 而由四個專業模型組成的萬相2.7試圖補齊這些能力 。
全新發布的文生視頻(Wan2.7-t2v)、圖生視頻(Wan2.7-i2v)、參考生視頻(Wan2.7-r2v)和視頻編輯(Wan2.7-videoedit)分別對應從零創作、畫面控制、演繹復刻到精細編輯的完整工作流 。
其可實現文本、圖像、視頻、音頻全模態輸入的統一創作體系 , 全系列支持720P和1080P分辨率輸出 , 視頻時長可在2至15秒范圍內任意指定 。
Wan2.7-Video擁有強大的視頻編輯能力 , 一句話即可對視頻進行局部或整體修改 。
例如添加、刪除和替換元素、切換場景環境(如將晴天改為雨天、夏季改為冬季) , 以及變換整體視覺風格(如寫實轉水彩、真人轉黏土動畫) 。
它還融合了編輯和生成能力 , 角色的行為、表情和情緒均可調整 , 角色臺詞可替換并自動匹配口型與音色;同時拍攝方式也可重新定義 , 包括機位、視角、景別和焦距等參數 。
在參考生視頻上 , 模型還支持動作、運鏡和特效的快速復刻 。
用戶可輸入圖像、視頻和音頻多模態 , 參考鎖定角色的外觀和音色、精準遷移人物動作 , 即便是大幅度的復雜動作也能穩定還原 。 最多支持5個視頻主體參考 , 為業內最多 。

值的注意的是 , Wan2.7-Video只需一段簡短的文字描述 , 即可實現智能劇本創作和分鏡調度 , 編排劇情節奏、設計鏡頭語言并安排場景轉換 。
在運鏡方面 , Wan2.7-Video支持數十種基礎運鏡和復雜的組合運鏡方案 , 并能與劇情內容緊密配合 , 強化敘事張力 。
此外 , Wan2.7-Video在視覺風格和聲音控制上也有所突破 , 可延展出上千種風格組合 , 覆蓋2D卡通、3D動畫、水墨、黏土、賽璐璐等多種視覺語言 。
【阿里發布Wan2.7-Video視頻生成模型!從演邁向導 聚焦創作全鏈路】即日起 , 用戶可在https://tongyi.aliyun.com/wan/、wan.video網站和阿里云百煉體驗Wan2.7 , 千問App也即將接入 。

    推薦閱讀