實測Seedance 2.0:當AI成為導演,Sora 2被超越了?

實測Seedance 2.0:當AI成為導演,Sora 2被超越了?

文章圖片


【實測Seedance 2.0:當AI成為導演,Sora 2被超越了?】近日 , 字節跳動悄然上線了其新一代視頻生成模型Seedance 2.0 , 攪動了AI視頻比賽的進程 。
雖然字節官方還未對該模型進行官宣 , 僅從2月7日開始小范圍內測 , 但新京報貝殼財經記者從朋友圈中已經感受到了大眾對其生成效果的震撼 。 在社交平臺 , 有創作者發出了“不需要人類了 , AI制作AI看”的驚呼;有媒體直接宣稱“AI視頻第一階段的比賽 , 結束了” , 而根據字節在飛書里的一份產品介紹文檔 , Seedance2.0的開發者在文檔標題中留下了“Kill the game(殺死比賽)”幾個字 。
這已經不是第一次有AI模型震撼世界了 。 自Sora發布以來 , 全球視頻生成模型的軍備競賽就進入了白熱化階段 。 但Seedance 2.0的橫空出世 , 似乎預示著格局即將改寫 。
幾分鐘 , 人機大戰多角度云鏡“大片”一次生成
新京報貝殼財經記者使用Seedance2.0生成的視頻 。
2月9日 , 新京報貝殼財經記者在即夢平臺對Seedance2.0進行了實測 , 記者將一張照片作為首幀輸入 , 并輸入了“以這張照片為開頭 , 圖中人物扔掉紅色紙板擺功夫起手式 , 與宇樹機器人激戰 。 低角度跟拍側閃 + 機器人橫掃 , 中景快切拳掌撞金屬 , 特寫火花 + 鏡頭微震……”等提示詞 , 數分鐘后 , 即夢生成了上述視頻 。
視頻生成的提示詞界面 即夢平臺截圖
“從這個片段來看 , 我覺得厲害的地方就是 , 主體在相對劇烈的運動場景中 , 面部特征和衣著非常一致 , 沒有出現其他AI明顯的面部崩壞或衣物紋理閃爍的問題 , 眼鏡的反光和位置始終穩定(這點很重要 , 因為有一些AI在生成過程中身上的配件、裝飾經常會出現偏移、錯位 , 甚至崩壞) , 所以在物理規律這一塊做得很好 。 此外 , 陰天的統一性做得也很好 , 沒有出現改變分鏡后光影就發生改變的情況 , 這也是統一性的體現 。 ”看過上述視頻后 , 一位經常從事短片拍攝的專業攝影人士告訴新京報貝殼財經記者 。
“這個視頻的光影感模擬其實體現不明顯 , 可能提示詞沒有涉及 , 但至少沒有AI那種塑料感 。 之前 , 我使用veo3.1(谷歌旗下視頻生成模型)比較多 , veo3.1在真實度以及角色統一性做得比較好 , 而且能生成環境音 , 是市面上比較出色的視頻AI產品 。 但在這類高速運動模擬場景 , 涉及金屬部件碰撞 , 衣物的擺動、飄動自然物理反饋 , 目前看Seedance2.0更勝一籌 。 ”該攝影人士說 。
新京報貝殼財經記者發現 , 這段視頻里 , 人物主體性達到了驚人的一致 , 特別是人物的臉部和身材 , 模型依靠的僅僅是一張首幀照片 , 但在視頻運鏡過程中 , 以及最后視頻結尾 , 依然可以清晰分辨是“同一個人” , 雖然姿勢和神態都不一樣 。
據了解 , 在技術層面上 , 傳統AI視頻模型常因隨機性導致畫面邏輯斷裂 , 而Seedance 2.0通過原生多模態架構 , 將視覺與聽覺信號在訓練階段深度融合 , 實現了音畫同步 。 用戶上傳一張人物全身照后 , 模型能精準復刻服裝紋理、肢體動作 , 甚至模擬重力感與鏡頭慣性 。
值得注意的是 , 上述視頻為新京報貝殼財經記者一次生成的 。 在此之前 , 絕大多數AI模型的生成需要多次“抽卡” , 對此 , 有AI視頻生成使用者評價稱“沒見過一條就生成這么強勁的 。 ”
這或許說明 , 與“抽卡式”生成的前輩們不同 , Seedance 2.0不再是一個簡單的“素材生成器” , 而是一個能夠理解敘事邏輯、掌控視聽語言的“AI導演” 。
在目前網絡上的用戶測評中 , 有測試者認為Seedance 2.0的生成質量不僅對標Sora 2 , 甚至在某些維度實現超越 。 一位測試者用簡單的文字提示生成了一段堪比院線短片的鏡頭——花瓣飄落有層次感 , 人物動作連貫自然 , 連女孩說話的嘴型都能和聲音完美匹配 , 一次就達到可用標準 。
在動漫特效場景中 , Seedance 2.0處理“少年主角在戰斗中被擊倒后覺醒隱藏力量 , 釋放巨大能量斬擊”這類復雜提示時 , 表現出了令人驚訝的節奏把控能力 。 從被擊倒到覺醒的情緒轉折明確 , 特效爆發與動作銜接同步 , 最后的能量斬擊畫面讓測試者感嘆“已經可以直接放到動漫短視頻里用了” 。
不過 , Seedance 2.0也并非“完美無缺” , 如新京報貝殼財經記者在提示詞中本意為讓其生成“人與宇樹機器人”對戰的視頻 , 但最終生成視頻中的機器人并非市面上常見的宇樹機器人 , 更類似科幻電影中的機器人形象 , 不知其背后邏輯是為了規避版權 , 還是為了視頻整體的生成忽略了這一細節 。
從幾周到幾分鐘 , AI生成大幅降低高質量視頻內容創作門檻
Seedance 2.0的發布 , 在內容創作行業激起了千層浪 , 其最直接的影響是大幅降低了高質量視頻內容的創作門檻 。
以新京報貝殼財經記者生成的視頻為例 , 上述攝影人士表示 , 如果將這一視頻改為人工制作 , 主要涉及的技術包括:需要實拍(綠幕)或者完全的CG制作、動作捕捉、3D建模和動畫 , 后期的合成與調色等 , 上述每個技術崗位都要匹配多人 , 而且需要跨部門協作 。
制作開始時 , 前期需要概念設計 , 如確定表現形式、CG動畫形象(主要包括草稿、必要的話還要做一個人物模型demo)、分鏡腳本 。 中后期則會涉及動作捕捉、3D建模、動畫制作、合成、后期剪輯調色 , “這類短片一般涉及的時間也需要數周 , 時間成本粗略估計需要一兩個月的時間 。 ”
而在新京報貝殼財經記者的測試中 , 上述視頻所耗費的時間極短:記者首先找到了首幀照片 , 然后在AI輔助下生成一段提示詞 , 最后在即夢平臺進行生成 , 全程耗時不超過5分鐘 。
AI視頻作品質量的提高 , 將首先沖擊國內方興未艾的短劇行業 , AI漫劇則可能迎來又一個“春天” 。 過去12個月 , AI已經實現了從生成512像素小圖到10秒電影級短片的躍遷 。 而Seedance 2.0支持的多鏡頭敘事和角色一致性 , 使得制作情節連貫的微短劇成為可能 。 一位用戶在討論中感慨:“字節更新了文生視頻AI模型即夢2.0版本 , 動漫和短劇行業是不是要變天了?”
動漫和動畫行業同樣感受到了壓力 。 傳統動畫制作中耗時耗力的關鍵幀繪制、中間畫填充、口型同步等環節 , 如今可以在AI的輔助下極大提速 。 在實測中 , 用戶直接用Seedance 2.0生成的60秒AI動漫短劇 , 已經具備了可觀的完成度 。
更深層次的影響在于 , AI正在重塑內容生產的權力結構 。 當運鏡、分鏡、燈光、音效等專業導演技能被模型“封裝”后 , 創意和故事本身的價值被空前凸顯 。 創作者的核心競爭力 , 正在從“執行能力”向“構思與決策能力”轉移 。
開源證券發布研報認為 , Seedance 2.0在運鏡、分鏡、音畫同步等幾個關鍵地方都實現了很大的突破 , 能給用戶“導演級”的控制精度 , 甚至稱它可能是AI影視發展的“奇點” 。
真實世界遭“賽博克隆” , AI創作邊界在探索中前行
新京報貝殼財經記者注意到 , 在Seedance2.0的諸多測試中 , 某網紅博主上傳自己在公司樓門口拍攝的一張照片 , 并輸入提示詞讓其運鏡時 , 發現樓的另一面 , 以及AI生成視頻中網紅本人的口音都被AI以極大的相似程度模仿了出來 , 引發了關注 。
對此 , 有AI視頻領域的技術人員告訴新京報貝殼財經記者 , 國內外所有模型都會使用公開數據進行訓練 。 該網紅為明星級公眾人物 , 有大量高清視頻素材在網絡流傳 , 可能出現在各種公開的數據集中 , 因此模型才生成與他本人相似的聲音 。 普通人不會發生這類情況 。
此外 , 新京報貝殼財經記者在測試中發現 , 涉及名人或者知名IP版權的視頻生成 , 目前在即夢平臺上是有所限制的 。 如新京報貝殼財經記者在最開始想要生成李連杰與成龍 , 或者蝙蝠俠與鋼鐵俠的打戲 , 但被提示稱“視頻未通過審核 , 本次不消耗積分” 。
涉及知名人物、IP的視頻生成未能過審 即夢截圖
對此 , 新京報貝殼財經記者了解到 , Seedance2.0目前還處于小規模內測階段 , 正在加強安全防護措施 , 避免AI技術被濫用 。 這也證明了 , AI創作的邊界正在探索中前行 。
有數據顯示 , 2026年AI視頻生成工具市場規模預計突破300億美元 , 年增長率保持在40%左右 。 在這場技術革命中 , 有人會因技術門檻的降低而受益 , 也會有人因核心競爭力的轉移而掉隊 。
Seedance 2.0的橫空出世 , 或許預示著 , AI視頻第一階段的競爭正在逼近終點 。 但真正的比賽 , 才剛剛開始 。 這場新比賽的核心不是誰能生成更炫酷的視頻 , 而是如何在AI時代 , 重新定義創作的邊界、保護創作者的權益、找到人類不可替代的價值 。
這場關于視頻的“比賽”遠未結束 , 但它無疑已經進入了一個全新的、更激動人心的章節 。
新京報貝殼財經記者 羅亦丹 祁明遠
編輯 岳彩周
校對 柳寶慶

    推薦閱讀