Lightricks-2 AI視頻模型實現設備端運行突破

Lightricks-2 AI視頻模型實現設備端運行突破

很少有 AI 視頻模型能夠擺脫技術\"黑盒子\"的限制 , 更少有模型能夠在本地設備上高效運行而無需依賴云端服務 。 由 Lightricks 與英偉達合作開發的全新 AI 視頻模型 Lightricks-2 實現了這兩個突破 。
Lightricks 與英偉達在 2026 年 CES 科技展上聯合發布了這一模型 。 英偉達還展示了多項面向游戲玩家的 AI 驅動和下一代軟件更新 , 包括智能體助手、教育顧問和 AI 畫質增強器等 。
Lightricks 的新模型能夠創建長達 20 秒、50 幀每秒的 AI 視頻片段 , 這在行業 AI 視頻能力中處于較長時長范疇 。 該模型還將包含原生音頻功能 。 4K 生成能力對于希望將新模型用于專業級項目的創作者來說至關重要 。 但真正讓這一新模型脫穎而出的是其設備端運行能力 , 這使其與谷歌的 Veo 3 和 OpenAI 的 Sora 等競爭對手區別開來 。
該模型專為專業創作者設計 , 無論是獨立電影制作人還是大型工作室 。 對視頻片段質量的關注以及設備端優化 , 旨在使其成為傾向于使用 AI 的創作者更具吸引力和安全性的選擇之一 。
Lightricks 新模型的獨特之處
當 AI 公司談論\"開放\"模型時 , 他們通常指的是開放權重 AI 模型 。 這些模型并非真正的開源模型 , 后者需要公開流程的每個部分 。 但它們確實為開發者提供了對模型構建方式的洞察 。 權重就像蛋糕中的配料;開放權重模型告訴你制作過程中使用的所有配料 , 但你不知道每種配料的確切用量 。 Lightricks 的模型采用開放權重架構 , 現已在 HuggingFace 和 ComfyUI 上提供 。
Lightricks 的新視頻模型還能夠在設備本地運行 。 這在 AI 視頻領域通常并非如此 。 生成即使是短暫的 AI 視頻片段也是一個計算密集型過程 , 這就是為什么視頻模型比其他 AI 工具消耗更多能源的原因 。 要通過大多數 AI 視頻生成器獲得最佳效果 , 你需要谷歌或 OpenAI 使用的數據中心計算機來承擔重負荷工作并在云端生成視頻 , 而不是在你的筆記本電腦或手機上進行 。 通過英偉達的 RTX 芯片 , 你可以在不將工作負載外包給云服務的情況下獲得高質量結果 。
在本地運行 AI 模型有很多好處 。 你可以控制自己的數據;不必與可能使用這些數據來改進自己 AI 模型的大型科技公司分享 。 對于正在深入研究生成式 AI 但需要保護知識產權的大型娛樂工作室來說 , 這是一個極其重要的因素 。 在適當的設備上本地運行 AI 模型還能更快地為你提供結果 。 平均 AI 視頻提示需要 1-2 分鐘來生成 , 因此減少這一時間可以幫助節省時間和金錢 , 這是創作者將 AI 整合到工作中的兩個最有力論據 。
Q&A
【Lightricks-2 AI視頻模型實現設備端運行突破】Q1:Lightricks-2模型有什么特殊能力?
A:Lightricks-2是一個AI視頻生成模型 , 能夠創建長達20秒、50幀每秒的高質量視頻片段 , 支持4K分辨率和原生音頻功能 。 最重要的是 , 它可以在本地設備上運行 , 無需依賴云端服務 。
Q2:本地運行AI視頻模型有什么優勢?
A:本地運行能讓用戶完全控制自己的數據 , 不必與大型科技公司分享 , 這對需要保護知識產權的娛樂工作室尤其重要 。 同時還能獲得更快的生成速度 , 幫助創作者節省時間和成本 。
Q3:什么是開放權重AI模型?
A:開放權重模型向開發者公開模型構建的權重信息 , 就像告訴你蛋糕制作中使用的所有配料 , 但不提供每種配料的確切用量 。 這種模式提供了一定的透明度 , 但不是完全的開源 。


    推薦閱讀