刷到一個又一個假視頻后,我不敢相信互聯網了

刷到一個又一個假視頻后,我不敢相信互聯網了

文章圖片

刷到一個又一個假視頻后,我不敢相信互聯網了

文章圖片

刷到一個又一個假視頻后,我不敢相信互聯網了

文章圖片

刷到一個又一個假視頻后,我不敢相信互聯網了

文章圖片

刷到一個又一個假視頻后,我不敢相信互聯網了

文章圖片

刷到一個又一個假視頻后,我不敢相信互聯網了

文章圖片

刷到一個又一個假視頻后,我不敢相信互聯網了

文章圖片

刷到一個又一個假視頻后,我不敢相信互聯網了

文章圖片

刷到一個又一個假視頻后,我不敢相信互聯網了

文章圖片



前陣子差評君刷到一個視頻 。
一只貓打碎花瓶后迅速逃走 , 主人從房間沖出來 , 二話不說把賬算到了旁邊狗頭上 。
狗一臉委屈 , 舉起爪子嗷嗷叫 , 仿佛在說:冤枉啊大哥 , 我沒動 。

靠 , 貓壞狗好的經典劇情 , 差評君當場就看樂了 。
但轉念一想 , 這會不會過于巧合了 , 還正好給人拍下來了?
直到我看到平臺那一條“疑似 AI 創作”的提示 , 以及評論區那句“我已經不能第一時間分辨出 AI 視頻” 。
差評君才意識到 , 這是一個徹頭徹尾的 AI 視頻 。

其實偶爾刷到一兩個 AI 視頻 , 不算什么大事 。
真正讓人細思極恐的是 , 最近兩周 , 我已經刷到了幾十個 AI 視頻 , 而且頻率越來越高 , 真假也更難以分辨 。
就說前兩天 , 抖音上有個視頻很火 。
一個國外高校教授忍無可忍 , 在課堂上批評學生使用 AI 完成作業 。 視頻被國內一堆藍 V 轉發 , 并配上黃字封標解讀 。

評論區的網友們也是一片叫好 , 紛紛贊揚教授的堅守 , 還有老師把這段視頻轉發給了學生 。

可真相你可能想不到 , 這段視頻本身——
就是 AI 。
大學教授查不到任何信息 , 兩只手也不自然 , 黑板上板書都是鬼畫符 。 類似的教授紅溫主題 AI 視頻 , 在 TikTok 上也有一堆 。
圖源@全民較真-騰訊新聞

諷不諷刺 , 魔幻不魔幻?
再看看下面這個 。
一匹失控的馬在路上橫沖直撞 , 先是踩碎了汽車玻璃 , 接著又撞壞了門板 。

視頻在 TikTok 上斬獲了 210 萬點贊 , 3 萬條評論 , 熱度爆表 。
符合直覺的物理反饋 , 抖動的鏡頭 , 整個畫面的真實感幾乎讓人無法質疑 , 差評君盯著每一幀都找不出破綻 。
直到最后發現作者主頁全是類似主題的 AI 視頻 , 我才勉強確認 , 這 TM 又是 AI 的杰作 。

其實差評君不反感 AI 視頻 。
還記得秦朗暑假作業事件嗎?擺拍可以 , 但你得標注清楚 , 不能拿擺拍當真事兒來忽悠大眾 。
同樣的道理 , 差評君并不是反感AI 視頻本身 , 而是反感那些不主動聲明的 AI 視頻 , 以及看到有噱頭的事件不去求證轉手就當新聞發的媒體 。
如果這種 AI 視頻欺騙網友的現象持續發生 , 那么很快:
每當大伙看到一個視頻時 , 第一反應不再是驚訝 , 而是立即產生條件反射般的懷疑——
這 , 不會又是 AI 吧?

這絕不是什么好兆頭 。
幾十年來 , 視頻憑借其制作門檻的天然壁壘 , 一直是最可信的媒介形式 。 圖片可以 P , 但從頭到尾做一個假視頻很難 。
可AI 視頻出現后的短短兩年 , 這道防線正在土崩瓦解 。
眼見為實成了過去式 。
你發現沒 , 越來越多的評論區已經不再討論內容本身了 , 而是變成大型偵探現?。 和衙侵鷸》治觥⒀罷?AI 痕跡 , 集體陷入了“我們已經分辨不出 AI”的恐慌中 。
震撼的變成了“真的假的” , 可愛的變成了“AI做的吧” , 驚奇的變成了“哪個模型生成的” 。

當 AI 視頻充斥并偽裝在社交媒體中 , 我們就徹底失去了純粹欣賞內容的權利 。 每看一個視頻 , 都要先當一回福爾摩斯 。
說實話 , 差評君已經受到影響了 。
前幾天我在小紅書刷到一段搬運視頻 , 英國演員 Simon Pegg 在 instagram 上對 AI 視頻深惡痛絕 。
他說自己原本特別享受刷小孩和小狗的互動視頻 , 看完心情都能好一天 , 結果現在這些視頻沒一個是真的 , 全是 AI 批量生產的 。

Simon 這段話 , 讓我深有共鳴 。
以前那些溫馨的、巧合的、讓人感動的瞬間之所以珍貴 , 就是因為它們不可復制 。 這種偶然性本身就是價值的一部分 。
但現在呢?
“貓狗互動”“動物救人”“完美時機” , 這些東西都能批量生產 , 要什么場景要什么情緒 , 都可以交給 AI 按需定制 。
當奇跡變成流水線產品 , 當社交媒體上全都是“巧合” , 大眾情感自然就會貶值、廉價 。

然而 , 正當差評君準備把這段視頻當文章素材、試圖找到原始出處時 , 卻遇到了一個問題——
我在西蒙 instagram 主頁上找不到這個視頻 , Google 搜索也一無所獲 , 我聯系了搬運者詢問出處 , 但截至發稿仍未收到回復 。
換句話說 , 現在 , 我無法確認這段“西蒙怒斥AI”視頻是真是假 。
去年的差評君 , 看到這種視頻可能還是會相信一下 。
但現在 , 一個再真實 , 再毫無破綻的視頻 , 只要沒找到最直接、最實錘的證據 , 我都不敢確定它是真的 。
這還不是最可怕的 。
最可怕的是 , 當我們越來越難以分辨 AI 視頻 , 謠言傳播將變得前所未有的容易 , 辟謠也越來越難 。
今年 1 月 , 西藏日喀則發生地震 , 社交媒體上迅速流傳一張震撼人心的照片:一個小男孩被壓在廢墟下 , 臉上滿是塵土 。 無數人被這張圖片深深觸動 , 轉發、評論、祈禱 , 關心這個孩子是否平安 。

直到相關話題沖上熱搜 , 官方辟謠 , 大家才發現:這是 AI 生成的圖 , 根本沒有這個孩子 。
那些真摯的擔心和情緒 , 全都喂給了一張假圖 。
3 月 , 新疆阿克蘇地區發生地震 , 震后僅僅三小時 , 就有人用 AI 拼接出“已致3人死亡、65戶房屋倒塌”的虛假圖片 。 實際上 , 這次地震根本沒有造成人員傷亡 。
這陣子 , 網上又流行起了用 AI 生成“流浪漢闖入進家”的圖片視頻去整蠱自己的家人 , 很多人都上當 , 甚至還報了警 。。。

可想而知 , 當視頻能被 AI 迅速偽造 , 當 AI 視頻越來越真實 , 謠言的傳播力就無法想象 , 辟謠的難度更會指數級上升 。
你可能會說 , 不是有監管 , 不是有技術手段可以識別 AI 嗎?
的確 , 平臺和監管部門都在努力——AI 檢測技術、強制水印、立法規范 , 各種措施層出不窮 。
但問題是:
識別技術總是慢生成技術一拍 , AI 視頻水印能被技術手段移除 , C2PA 也可以通過外部錄屏去掉 , 境外工具生成的 AI 視頻 , 你在境內也管不了 。 (C2PA 是一種嵌在圖片、視頻元數據中的認證標準 , 用于追溯內容創建 , 相當于出生證明)

差評君知道 , AI 視頻本身不是什么洪水猛獸 , 它確實能帶來創作便利和無限創意 。
但在擁抱技術紅利的同時 , 我們是否該警醒正在失去一些什么東西?
內容分析平臺 Graphite 曾發布過一項數據 , 早在 2024 年 11 月 , 網絡上 AI 生成的文章數量就超過了人類撰寫的文章 。
AI 視頻 , 會不會也快了?

也許要不了多久 , 只要一個視頻出現 , 評論區就會呈現出三種截然不同的反應 。 有人在評論區逐幀分析 , 有人點贊轉發 , 有人直接說“管它真假 , 開心就好” 。
當這種分化愈加明顯時 , 社會就會出現三種人 。
有被動接受者 , 他們不知道 AI 視頻的存在 , 照常被感動、逗樂 , 然后點贊 , 轉發給朋友 。
也有懷疑者 , 他們有能力也有精力去驗證每個視頻的真假;
還有放棄者 , 知道有假 , 但累了 。 每天做信息鑒定太麻煩 , 索性不管了——反正都是娛樂 , 真假無所謂 。
這讓我想起了《黑客帝國》里的經典一幕 , 墨菲斯遞給尼奧兩顆藥丸:
藍色藥丸 , 回到美夢中;紅色藥丸 , 看清殘酷真相 。

未來 , 我們也要面臨同樣的選擇 。
藍色藥丸的確很誘人 。 管它真假 , 刷到貓狗視頻就笑 , 刷到感人故事就哭 , 多簡單 。 反正 AI 做的夢也很美好 , 為什么要戳破它?
可是 , 當我們為一只不存在的狗感動落淚 , 當被一個虛構的故事騙取同情 , 當把情感投入到一堆代碼生成的像素里——
這樣的快樂 , 還是真的嗎?
【刷到一個又一個假視頻后,我不敢相信互聯網了】

    推薦閱讀