從“幫你拍”到“教你拍”,會是AI相機的正確方向嗎

從“幫你拍”到“教你拍”,會是AI相機的正確方向嗎

文章圖片

從“幫你拍”到“教你拍”,會是AI相機的正確方向嗎

文章圖片

從“幫你拍”到“教你拍”,會是AI相機的正確方向嗎

文章圖片

從“幫你拍”到“教你拍”,會是AI相機的正確方向嗎

文章圖片

從“幫你拍”到“教你拍”,會是AI相機的正確方向嗎

文章圖片

從“幫你拍”到“教你拍”,會是AI相機的正確方向嗎

在我們的印象中 , 智能手機的“AI相機”這一概念 , 最早差不多出現在驍龍820時代 。 也就是說 , 它距今已有差不多10年左右的時間了 。

當然 , 并不是說這是一項“老”技術 , 因為在過去的這10年里 , 智能手機的AI影像算法、底層技術原理 , 已經經過了很多次的徹底換代 。 比如最早的“AI相機”基本只能對畫面進行自動的、不可調節的強烈提亮增艷 , 剛出現時確實讓部分用戶感到新奇 , 覺得“這樣挺好看” 。

一款2016年老手機所拍下 , 經過了“AI美化”的花
但時間一長 , 對于這種“AI相機”的批判、甚至嘲笑就開始多了起來 , 畢竟它拍出的顏色實在是“太假” 。 所以到了后來 , 廠商們對于手機AI相機的研發方向 , 開始逐漸轉向了所謂的“場景優化” , 也就是AI先要認出來拍的“是什么” , 然后再對不同的畫面施加不同的色彩和紋理增強算法 。
比如在識別出是食物時 , 就略微強化對比度 , 并對焦外施加虛化;識別出是人像 , 就調用美顏算法;識別出拍的是建筑和天空 , 就專門增強天空的藍色調等等 。

被攝體的左下角被錯誤地套用了虛化算法 , 直接“侵蝕”掉了
然而這樣的“AI相機” , 其實也存在著一個很大的問題 , 那就是在現實世界里拍照時 , 對象往往并沒有那么“單一” 。 比如一張風景照片可能前方是花朵、后方有建筑 , 再遠處還有藍天;又比如在大多數的人像拍攝場景中 , 被攝對象未必就會距離背景那么“遠” 。
那在這樣的情況下 , 如果“AI相機”只識別出了畫面的單一主體 , 只調用了一種算法 , 就可能會出現畫面里的其他部分被套用了錯誤算法 , 從而出現奇怪觀感的問題 。

正因為如此 , 到了前兩年 , “景深分割”就成了手機AI相機技術的最新成果 。 這是一種借鑒自高端電視的AI畫面識別技術 , 可以同時識別出畫面里的多層次內容 , 并辨別出它們的遠近關系 , 以及判斷其中“誰”是被攝主體、誰是不重要的前景和后景 。 再加上硬件的進步允許新機同時運行更大、更多的影像算法 , 因此同時對一幅畫面里的所有物體分別處理、套用更精確的增強算法 , 也就成為了可能 。

同一張照片 , 左圖為剛拍攝完的原片、右圖為幾秒后的AI增強結果
但這還沒完 。 畢竟智能手機的相機在硬件層面相比專業相機 , 無論在傳感器尺寸還是鏡頭的光學素質上 , 都還存在不小的差距 。 因此直接使用AI大模型“畫”出更多的細節 , 特別是增強超高倍率望遠照片的銳度和清晰度 , 就成為了近年來手機“AI相機”最流行的功能 。

非常典型的生成式“AI望遠”猜錯了字的場景
當然 , “AI望遠增強”其實槽點也不少 。 一是AI畫圖的過程多少帶點猜的意味 , 遇到復雜紋理或細小文字之類的情況 , “AI算法”就可能會猜錯 , 從而形成滑稽的效果 。 二是在目前的手機上 , AI增強算法不一定全都運行在手機的端側 。 一旦遇到那些嚴重依賴云端算力的機型 , 不僅就意味著拍照本身會消耗流量 , 而且萬一沒網了 , 所生成式的增強效果就可能就會大打折扣 , 甚至“原形畢露” 。
但是有經驗的朋友都知道 , 僅僅只是“色彩好看”、“虛化明顯”或“細節清晰” , 并不足以稱之為一張好的照片 。 因為攝影藝術還需要用戶有對空間感的正確把握、能準確地找到最合適的構圖角度 , 甚至是為了傳達特定的畫面氛圍 , 而刻意去強調、扭曲某些色彩風格和光影關系 。

再強大的“AI相機” , 現階段也拯救不了“不會拍照”的用戶
然而以上這些 , 對于此前的手機“AI相機”而言 , 基本上都是無法做到的 。 說得更簡單一點 , 假如一位毫無攝影技巧的用戶 , 在拍照時胡亂構圖、亂加濾鏡 , 那么AI能給“救回來”嗎?顯然不能 , 因為這些“AI相機”并不能主動干涉用戶拍照的人為操作流程 , 它們的算法基本都是發生在用戶按下快門之后 。 如此一來 , 這實際上就會變成一種“屎上雕花”的尷尬情況 。

而且即便是對那些有志于鍛煉自己拍照技術的朋友來說 , 現有的手機“AI相機”能幫到Ta們嗎?恐怕也很難 。 因為這些AI實在是太過于“智能” , 當廠商們并不愿意告訴用戶 , 他們的AI到底“調整”了圖片里的哪些內容時 , 就算AI最終能產出好看的照片 , 用戶也很難從中意識到Ta們應該如何改進自己的拍攝技巧 。

【從“幫你拍”到“教你拍”,會是AI相機的正確方向嗎】正因如此 , 當有爆料顯示 , 谷歌方面或將會把“AI輔助用戶提升拍攝技巧”作為Pixel 10系列新機的一個賣點時 , 確實就令我們感到了眼前一亮 。

相關爆料顯示 , Pixel 10系列機型中的“拍攝技巧AI”將基于Gemini大模型實現 , 它可以指導用戶調整拍攝時的取景角度 , 告知用戶應該如何注意光線情況等 。 據稱 , 其原理是先用相機“看到”取景器里的景象 , 然后透過機內預置的“相機教練”模型識別當前的構圖、光線角度、被攝對象類型等信息 , 并最終轉化為給用戶提供的拍攝步驟指導 。
看到這里 , 可能有朋友會想到過去一些機型(比如三星)上很早就出現的“構圖助手”功能 。 但那更多僅僅只是識別出了畫面里最容易對上焦、占畫面比例最大的物體中心在哪 , 實際上并沒有涉及到真正的“攝影科學” , 而且也缺乏對用戶的詳細指導 。 相比之下 , 谷歌這次帶來的新功能 , 很有可能是智能手機上首次出現真正具備交互能力、旨在“教用戶拍好照”的解決方案 。

“AI教拍照”對于頂級影像旗艦來說 , 或許會很有意義
當然 , 站在用戶的角度來說 , 倒也未必所有人都會喜歡這個方案 。 因為不能否認 , 還是會有一部分用戶就是不想學習 , 只愿意隨便怎么按快門 , 剩下的一切都交給AI 。 但對于目前的手機行業來說 , 當有越來越多的廠商開始主張他們的影像旗艦機型“具有專業屬性、能夠作為生產力設備”時 , 至少對于這類產品來說 , 能夠真正提升用戶的拍照水準 , 顯然會是一個相當有意義的賣點 。
打個比方 , 就好比不是所有的駕駛者都會愿意智能汽車教自己怎么遵守交通規則 , 但哪個性能車的用戶會拒絕一套能讓你在賽道里開得更快的AI教練呢?
【本文部分圖片來自網絡】

    推薦閱讀