近日,Apple 研究人員聯(lián)手普渡大學發(fā)布了一項名為 DarkDiff 的攝影黑科技,旨在解決智能手機在極端微光環(huán)境下拍照滿是噪點、細節(jié)模糊的痛點。這項技術(shù)通過將生成式擴散模型直接引入相機的圖像信號處理(ISP)流程,讓手機鏡頭在黑暗中也能捕捉到驚人的細節(jié)。
傳統(tǒng)的夜景模式往往依賴后期算法降噪,但這常導致照片出現(xiàn)像油畫一樣的虛假感或嚴重的涂抹痕跡。DarkDiff 的創(chuàng)新之處在于它并非簡單的“后期修圖”,而是讓 AI 在圖像生成的最初階段就參與進來。它通過學習海量影像數(shù)據(jù),能夠“預判”并恢復傳感器在暗光下丟失的紋理與色彩。為了防止 AI “憑空捏造”不真實的物體,研究團隊還引入了局部斑塊注意力機制,確保生成的每一處細節(jié)都符合拍攝現(xiàn)場的實際結(jié)構(gòu)。
在實際測試中,研究人員使用索尼 A7SII 模擬極暗環(huán)境,在僅有0.033秒的極短曝光下,DarkDiff 還原出的照片質(zhì)量極高,甚至能與使用三腳架進行300倍時長曝光的參考照片相媲美。
盡管效果驚人,但該技術(shù)要真正裝進 iPhone 仍面臨挑戰(zhàn)。由于擴散模型對算力要求極高,運行起來非常耗電,未來可能需要依賴云端處理。該模型目前在識別弱光環(huán)境下的非英語文字時仍有局限。雖然蘋果尚未透露這項技術(shù)何時正式商用,但這無疑展示了未來移動攝影在 AI 加持下的無限潛力。











