近日,MIT計算機科學與人工智能實驗室和Google研究團隊提出了一套系統(tǒng),,在不影響手機耗電量等性能的情況下,,可以實時對照片細節(jié)進行修復,,讓拍照者立即得到HDR圖像。
高動態(tài)范圍(HDR),就是利用每個曝光時間相對應最佳細節(jié)的LDR圖像來合成最終HDR圖像,,它能夠更好地反映出真實環(huán)境中的視覺效果。
換言之,,就是在拍照時,,如果考慮高光區(qū)域的曝光,暗部細節(jié)就會丟失,;而照顧暗部細節(jié),,高光區(qū)域就會過曝。為了解決這一問題,,可以利用相機連拍至少三種曝光度以上的照片,,最后再用軟件合成一張保留所有細節(jié)的照片,此技術稱為HDR技術,。
據(jù)悉,,早在16年的Google Pixel手機上,Google就開發(fā)了相關算法和軟件,,并顯著改善了手機拍攝出的照片質(zhì)量,。其中,,復雜高動態(tài)范圍(HDR)算法是其技術核心,它可以捕獲數(shù)字圖像中顏色丟失的微小變化,,但是受限于智能手機硬件的處理能力,,而未能發(fā)揮很好的作用。
而早在2015年,,MIT的研究生Michael Gharbi就開發(fā)了一個“轉(zhuǎn)換器”,,它可以很好地解決Google面對的問題,大大降低圖像處理所需的帶寬和功耗,。
該“轉(zhuǎn)換器”的具體實現(xiàn)就是,,讓手機向網(wǎng)絡服務器發(fā)送圖像的低分辨率版本,隨后服務器發(fā)送回一個針對性的轉(zhuǎn)換算法,,將手機上低分辨率版本的圖像修改為高分辨率的圖像,。“轉(zhuǎn)換器”使得智能手機能在短時間內(nèi)進行復雜的圖像處理,,且不耗費大量的電量,。
據(jù)了解,最新的這套系統(tǒng)是Google在MIT的這款“轉(zhuǎn)換器”之上,,結合自己已有的系統(tǒng)開發(fā)出來的,。
對此,Gharbi說:“Google聽說了我做的工作,,于是他們自己做了后續(xù)的工作,合并了兩種方法,。而現(xiàn)在我們要做的就是要讓算法自己學習和選擇,,即融入AI,而無需人為向云端服務器發(fā)送圖像,。目前來看,,第一個目標就是加速和優(yōu)化程序,使其能在手機上運行,?!?/p>
為了實現(xiàn)快速處理,團隊開始從圖像的低分辨率版本來進行處理,,但因為高分辨率圖像中的各個像素的顏色值變化微小,,而機器學習系統(tǒng)必須從自身的“粗糙輸出”辨識出圖像各像素點的細微顏色變化特征,以判斷出圖像處理算法的類型,,因此最大的難點依然是高分辨率采樣的簡單實現(xiàn),。
為此,該團隊對機器學習系統(tǒng)進行大量的訓練,,在其輸出設置上,團隊沒有讓系統(tǒng)輸出完整的圖像,,而是輸出表示圖像中像素點顏色修改程度的公式,。在訓練中,,根據(jù)輸出公式應用到原始圖像后的效果與潤飾后版本的近似程度,,系統(tǒng)對機器學習性能進行判斷,以此對其自身進行優(yōu)化,。
目前研究團隊已對機器學習系統(tǒng)進行了5000張圖像數(shù)據(jù)集的訓練,其中每張圖像都具有五個不同的潤飾變體,。
現(xiàn)在,,在處理高分辨率圖像上,,融入AI的HDR算法比原始算法快了100倍,,這也就意味著在很少的運存和電池電量的情況下,手機可以實時顯示HDR算法修過的圖像,。
Google Research的Jon Barron表示,,使用機器學習進行計算機攝影的改進是一項令人興奮的想法,但一直受限于手機的處理器能力和電源容量?,F(xiàn)在我們找到了避開這些問題的方法,,并將會使用戶有很棒的實時攝影體驗。