• April 28, 2024

【手機雙攝像頭有什麼作用】手機雙攝像頭有什麼作用 |為什麼手機的攝像頭越來越多 |手機雙攝像頭原理及產業解析 |

        iPhone7plus,手機硬件升級,惹人注目它雙攝像頭了,現在手機雙攝像頭多樣化發展,那麼手機雙攝像頭有什麼作用?這裏大家介紹下。

  早期雙攝像頭多用途是提升手機照片後期處理能力和改善視覺效果,增加手機賣點,而於手機整體成像質量提升卻十分。解決這類問題,最近發佈雙攝像頭手機引入了一些技術,增加手機拍照趣味性同時,能進一步提升手機拍照性能。

黑白+彩色組合,黑白攝像頭負責捕捉到細節,能夠讓手機拍照效果出色。

彩色+彩色組合,是現在大多數手機採用雙攝組合,兩個攝像頭同時拍照,不僅能記錄物體景深數據,能有雙倍進光量。

廣角+組合,目前OPPO手機採用是這種搭配方式。

  最近備受關注華為P9(p20)便是採用了彩色+黑白雙攝像頭設計。事實上,首次採用類似雙攝像頭設計機型可以追溯到手機旗艦版。然而,這種雙攝像頭設計主要得益於索尼推出彩色+黑白雙傳感器。索尼推出這兩種搭載傳感器,主要目的應該是增強手機傳感器進光量,能提高弱光拍攝成像質量。原理方面,彩色傳感器負責記錄色彩信息,而黑白傳感器則負責分析光線,記錄畫面細節以及提高畫面亮度。

黑白攝像頭取消了分色濾鏡,所以會彩色攝像頭擁有進光量,圖像細節會。兩張圖像通過軟件進行融合,能得到一張普通彩色攝像頭照片。這種清晰度增強效果夜景拍攝時作用。

  因為黑白傳感器屬於全透光傳感器,進光量於彩色傳感器,因此能提高傳感器進光量。兩顆攝像頭同時參與成像,後通過軟件算法,兩個傳感器圖像信息整合生成一張照片。因此,彩色+黑白雙攝像頭設計,理論上提高弱光環境成像質量。

  LGG5可以是今年MWC2016展會上搶鏡產品,前衞模塊化設計,其雙攝頭設計可以説是科技滿滿。LGG5雙攝像頭設計上述提到其它機型完全,其配備一顆1600萬像素標準攝像頭以及一顆135度廣角攝像頭。這兩顆攝像頭可以獨立使用,可以比喻成一台配帶了兩種鏡頭,我們可以使用標準鏡頭拍攝,可以使用廣角鏡頭進行拍攝。,LGG5兩顆攝像頭可以同時使用。

  拍攝時,用户可以直接取景界面切換鏡頭(如上圖所示)。LGG5標準鏡頭配備光學防抖功能、光圈達到F1.8,而135度廣角攝像頭能拍攝出相當於10mm~12mm左右35mm等效焦距照片,拍攝風景大場面照片時具有衝擊力。

  外媒曝光了蘋果一項關於雙攝像頭設計專利。該專利顯示蘋果iPhone配備了兩個攝像頭模塊,一顆標準攝像頭和一顆攝像頭。使用場景LGG5雙攝像頭類,兩顆鏡頭拍攝時可以無縫切換,使用兩顆攝像頭。例如,可以通過焦鏡頭來實現圖像放大。

  值得一提的是,專利顯示,蘋果雙攝像頭可以同時並且獨立進行拍攝。來説,其中一顆攝像頭可以用來拍照片,而另一顆同時拍攝視頻。然而,生成文件可以存儲,可以通過軟件融合一起,玩法。

  上述內容,目前雙攝像頭設計跨越了於景深輔助功能。未來採用雙攝像頭機型可以地概括兩類,一類類似華P9彩色+黑白雙攝像頭設計,兩顆攝像頭參與成像。這種方案要求,鏡頭模組到算法要廠商大量做大量優化改良工作。此外,於這樣設計需求兩顆攝像頭成像,所以理論上完成比單顆攝像頭。而且,於兩顆攝像頭做到移動防抖,所以短期時間內會配備光學防抖功能,這是華P9什麼不配備光學防抖原因。

  以上我介紹手機雙攝像頭有什麼作用,希望你有幫助。

值得一提的是獨創雙攝像頭校準算法。於雙攝像頭生產而言,挑戰過於模組組裝公差不一致,導致進行深度計算。如果沒有相關技術,生搬抄,兩個攝像頭放在一起是無法實現雙攝像頭應有功能,會淪為兩個攝像頭而不是意義上雙攝像頭。

瞭解這一問題,開發了一套自己深度校準算法和設備。校準攝像頭配合特有深度計算ISP,能夠提供深度信息,滿足虛化要求。相比通用芯片實現功能和性能要求,功耗哦。

2、HTC,華、

早在2011年,HTC推出了第一款配備雙攝像頭手機EVO3D(G17),雙攝像頭功能是拍攝3D影像。三年後,HTC推出了配備雙攝像頭OneM8,「輔助」攝像頭功能是記錄景深數據,實現「拍照後焦」功能。HTC,華為和國產品牌推出過採用雙攝像頭手機,主要是提高夜間成像質量。最近一款配備雙攝像頭手機是LGG5,它兩顆攝像頭擁有視角,可以滿足多拍攝場景。

2014年,Corephotonics是一家來自以色列公司,它們設計雙攝像頭模塊可以提高夜間成像效果之外,還可以不使用體積變焦鏡頭前提下,手機增加光學變焦功能。目前Corephotonics雙攝像頭支持高通驍龍處理器,不過支持三星Exynos和聯發科處理器。

3.1Corephotonic目前提供了三種雙攝像頭模塊,其中基礎版本擁有一顆焦距定焦鏡頭和一顆普通廣角鏡頭,前者拍攝照片視野,後者視野,Corephotonic通過算法這兩張照片拼合,可以讓「模擬」出三倍光學變焦效果。此外,Corephotonic表示通過這種(Corephotonic它叫做「計算」)拍攝出來照片擁有分辨率,出色噪點控制,動態範圍,和景深數據。

3.2Corephotonic提供第二種雙攝像頭模塊擁有兩顆1300萬像素攝像頭,其中一顆只能記錄黑白兩種顏色,於提高暗光時拍照表現,這是Corephotonic目前攝像頭模塊。

3.3 第三種雙攝像頭模塊、是Corephotonics產品叫做「Hawkeye」(鷹眼)。「Hawkeye」擁有兩顆1300萬像素攝像頭,其中一顆是後置鏡頭,另外一顆採用了Corephotonics獨家技術,可以摺疊光線(foldthe light),於實現五倍光學變焦。另外,這個模塊還支持光學防抖。

R11s雙攝主要體現弱光拍攝,不管是拍人是拍夜景。它採用了2000萬+1600萬像素後置雙攝組合,沒有主副攝像頭分,説它雙攝像頭打破了一顆用來拍照,一顆用來虛化背景傳統技術。兩個攝像頭配備了F1.7光圈和後置智選雙攝功能,光線環境,手機可以智能地選擇解析攝像頭(1600萬像素)或感光攝像頭(2000萬像素)成像。

智選雙攝能自動識別光線條件變化並智能切換主攝像頭。光線環境於50lux亮度時1600萬解析攝像頭成像,於50lux亮度時2000萬感光攝像頭成像,擁有環境下採用專業一個攝像頭智能選擇。

擁有梯度虛化算法:精準分析人物之外背景,背景關係,分層次虛化,近景虛化一點,遠處背景虛化。虛化智能,避免人物主體多而莫名虛化。雙F1.7光圈雙攝提供測距信息,虛化效果。

雖然説現市面上雙攝像頭手機多,但是大家只有兩個主流實行方案:

iPhone7 Plus一枚28mm等效焦距標準鏡頭加上一枚適合人像56mm焦距鏡頭組合,做到了iPhone7 Plus所主打2倍無損變焦功能,同時達成了人像模式成就。總歸,iPhone7 plus這個設計主要是滿足日常生活時候遠焦和背景虛化需求,而這兩點是用户需要。

華為首彩色+黑白雙攝像頭設計,這個設計是用户們關心但手機達到一個功能而生,那–畫質。例,華P101200萬像素彩色鏡頭負責手機畫面色彩,黑白攝像頭2000萬像素是用來記錄畫面細節,兩顆攝像頭信息合併後有了一張畫面色彩、細節保留照片

像素,光圈、幾P鏡頭、傳感器類型和尺寸、OIS光學防抖、焦方式,目的是提升光圈淺景深虛化效果、多樣化拍攝環境適應。

1、主+副:光圈淺景深效果,通過雙攝視差和算法處理,摳取焦主體,對背景進行虛化。

2、廣角+焦:可以實現雙攝變焦,通過雙攝切換

3、黑白+彩色:可以實現雙攝變焦,通過像素合成實現。同時拍攝出圖像,通過算法合成輸出一張圖像,圖像質量會有所提升。

4、雙攝焦距上沒有差距,但兩顆鏡頭各有所長。拍攝系統會拍攝環境選擇鏡頭進行拍攝。這種方案處於可以讓手機拍攝適用於多拍攝環境。例如oppoR11

5、傳感器尺寸增加,意味着單像素捕捉光線能力,同樣環境下,可以拍攝出亮度、噪點、照片

6、激光傳感器,這可是P20Pro實現4D預測追焦技術捕捉毫秒瞬間秘密武器,通過激光傳感器可偵測2.4米內範圍運動物體,由此實現四合一焦系統(PDAF、激光、雙攝焦、反差焦),配合AI芯片賦予預測追焦能力,提前進行對焦和預判,使得焦速度提升。

7、5倍無損變焦能力(2倍通過鏡頭和傳感器切換實現‘光學’變焦外,還可以通過徠卡縮放相機系統,得到3倍無損變焦)。

P20Pro背部徠卡三攝像頭,是800萬像素攝像頭(F2.4),4000萬像素主攝像頭(F1.8)和2000萬黑白像素副攝像頭(F1.6)。其中主攝像頭Sensor達到了1/1.7英寸。

華P20Pro採用4000萬+2000萬+800萬像素徠卡(彩色+黑白+焦)三鏡頭設計,f/1.8+f/1.6+f/2.4光圈。此外如上圖所示,右側兩枚鏡頭中央嵌入激光接收和發射器,實現激光焦,三枚鏡左側嵌入閃光燈及色温傳感器,7組件、3枚鏡頭融合華P20Pro提供了目前攝影系統。

一是新增專門於微距拍攝鏡頭,原因於雙攝算法做到分毫不差,複雜景物交接處實現精準摳圖,那麼專門微距鏡頭有存在價值;

智能手機市場是羣雄爭霸,競爭。時代發展,各手機廠商競爭焦點以前硬件軍備競賽延伸到影音娛樂領域,注重手機拍照性能。隨着手機迭代,攝像頭手機拍照性能程度上達到,要想拍照領域有所突破,要藉助雙攝像頭,攝像頭陣列才能實現多應用。兩年,手機廠商推出了雙攝像頭(簡稱雙攝)手機,攝像頭一個變成兩個,是個噱頭,還是物有所值,我們來探討一下吧。

通俗講,雙攝手機是指一個智能手機某一面(是背面,可能前面)上有兩個並排(橫排或者豎排)攝像頭;如果學術一點講話,可以稱為立體(stereo camera)。這兩個可以模擬人眼雙目視覺原理,利用立體攝影(stereo photography)算法獲得三維信息。

事實上,雙攝手機並不是最近一兩年才出現新鮮玩意兒。早在2011年,如日中天HTC推出了首款配備兩顆500萬像素攝像頭機型G17,然而第一個吃螃蟹人往往成為,當時雙攝像頭配置並未能打入主流市場。主要有兩個原因:一是500萬像素畫質過,拍照後後畫質並沒有得到提升;二是因為缺乏3D應用,讓雙攝像頭成為雞肋。隨着手機硬件和相關算法發展,具有雙攝配置手機殺入市場,攪起了手機業一輪驚濤駭浪。2014年12月,華榮耀6plus雙攝手機發佈,後置兩個平行800萬像素攝像頭。隨後中興、樂視、酷派、360、小米多家公司推出雙攝手機。手機業界風向標蘋果公司坐不住了,於2016年9月推出了iPhone 7 plus,後置1200萬像素雙攝手機,此次iPhone 7 Plus雙攝像頭升級是iPhone問世以來攝像頭方面一次飛躍。下圖是iPhone 7 Plus雙攝配置。

第一個原因是,用户需求轉變。追求高分辨率轉到多元化應用需求。以前手機用户對拍照需求主要體現追求分辨率上,比如Nokia發佈了4100萬像素手機,但這條路走偏了, 用户發現自己並需要手機實現這麼像素,反而需要對焦速度、光學變焦、夜拍降噪、提高畫質、提高動態範圍、三維功能。而這些攝像頭,即使利用複雜圖像處理算法完全實現。而利用雙攝像頭搭配相關算法,可以鬆地現上述功能。第二個原因是:手機厚度限制。攝像頭模組厚度決定了手機整體厚度。一方面用户希望手機,另一方面拍照性能提高需要複雜鏡頭模組。比如智能手機單個攝像頭實現光學變焦是一件困難事情,要想實現光學變焦需要複雜鏡頭組合設計,這樣設計出來鏡頭模組。所以這兩者是不可調和矛盾。即便是行業翹楚蘋果手機,沒辦法解決這一問題,這是iPhone 6攝像頭突出主要原因。手機外觀設計角度來説,要解決顏值問題,要採用雙攝像頭。

雙攝手機兩個攝像頭之間距離來做個分類:兩個攝像頭之間離得,兩個攝像頭取景範圍相差,這樣兩張圖片進行融合時候會因為錯位產生影響,可以利用兩個攝像頭曝光和色彩信息進行融合,展現色彩,細節,從而提升成像質量。可以用來做夜景/暗光拍照增強、增加動態範圍應用。兩個攝像頭之間離得,得到兩張圖之間相差足夠大,可以算法來取得景深信息,然後利用景深來做背景虛化,物體分割,三維,輔助焦,動作識別應用。下面列舉幾個應用。1、背景虛化背景虛化是一種常用功能,很多人單反相機大光圈背景虛化效果着迷。如下圖右是原圖,左圖是iPhone 7 plus 背景虛化效果。

利用計算得到景深信息,可以實現先拍照後焦。

華P9例,其配置一個彩色鏡頭一個黑白鏡頭。黑白鏡頭大光圈保證了足夠進光量,讓畫面景物細節輪廓,彩色鏡頭負責捕捉色彩,算法合成後可以呈現夜景拍照效果。

通過廣角和雙攝像頭搭配,可以讓擁有光學變焦。

如下圖左邊是iPhone 7 Plus廣角拍攝圖片,右邊是拍攝圖片。

攝像頭實現HDR方法是修改曝光時間來得到曝光環境下圖片,然後進行合成,這樣圖像處理時間。這導致用户體驗,而且場景中有運動物體或者有移動話會導致鬼影問題。利用雙攝像頭可以解決這個問題,只需要兩個攝像頭設置曝光參數,然後結果進行合成可以實現。如下圖,上面是兩個攝像頭拍攝曝光參數圖片,下面是HDR合成結果。

因為通過雙攝像頭可以計算出景深信息,所以雙攝三維應用上會有很多應用。比如可以測算物體物理尺寸和距離,用來做三維測量;可以通過掃描來物體進行三維建模;可以實現逼真互動性增強現實遊戲。這大大拓展手機應用價值。

雙攝手機雖然有以上介紹優勢,但存在問題:於目前大部分雙攝手機基線(兩個攝像頭距離),計算處景深。所以背景虛化、功能和反有差距,有許多槽點可以吐。三維應用處於階段,有很多功能有待挖掘。

雙攝手機出現是行業發展瓶頸催生結果,雙攝手機普及,雙攝功能趨於,相信最近兩年雙攝技術會帶來多有用應用。

於雙攝技術發展,目前衍生出了幾種雙攝硬件和算法配置解決方案。手機廠商可能有雙攝配置,比如華榮耀P9採用黑白+彩色硬件配置,而iPhone 7 plus採用廣角+配置。此外,技術演化,同一廠商可能推出多種配置。比如,華2014年底推出第一款雙攝手機是榮耀6plus,後置兩個彩色平行排列,2016年推出年度旗艦產品榮耀P9是黑白+彩色配置。

因此介紹原理之前,目前雙攝配置進行分類。雙攝手機包括一個主攝像頭和一個輔助攝像頭。應用需求和側重點,目前雙攝手機有以下幾種組合形式:

1、彩色 + 彩色(RGB + RGB),主要於計算景深,實現背景虛化和

2、彩色 + 黑白(RGB + Mono),主要提升暗光/夜景影像拍攝質量

3、廣角鏡頭 + 焦鏡頭(Wide + Tele),主要於光學變焦

4、彩色 + 深度(RGB + Depth),主要於三維

以上1、2、3組合本質上是一種“疊加”。即兩個鏡頭拍攝圖像疊加融合,來達到提升拍攝質量、背景虛化、光學變焦功能。這種應用雙攝像頭拍攝圖像差距越小越,這樣算法進行“疊加”時候才能。理論上兩個攝像頭離,目前大部分雙攝手機是基於這樣配置,兩個鏡頭之間基線(兩個鏡頭間距),是10mm左右。而人類雙眼基線均值是64mm,相比之下目前雙攝手機基線太短,只能計算物體景深(淺景深)。

反讓人之着迷一點便是通過調整光圈值,拍出如夢似換背景虛化效果。我們知道,反通過增大鏡頭光圈可以縮小拍照時合焦範圍。如下圖,黑色小人代表了拍攝範圍,採用光圈時,只有在焦點附近小人是,焦點前後小人掉了。

模擬這種虛化效果,雙攝手機利用人眼三角定位原理來計算攝物體距離攝像頭距離Z。如下圖所示。

得到拍照場景中每一個像素點距離後,通過算法保留焦平面內景物清晰度,其餘部分其於攝像頭近距離進行處理,可以模擬出光圈虛化效果。如下所示焦距應平面。

雖然理論上可行,但實際使用中,要想場景下實現類似於反”焦內鋭利,奶油”效果,讓人物主體焦鋭利突出,層次線條分明,還需要算法保障(後會介紹該領域算法公司)。

反可以通過調節光圈大小,來改變照片虛化程度,雙攝手機可模擬單反相機調節光圈。通過調用照片中物體景深信息,可以實現先拍照後功能,實現之前只有光場才能實現功能。

提高暗光拍照質量有三種辦法:延長曝光時間、提高ISO感光度、增大光圈。延長曝光時間會帶來手抖問題,於是手機廠商搬來了光學防抖;提高ISO感光度則會增加噪點影響畫面淨度,在手機體積和厚度限制下不大可能傳感器尺寸放大;手機光圈是無法調整。於是算法工程師們想到了藉助黑白世界力量。

黑白和彩色拍攝圖像要保證圖像和像素級齊操作,通俗説要保證兩個同一個時刻拍攝同一個場景下物體,於兩個相機之間有距離,所以拍攝場景雖然是同一時間,但內容會有移位,所以需要兩個交疊部分來使得黑白和彩色圖片中像素一一應。這一部分需要用到兩個標定數據來做計算。標定可以理解測算兩個相機物理位置關係和機本身參數,此多做介紹。

圖像融合部分是可以加開關進行控制,應用需要黑白和彩色圖片可以作為主要融合參考,可以分開使用。

下面來看看什麼要黑白圖片和彩色圖片進行融合,是否融合後1+1>2?

我們知道自然光是赤橙黃綠青藍紫顏色組成,我們時候玩的三稜鏡可以看到光色散。如下圖。

我們日常生活中數碼,顯示器、掃描儀大部分顯示或打印顏色是通過紅(Red)、綠(Green)、藍(Blue)三原色比例合成,稱為RGB顏色模型。這個理解。

接下來介紹一個複雜一點概念:拜爾濾色鏡。它是一種RGB濾色器排列光傳感組件方格之上所形成馬賽克彩色濾色陣列。如下圖,入射自然光拜爾濾色鏡後得到了相應顏色。

其中綠色佔一半,紅藍各佔四分之一,這樣設置是因為人眼睛綠色。每個像素點顏色信息是插值處理得到。插值方法有很多種,一種線性插值。比如下圖位於九宮格綠色像素點G,它RB值是通過周圍四格平均值得到。

於紅色像素點R或藍色B,插值方法會複雜一些,此贅述。

而黑白沒有拜爾濾色鏡,所有光入射進來(下圖右下角),所以和具有拜爾濾色鏡彩色相比可以獲得進光量,光學傳感器靈。因此黑白彩色,圖像,細節信息能夠保留。下圖左下角是彩色信噪比SNR(全稱Signal Noise Ratio,可以理解為有用信息和噪音比值,)。右側是彩色、黑白圖像融合後結果,可以看到,融合後信噪比提升了。

綜上,於黑白細節、信噪比高等優勢,黑白圖像作為基準和彩色圖像進行融合後,圖像整體效果會有提升(是暗光環境下)。

下圖可以直觀看到黑白+彩色雙攝模式提升細節方面效果。下圖中間是左邊彩色圖像和右邊黑白圖像融合結果,可以看到,細節,圖像質量。

下圖可以直觀看到,黑白+彩色雙攝模式可以顯著提高暗光場景下圖像亮度,減少噪點,顯示其夜景拍照上優勢。

這種組合優勢是光學變焦(optical zoom)。光學變焦鏡頭是多組獨立凸/凹透鏡組成,有透鏡是,有的是可以光軸前後滑動。複雜變焦鏡頭可以包含多達三十多個獨立透鏡以及多個移動部件。

雖然變焦鏡頭組成複雜,但是可以功能劃分兩部分:無焦變焦系統( afocal zoom system)和聚焦透鏡(focusing lens)。如下圖所示。

變焦功能主要通過改變無焦變焦系統來實現,它多個和可移動透鏡組合而成,但是並進行聚焦,它通過改變光束穿過透鏡位置來達到變焦目的。三個鏡頭例進行説。下圖中L1,L3是凸透鏡,用來匯聚光線,L2是凹透鏡,用來發散光線。其中L3是。L1,L2是可以光軸移動,這種移動微小,通過齒輪凸輪傳統機械傳動方式實現,或者高級私服系統來實現。下圖中L2透鏡左向右移動,靠近L3,同時L1透鏡先向左移動再向右移動。圖中可以看到這種組合移動結果放大了透鏡組視場角,從而改變了整個透鏡組焦距。

如果有點蒙圈,參看下面這個簡化版變焦動態圖,可能理解。

説到了光學變焦,提一下數字變焦。

數字變焦(digital zoom)和光學變焦(optical zoom)有着本質,可以認為數字變焦“變焦”。為什麼説它呢?類比一下,數字變焦相當於你照片放在一個圖像編輯軟件裏,裁掉周圍一部分圖像,然後剩下一部分放大。所以你看,數字變焦是一個類似放大效果,並不能起到變焦作用,所以數字變焦結果噪點多,圖像。下圖是光學變焦和數字變焦直觀比:

以來大多手機於變焦(或者説離拍攝)需求,是通過壓縮畫質數字變焦來完成。因此光學變焦是目前用户於手機拍照功能主要訴求點之一。但如前面所述,變焦鏡頭依賴於光學透鏡組合設計,因此想攝像頭上實現光學變焦於手機攝像頭模組厚度、複雜度和整體外觀設計帶來挑戰。限於手機機身厚度,想做出伸出機身外變焦攝像頭可能。

但是話説,條條大路通羅馬,吊死一棵樹。單鏡頭既然不行,兩個鏡頭是不是可以呢?

雙攝像頭理論基礎,原本要求縱向空間光學體系,橫空間裏裕機身平面上鋪開。現今手機厚度可逆轉7mm發展,但橫向看機背上與屏幕平行平面空間是足夠。説了,比起鏡頭做得突出機身,機背上多放幾個鏡頭要。

相機模組廠商和算法提供商研發和測試,目前廣角+雙攝像頭組合變焦方案業界接納。這是一種樸素變焦思路:兩個焦距攝像頭搭配,視角廣角鏡頭可以“看”,但是“看”遠處物體,而視角焦鏡頭雖然“看”範圍,但是“看”。廣角和焦鏡頭組合搭配,拍照時通過鏡頭切換和融合算法能實現變焦。法子雖然笨點,效果。高像素焦鏡頭能保證廣角鏡頭因變焦而損失圖像信息於攝像頭假變焦,從而大幅提高手機變焦性能。該組合方式可以得到光學變焦體驗。下圖是廣角+融合效果:

LG G5後置攝像機有兩個,主攝像頭1600萬像素,視場角78°,f/1.8光圈,暗光拍照效果;輔攝像頭800萬像素,具有135°超廣角,這個是LG G5殺手鐧。LG G5光學變焦方案拍照時切換鏡頭來實現光學變焦。但是這個135°鏡頭算是魚眼範疇,它拍攝圖像邊緣會出現畸變,並且不是大家印象中魚眼鏡頭那種畫面中心到四周光學性畸變,而是中間大部分畫面而四周部分跳躍性出現畸變。如下圖所示。

LG G5拍攝圖片,跑道可以看出橫畸變

相比之下,後來者iPhone 7 Plus配置合理。iPhone 7 plus雙攝像頭升級是iPhone問世以來攝像頭方面一次飛躍。

廣角鏡頭:1200 萬像素,ƒ/1.8 光圈,焦距28毫米

焦鏡頭:1200 萬像素,ƒ/2.8 光圈,焦距56毫米

來説焦距85mm300mm區域內才可稱為焦鏡頭,而iPhone 7 plus焦鏡頭焦距只有56mm,只不過焦距28毫米鏡頭多了一倍,不過蘋果其稱焦鏡頭。

iPhone 7 plus鏡頭組合並像LG G5那樣端,可以避免出現邊緣畸變。如下圖左邊是iPhone 7 plus廣角拍攝圖片,右邊是其長焦拍攝圖片:

這類雙鏡頭搭配方案光學變焦,本質和反,一點話,應該稱為雙焦距。拿單反相機和iPhone 7 plus例,我們來分析一下它們2倍光學變焦有什麼。

單反相機上2倍光學變焦鏡頭,是可以實現無級光學變焦,可以實現1倍到2倍之間所有焦距。數學語言來説,可以實現[1,2]區間內任意實數倍光學變焦倍數。這種光學變焦是。

而iPhone 7 plus2倍光學變焦,56毫米鏡頭28毫米鏡頭數字變焦達到時候切換到56毫米鏡頭,接過變焦任務,這樣使用起來像是整體光學變焦能力提升了一倍。它是無法實現1倍到2倍之間任意光學變焦,其光學變焦只能取1和2兩個值。這種光學變焦方式並“”。

那麼有人問了,什麼我使用iPhone 7 plus時候感覺變焦啊,這是因為,蘋果公司注重圖像處理算法,所以iPhone系列手機攝像頭硬件上不是進,但拍照效果卻出色。雖然iPhone 7 plus雙攝鏡頭光學變焦並非變焦,但其雙攝圖像處理算法幫助下,實際使用時是,並會出現變焦挫頓,可以實現攝像多變焦效果和成像質量。

顧名思義,深度可以直接獲取場景中物體距離攝像頭物理距離相機。原理,主要有飛行時間(TOF)、結構光、激光掃描幾種方式(注:有些地方雙目立體視覺列為深度一種,它是依靠算法計算得到深度信息)。目前使用多是TOF。目前主流TOF相機廠商有PMD、MESA、Optrima、幾家,其中MESA科研領域使用多;PMD是唯一室內/外能使用TOF相機廠商,多用於科研、工業各種場合;Optrima、主要面向家庭、娛樂應用,價位。

因為TOF使用,此主要介紹一下TOF原理。

TOF(Time of flight)直譯“飛行時間”。其測距原理是通過目標發送光脈衝,然後傳感器接收物體返回光,通過探測光脈衝飛行(往返)時間來得到目標物距離。這種技術3D激光傳感器原理基本類似,只不過3D激光傳感器是掃描,而TOF是同時得到圖像深度(距離)信息。

TOF採用主動光探測,包括以下幾個部分:

照射單元需要對光源進行脈衝調製後進行發射,調製光脈衝頻率可以高達100MHz。因此,圖像拍攝過程中,光源會打開和關閉幾千次。各個光脈衝只有幾納秒時長。曝光時間參數決定了每次成像脈衝數。

要實現測量,地控制光脈衝,使其具有完全相同持續時間、上升時間和下降時間。因為即使只是一納秒偏差產生15 c m距離測量誤差。

於匯聚反射光線,光學傳感器上成像。不過普通光學鏡頭是這裏需要加一個帶通濾光片來保證只有與照明光源波長光才能進入。這樣做目的是抑制非相干光源減少噪聲,同時防止感光傳感器因外部光線幹擾而過度曝光。

是TOF相機核心。該傳感器結構普通圖像傳感器類,但圖像傳感器複雜,它包含2個或者,用來時間採樣反射光線。因此,TOF芯片像素圖像傳感器像素尺寸要,100um左右。

電子控制單元觸發光脈衝序列與芯片電子開/閉。它傳感器電荷執行讀出和轉換,並它們引導分析單元和數據接口。

計算單元可以記錄深度圖。深度圖是灰度圖,其中每個值代表光反射表面和相機之間距離。得到效果,會進行數據校準。

照射光源採用方波脈衝調製,這是因為它數字電路來實現。深度每個像素是一個感光單元(如光電二極管)組成,它可以將入射光轉換電流,感光單元連接着多個轉換開關(下圖G1,G2)可以電流導入可以儲存電荷(下圖S1,S2)電容裏。

相機上控制單元打開光源然後關閉,發出一個光脈衝。同一時刻,控制單元打開和關閉芯片上電子。光脈衝以這種方式產生電荷S0存儲感光元件上。然後,控制單元第二次打開並關閉光源。這次打開時間晚,即光源關閉時間點打開。現在生成電荷S1存儲感光元件上。

因為單個光脈衝持續時間,此過程會重複幾千次,直到達到曝光時間。然後感光傳感器中值會讀出,實際距離可以這些值來計算。記光速度c,tp光脈衝持續時間, S0表示收集電荷, S1表示延遲收集電荷,那麼距離d可以如下公式計算:

可測量距離是:門期間S0中收集了所有電荷,而延遲門期間S1沒有收集到電荷,即S1 = 0。代入公式會得出可測量距離d=0。

可測量距離是:S1中收集了所有電荷,而S0中沒有收集到電荷。然後,該公式得出d= 0.5 x c × tp。因此可測量距離是通過光脈衝寬度來確定。例如,tp = 50 ns,代入上式,得到測量距離d = 7.5m。

距離測量要求光反射一次。但是鏡面或者一些角落會導致光線多次反射,這會導致測量失真。如果多重反射使得光線完全轉,沒有反射光線進入,從而無法正確測量反射面距離。反之,如果其他方向光通過鏡面反射進入芯片,則可能會發生過度曝光。

鏡頭內或鏡頭後面發生多餘反射會出現散射光,如下圖所示,散射光會導致圖像褪色,比度下降影響。所以要避免正前方有反光物體存在。

前面説過,深度相機鏡頭上會有一個帶通濾光片來保證只有與照明光源波長光才能進入,這樣可以抑制非相干光源提高信噪比。這種方式確實能夠地過濾掉人造光源,但是,我們日光能夠覆蓋整個光譜範圍,這其中包括和照明光源一樣波長,某些情況下(如夏天烈日)這部分光強可以達到,會導致感光傳感器出現過度曝光。因此如果想這種條件下工作,需要額外保護機制。

延伸閱讀…

手機雙攝像頭有什麼作用

手機雙攝像頭原理及產業解析

電子元件精度受温度影響。所以當温度波動時會影響電子元件性能,從而影響到脈衝調製精度。前面説過一納秒脈衝偏差產生15 c m距離測量誤差,因此要做好散熱,這樣才能保證測量精度。

TOF相機內部每個像素上述過程可以得到一個對應距離,所有像素點測量距離構成了深度圖,如下圖所示。左邊是原圖,右邊是對應深度圖。

可以看到深度圖是一張灰度圖,它是一張三維圖:水平垂直座標對應像素位置,該位置灰度值對應是該像素距離攝像頭距離。所以深度圖中每個像素可以表示空間中一個點三維座標,所以深度圖中每個像素稱體像素(voxel)。

我們獲得了深度圖後,下一步要深度信息融合到普通RGB拍攝彩色圖片。這一步並非我們想象那麼,需要算法來保障。此列舉兩個因素例進行説:

1、深度分辨率目前,是VGA(640 x 480)以下。而現在普通RGB分辨率到千萬像素級以上了,是深度分辨率幾十倍上百倍。因此需要分辨深度圖變成和RGB高分辨率,這種“無到有”分辨率提升需要利用彩色圖中物體紋理、邊界內容信息,這個過程要想保持細節是困難。

2、深度相機和彩色融合時需要知道兩個相機畸變係數、光學中心、旋轉/平移量一系列參數,這需要兩個進行標定工作。而深度低分辨率於標定工作是一個挑戰。

讀者可能會問,現在雙攝手機上兩個普通彩色可以計算深度嗎?和這個深度測距有何?

雙目立體視覺測距原理和人眼類似,通過計算空間中同一個物體兩個成像視差可以如下三角關係計算得到物體離距離:

但是説起來,算法實現困難,雙目立體視覺測距算法核心尋找應關係。可以理解給定一個拍攝圖片中任意一個像素點,如何另外一個拍攝圖像中找到和它對應像素點,這個過程需要特徵提取、特徵匹配一系列複雜算法。但是於光照變化、光線外因素影響,拍攝兩張圖片可能,這會特徵匹配算法提出挑戰。如下圖是光照條件下拍攝圖片:

另外,如果拍攝物體缺乏紋理和細節(比如拍攝一張白紙)話,進行特徵匹配。這些算法魯棒性提出了挑戰。雖然TOF相機和雙目立體視覺能實現測距功能,但是它們是有,此我做了了表格如下:

結構光技術使用提前設計具有結構圖案(比如離散光斑、條紋光、編碼結構光),然後圖案投影到三維空間物體表面上,使用另外一個觀察三維物理表面成像畸變情況。如果結構光圖案投影該物體表面是一個平面,那麼觀察到成像中結構光圖案和投影圖案類似,沒有變形,只是距離產生尺度變化。但是,如果物體表面不是平面,那麼觀察到結構光圖案會因為物體表面幾何形狀而產生扭曲變形,而且距離而,已知結構光圖案及觀察到變形,能算法計算測物三維形狀及深度信息。

業界以色列PrimeSense公司Light Coding方案,該方案應用於Microsoft明星產品Kinect上。目前該公司蘋果公司收購,可見蘋果公司深度相機領域有所動作。

結構光技術受環境光源影響,適合室內應用場景,而且幀率,所以態場景或者變化場景。其優勢能夠獲得高分辨率深度圖像。

TOF方案具有響應速度快,深度信息精度高,識別距離範圍大,受環境光線幹擾優勢。因此想要移動端直接實現深度測量,有競爭力TOF方案了。三者區別:

目前可以買到具備直接深度測量智能手機只有Google和聯想合作聯想Phab 2,2016年11月推出,是全球首款支持Google Project Tango技術手機,其深度採用TOF技術方案,由PMD公司提供。

華碩宣佈2017年會推出帶深度手機Zenfone  AR,號稱是全球首款同時支持Google Project Tango(AR)和Daydream(VR)手機。

深度應用智能人機交互、人臉技術、三維、機器人、AR領域全面開花,目前商用深度應用移動終端上基於人臉技術多種應用。

二維人臉技術發展了幾十年雖然,但是人臉關鍵點檢測各種大角度、多表情、複雜光照、面部遮擋情況下,想要實現時魯棒高精度檢測困難。而高精度深度出現推動了人臉技術發展,二維直接躍升到三維。説,iPhoneX前置深度可謂是三維人臉技術提升到了一個高度。它受制於光照,即使前景和背景顏色相近能實現分割,複雜頭部姿態下表現大大優於二維人臉技術。基於結構光深度通過3萬個外散斑三維人臉模型。

有了三維人臉模型,可以發展出一系列超級實用、好玩應用。下面應用場景有些是商用,有些萌芽狀態。1、背景虛化相比於雙攝背景虛化,深度能夠高精度三維人臉模型,虛化效果層次感,細節,人像立體。 

2、人像人像功能可以模仿專業人像攝影時打光效果,營造出讓人讚歎影棚級效果。 

3、動畫表情動畫表情可以人臉表情轉移到玩偶上,是一個應用,得益於深度獲取 三維人臉模型,才能實現如此表情捕捉。 

4、三維美顏可以誇張的説,三維美顏是二維美顏降維打擊。二維美顏效果誇張,丟失了人臉本身很多特徵,導致“認不出來自己”。而三維美顏強調和立體,不僅能夠全面繼承二維美顏效果,還可以三維臉型進行定製化“微整容”,如隆鼻、豐唇、削掉顴骨,去掉雙下巴,調整五官比例;此外還可以增加光影效果,如增加鼻子、臉頰兩側陰影,使得人臉看起來有立體感和感。

三維人臉識是安全人臉識,可以避免照片/屏顯圖片、換臉算法、戴面具/3D人臉模型破解方法。適合於活體檢測。

6、人眼視線校正很多時候我們拍美照時並沒有直視鏡頭,回看時懊悔不已。這個可以通過算法進行校正。人臉三維模型,結合人面部朝向,我們可以將視線方向調整攝像頭方向,產生視覺效果有衝擊力。,這只是一個典型應用。理論上來説,我們可以任意操縱眼球轉動,基於此可以開發一些好玩(奇怪)應用。 

 體感交互背後關鍵技術人體骨架提取和跟蹤。傳統基於RGB圖像骨架提取跟蹤技術有多人交疊情況下性能下降,而深度生成深度圖可以很區分人體和背景,這有利於多人交疊下不同人體骨架提取。 

和人體骨架提取和跟蹤類似,手勢識別跟蹤屬於肢體語言。於RGB,深度可以實現手指關鍵點提取和跟蹤。

 基於手勢識跟蹤可以開發很多實用、應用。第一個廣泛的應用遊戲娛樂:比如射擊類遊戲中,你只要把手握成手槍狀,食指扣動可以“放槍”,這種孩童時期熟悉身體語言運用到遊戲中,讓用户感覺而。第二個環境或危險行業,有應用需求:比如通過手勢可以非接觸式操控無塵車間機器或者危險區域工作設備,可以解決很多實際問題。

深度本身可以直接測距,下圖是Phab2 pro手機後置TOF深度三維空間測量示意圖。

以前人體或者物體進行三維需要複雜激光掃描設備,距離消費級應用。技術發展,高精度、小型化深度可以完成掃描和三維工作。這可以促進虛擬試衣,三維打印技術發展。

和小尺度物體,尺度三維空間地圖,是學術研究前沿,其中關鍵技術稱為即時定位地圖構建(SLAM,參考文章《SLAM初識》)。SLAM是智能機器人和AR核心技術之一。基於RGB-D深度SLAM是研究熱點,深度性能提升及算法迭代,高精度時魯棒SLAM技術。 

深度水平視場角能夠直接探測障礙物距離,垂直視場角可以探測地面凸起或者上方障礙物,這提升了機器人利用視覺避障能力。

自身定位及地圖導航方面,三維視覺SLAM應用優於二維視覺SLAM。但三維視覺SLAM距離商用有一段路要走,主要原因有兩個:一是深度距離測量精度不夠理想,它激光雷達測到平面數據精度和定性要一些;二是RGB-D SLAM算法和應用需進一步發展完善,其性能效果和計算資源消耗無法滿足商用需求。

AR大規模商用離我們近了。想要實現、身臨其境AR體驗離不開幀率、高魯棒深度圖。AR核心技術之一是SLAM技術,基於深度SLAM方案是一個靠譜解決方案。

目前深度移動端的應用需求,但是大部分消費級深度存在:體積,成本,精度及魯棒性問題。因此適用於移動端的深度相機模組、計算機視覺算法資源。不過,受蘋果影響,目前整個安卓手機產業鏈正在馬加鞭,跟進適用於手機端的深度解決方案。

兩年手機雙攝技術發展,雙攝像頭技術夜拍降噪、焦、光學變焦、景深應用方面展示出了效果。這離不開底層圖像傳感器芯片到中層雙攝處理算法到頂層手機廠商一系列努力。今天來説一説和手機雙攝有關產業鏈。雙攝像頭市場端客户,算法公司,模組廠,零組件供貨商,平台廠組成。

雙攝模組於普通單攝模組,製造精度有着嚴格要求,因此製造度,技術和設備有要求。這個問題,行業做出不僅一次探討,找到解決辦法:引進AA制程。但引進AA制程過程中,產業需要面臨成本、高技術問題。

算法是雙攝應用技術基礎,選擇算法方案決定了技術設計方案,配合硬件選型,製造度。目前能提供算法公司屈指可數,各家擅長領域各有不同。全球範圍內知名雙攝算法公司主要有:

虹(ArcSoft)1994年美國硅谷成立,目前主要研發中心設中國大陸杭州、上海、和南京。虹強項是光學變焦、暗光拍照、HDR、。手機合作廠商有:三星、LG、小米、vivo。

華晶科技是1996年成立一家台灣公司,距離應用,光學變焦和暗光補償有所建樹。

Linx由三星算法團隊前負責人和以色列國防公司Rafael Advanced Defense Systems高級光學專家2011年創建,2015年蘋果公司收購。其技術用在了iPhone7 Plus雙攝中。

此外,平台廠商高通、聯發科、華海思、上海興芯微(X-Chip)有自己ISP(圖像處理器),開發自己雙攝算法。

雙攝圖像傳感器供應商主要有:Sony、Samsung,OmniVision,格科微。其中Sony具有霸主地位,得益於它高像素領域技術領先地位,其圖像傳感器成為中高端手機標配。主要客户蘋果、Samsung、OPPO、Vivo手機大廠。

韓國:三星電機(SEMCO),LG Innotek(iPhone 7 plus)、Namuga

其中有競爭力主要有:光寶,舜宇、信利、三星機電、Namuga。這裏我們重點説陸模塊廠商表現。

舜宇作為大陸老牌模塊廠,技術積澱。雙攝上達到研AA設備水平。2015年舜宇宣佈雙攝研製,2016年成為華P9雙攝主供貨商。舜宇目前是大陸雙攝受益廠商。

歐菲光2012年成立,作為模塊廠後來者,人才與設備引進上嗇,發展勢頭驚人,2015年下半年出貨量躍居國內首位。小米是其走量客户,同時依靠和小米合作,歐菲光實現雙攝量產。

延伸閱讀…

到底雙攝像頭能做什麼?

手機的雙攝像頭有什麼好處?

丘鈦作為大陸第三模塊廠,雙攝上投入巨資購入AA設備。搶奪雙攝訂單,丘鈦市場上報價偏低。依靠紅米PRO,量產雙攝,並獨家供應樂視派COOL1。米COOL1是主打性價比千元機,利潤。丘鈦要想突圍需努力。

雙攝技術鏡頭一致性、FOV(Field Of Vision)要求,市場領頭羊是位於台灣大立光電(Largan)。隨後中國大陸舜宇光學。另外像日本康達智株式會社(kantatsu),韓國Sekonix公司技術實力,但要陸廠大規模採用不太現實。

雙攝採用音圈馬達(Voice Coil Motor,簡稱VCM),市場選型集中:日本TDK株式會社、三美電機株式會社(Mitsumi)、韓國Jahwa幾個廠商。

AA(Active Alignment)製程,即主動對準技術,是一項確定零配件裝配過程中位置技術。

攝像頭封裝過程中,涉及到圖像傳感器、鏡座、馬達、鏡頭、線路板零配件多次組裝,傳統封裝設備是設備調節參數進行零配件移動裝配,因此零配件疊加公差,表現攝像頭上效果是拍照畫面位置可能偏離畫面中心、四角清晰度勻等。

最近華P9廣告攻勢,以及各種水果公司新手機雙攝傳言。雙攝像頭一次走進了大家視野。什麼是雙攝像頭呢?它能帶來什麼功能呢?它什麼會攝像頭?肯定我們説雙攝像頭不是兩個攝像頭放到了手機上各工作各。雙攝像頭是要通過兩個攝像頭得到圖像協作得到超過攝像頭功能。

1 利用雙攝像頭產生立體視覺,獲得影像景深。以及利用將 景深進行3D建模,圖像處理,物體分割,物體識別和跟蹤,焦輔助之類功能

2 利用左右兩張圖片信息進行融合,期望得到分辨率,色彩,動態範圍圖像質量。

這兩類雙攝像頭功能於攝像頭硬件有着要求,前者要求兩個攝像頭得到像儘量,這樣能夠得到景深精度,因此前者硬件希望兩個攝像頭間距離才好。而後者希望兩個攝像頭像空間和時間上都儘量能夠接近,因此硬件設計時候希望兩個攝像頭離得。這樣兩個圖像融合時候才不會因為相差產生多錯誤。

但是於攝像頭做完全一致。因此無論是這兩類功能哪一類,算法希望能得到圖像同時,能夠多得到硬件實際情況如:姿勢和兩個攝像頭鏡頭畸變。而這些信息需要平台算法和模組生產手機生產使用且於工程化算法進行計算,很多牽扯到硬件本身特性,不是理論計算能解決。後有時間我們會繼續討論這個話題。總雙攝像頭使用過程中算法和硬件本身結合十分,不可分割。因此説到雙攝像頭現應該關注應該是雙攝像頭能帶來什麼樣用户體驗。雙攝像頭中軟件硬件結合要求比單攝像頭要高。而我們看到一款使用雙攝像頭手機時候它硬件設計能看出它是於哪一類功能。下圖兩個攝像頭姿勢差上面信息。3D座標軸XYZ平移和旋轉。後面面我們雙攝像頭能實現功能給大家介紹。

第一類功能要獲得當前場景景深圖。其基本原理基於三角定位。如果大家感興趣可以參照《學習Opencv》第十二章投影和三維視覺。本來想這裏多介紹些但是篇幅實在,如果大家有興趣後面我們來。不過我有毛病,大家有些。

1 第一類功能中典型背景虛化,背景虛化功能實際上是景深圖基礎上距離物體進行虛化()。目的是得到類似光圈拍攝鮮果。這個功能以前雙camera中能見到。如HTC後置雙設和聯想前置雙設S1是做類功能。 這類功能目前,效果是。雖然有時候景深判斷有些確,但是相信後面應該能做得。

2 其次是物體分割,這類功能目前在手機上主要是於圖片裁減,和背景替換。這部分功能類似PS後期處理,利用景深信息可以可以將景深物體分割開。

3 3D掃描和建模,這些功能是通過角度下景深圖進行建模。這景深圖和算法要求。手機上雙camera之間距離往往能夠得到景深圖精度不夠,景深信息處理算法複雜在手機硬件上計算時間,因此目前這個功能在手機上面基本沒有。不過3D打印和算法及硬件這類功能應該會後面多起來。

4 目標物體距離計算和焦,這個功能只是利用三角定位計算景深應用這裏做多介紹了。

5 3D 視頻和照片製作,於3D電影拍攝。手機上兩個攝像頭無法圖像拍攝過程中產生足夠視覺差,這是於兩個攝像頭中間距離和人眼。而且能夠讓人們得到3D視覺效果。所以往往需要算法進行增強。

6 AR增強和動作識,這部分功能 主要是利用兩個攝像頭進行手勢或者姿勢識別。目前市場上leap motion 有 Kinect 是類功能。亞馬firephone 嘗試在手機上實現類功能,但是手機供電以及空間沒有能讓用户得到體驗。不過後面景深計算化,我相信這類功能會多。

第二類功能是通過將圖片中信息,合成到一張圖片中。使合成後圖片得到效果。因此雙camera第二類功能中硬件設計中會注意如何提供信息。圖像融合算法有很多種後面有時間我們看看能不能請一些後處理算法大牛大家講一講這方面知識,這裏獻醜了,還是介紹目前有什麼樣功能吧。

1 超分辨率,這個功能主要是利用多張圖片中高頻部分內容生成一張圖片。雙camera可以通過兩張照片中信息進行後增強。然而傳統算法生成需要圖片是需要圖片。兩張圖片能夠提供信息還是。如華為Mate6 plus 號稱是兩顆8M可以合成13M圖像。但是實際拍攝圖像解析力只是8M水平,只是像素增加了,這和我們電腦縮放一張圖片沒有什麼區別。個人感覺是受到了欺騙。

手機拍照功能機時代成為人們使用一個功能,進入智能機以來地位不斷拔高。注意力所在地往往創新迸發處,這一點在手機拍照上不過,無數技術多應用機拍照上:3D拍照、背景虛化、光學變焦、光學防抖、雙核焦…以及光圈和傳感器尺寸,每一項技術手機拍照無論是照片質量是整體體驗有提升。但,“”這樣了…

如今,大部分廠家推出了自家雙攝手機

於是兩年火遍天“雙攝”了。如果説11/12年LG Optimus、HTC EVO 3D屬於手機“雙攝”萌芽時期,14/15年榮耀6 Plus、旗艦版屬於“雙攝”探索/發展期,那麼16/17年iPhone 7 Plus、華P10、vivo Xplay6、小米6、OPPO R11、nubia Z17、5們一個個問世代表着手機“雙攝”正式普及和。昭示着手機“雙攝”時代正式來了。

現在,人人討論“雙攝”。手機發展一個趨勢化,7mm成為手機一個標杆和分水嶺。要想如此手機上追求成像質量,即使有前面提到技術加持,而受制於傳感器尺寸和鏡頭素質(這兩項直接決定了手機成像質量),政治上所講的主因和次因,因此即使攝像頭參數,會有高感表現差、背景虛化到位、寫問題。這時候,一顆攝像頭基礎上加入一顆,以此來提高手機整體拍照質量成了突破口。

雙攝像頭理論基礎原本要求縱向空間光學體系,橫向空間平面上鋪展開來。這樣即達到了成像水平,會使攝像頭突出影響手機整體。目前,主流雙攝像頭功能主要可以分為兩大類:1、利用雙攝像頭產生立體視覺,獲得影像景深,利用景深信息進行背景虛化,3D掃描,輔助焦,動作識別應用;2、利用左右兩張圖片信息進行融合,期望得到分辨率,色彩,動態範圍圖像質量或實現光學變焦。這兩大類可以分為4點:1、通過雙攝測距,可以進行距離相關應用,這方面目前應用泛的背景虛化;2、光學變焦;3、暗光增強;4、3D拍攝及建模。其中每一點展開來是篇幅,這裏做過多贅述。

那麼問題來了,雙攝像頭工作原理是怎樣?雖然是兩顆攝像頭,但是手機,主攝像頭和副攝像頭工作原理有。目前,雙攝手機工作原理主要有以下幾種:1、彩色+彩色攝像頭(RGB+RGB),優勢於可以計算景深,從而實現背景虛化和焦(拍照後焦);2、彩色+黑白(RGB+Mono),優勢於可以提升暗光或夜晚手機成像質量;3、廣角+焦鏡頭(Wide+Tele),這個組合優勢於可以實現光學變焦(目前大多數主流手機廠商採用雙攝原理);4、彩色+深度(RGB+Depth),可以實現三圍。前面提到雙攝功能通過這四種組合實現。

四種中,彩色+黑白(RGB+Mono)和廣角+焦鏡頭(Wide+Tele)兩種應用,兩種雙攝代表是華P9/10系列、Mate 9系列和iPhone 7 Plus、OPPO R11系列以及小米6。今天我們講講目前廣大廠商所認可和採用廣角+焦鏡頭雙攝方案,例子這其中代表iPhone 7 Plus和當下手機之一OPPO R11。

前面提到,廣角+焦鏡頭組合帶來優勢可以在手機上實現光學變焦。光學變焦(Optical Zoom)其相機上一個名詞,它是通過改變光學鏡片組結構來改變鏡頭焦距,從而實現變焦。但是鏡片組結構複雜,整體尺寸無法安置於手機中。而此前手機如果想要放大圖片,方法是後期圖片進行裁切然後一部分放大,這樣做後果是圖片內每個像素面積會增大,圖像畫質會壓縮。而廣角+雙攝則解決了這一難題,在手機中實現了光學變焦。

廣角+雙攝光學變焦於左右攝像頭擁有可視角,這樣兩個攝像頭會有取景範圍。當想要拍攝廣角照片時,可以使用左攝像頭取景。如果想要焦照片,右攝像頭取景,獲得焦效果。通俗點説,即廣角鏡頭取景,但是取不到遠處物體;而焦鏡頭雖然取景,但是能“看”。這樣,廣角和焦鏡頭組合搭配,拍照時通過鏡頭切換和算法來實現變焦。

iPhone 7 Plus例,其採用了1200萬像素、28mm焦距廣角鏡頭+1200萬像素、56mm像素焦鏡頭,通過28mm廣角和56mm攝像頭切換來實現2倍無損變焦。雖然無法達到單反相機上無級光學變焦,但是目前在手機上是領先方案了,OPPO R11、小米6、5採用了同樣方案。

接下來説説OPPO R11,其採用了1600萬+2000萬像素攝像頭廣角+解決方案,擁有f/1.7超大光圈,支持2倍光學變焦和10倍數碼變焦。這裏可能很多人會問,即為什麼焦鏡頭像素會平時主要使用廣角鏡頭像素要?這於廣角鏡頭變焦時會損失圖像信息,此時高像素焦鏡頭會進行彌補,從而保證手機成像質量並提高手機變焦性能。

此外,廣角+雙攝會拍攝環境光線決定使用哪一顆攝像頭進行拍攝。簡單説,光線時,會使用副攝像頭,光線時會使用主攝像頭。這於,主攝像頭擁有性能,弱光下在保證畫面亮度下能控制噪點,這是什麼採用廣角+雙攝方案手機主鏡頭光圈副攝像頭光圈部分原因所在,如OPPO R11,主攝像頭光圈f/1.7,副攝像頭光圈f/2.6;iPhone 7 Plus主攝像頭光圈f/1.8,副攝像頭光圈f/2.2。這解決了另一個問題,即前面拿iPhone 7 Plus例時提到,廣角+雙攝手機光學變焦是通過廣角和兩個鏡頭之間切換實現,因此如果此時你用手擋住副攝像頭即焦鏡頭,廣角切換到時,焦鏡頭會進行檢測,發現此時環境從而切換回廣角鏡頭,因此會發現擋住焦鏡頭情況下變焦可以實現。

到這裏,相信大家於雙攝以及廣角+雙攝原理應該有了一個印象,了生長後,回到體驗上,拼是廠家自身研發實力和技術積累,若拍照這方面,目前做出色要數蘋果、三星和OPPO了。而雙攝特殊性於它影響是手機拍照,而並像2K屏幕或者全面屏可有可無,因為攝像頭創新無法手機成像提升時,雙攝會顯得關,或者可以説雙攝是手機成像發展過程中所經歷一步。而以iPhone 7 Plus、OPPO R11代表廣角+雙攝方案目前是同時體驗雙攝方案之一。而目前成像成像體驗來説,無論變焦是虛化,沒有令人失望。於手機拍照來説,沒有什麼是一顆攝像頭解決不了,如果有,那來一顆吧。

什麼大家開始雙攝像頭?  這些年手機攝像頭技術有了翻天覆地變化,我諾基亞手機上200萬像素主攝像頭讓很多夥伴羨慕。後來呢,手機拍照水平有了飛昇,800萬,1300萬到現在很多手機上了2000萬像素攝像頭,而且還加入了大光圈,像素技術,有了水平。

這時候廠商想了,還要怎麼提升手機拍照水平呢?

大家想起來了當年HTC推出雙攝手機EVO 3D(説HTC當年在手機行業是做了貢獻),利用雙攝像頭來帶大家出色拍照效果。

目前雙攝有三種,是黑白+彩色組合,黑白攝像頭負責捕捉到細節,能夠讓手機拍照效果出色。第二種是彩色+彩色組合,是現在大多數手機採用雙攝組合,兩個攝像頭同時拍照,不僅能記錄物體景深數據,能有雙倍進光量。另外一種是廣角+組合,這是iPhone 7 Plus旗艦採用攝像頭組合。

那麼雙攝有什麼優點呢?雙攝效果能有出色背景虛化效果,能夠背景虛化掉,凸顯出主體。

另外,雙攝能讓照片效果出色。雙攝像頭可以捕捉到景物細節,同時配合上像素點和大光圈,能夠實現照片效果。同時,雙攝有好玩玩法,比如3D攝影,克隆相機玩法,努比亞Z17上有出色表現。

科技發展有利有弊,雙攝像頭我們帶來出色拍照體驗同時,會有弊端出現。,很多手機有支持了背景虛化功能,這時一些手殘黨不可避免主體“虛化掉”了,有拍攝風景時候,風景拍虛了。

另外,有些手機雙攝拍攝時候焦會,最近我在用一款使用雙攝像頭手機時候,就出現了拍照很久才能拍好情況。

雙攝現這麼流行,大家選購手機時候要擦亮眼睛,有些手機雙攝像頭可能只是個噱頭,有些雜牌子手機可能只是“得像”雙攝而已。目前一些旗艦手機雙攝效果了,大家購機時候可以試一試雙攝給大家帶來體驗。

既然雙攝有種種優點,什麼有廠商沒有推出雙攝產品呢?比如索尼與三星。要知道,如今高端手機攝像傳感器索尼壟斷了。索尼可能是硬件方面遇到了障礙。而三星智能機拍照能力上造詣了得,沒理由進一步。

我們能説索尼今年旗艦產品Xpperia XZ Premium拍照能力嗎?顯然是不能。光是逆天960fps攝影證明瞭索尼。事實上,索尼之所以沒有選擇雙攝,於索尼認為攝潛力沒有壓榨乾。目前雙攝技術並非十分,攝畫質上完全可以雙攝一戰。

三星本年度旗艦Galaxy S8沒有使用雙攝,應當是光學指紋模塊鍋。從曝光三星Galaxy S8原型機能看出。三星是研發了搭載雙攝像頭版本Galaxy S8。但是,市售版並沒有搭載雙攝,反而是指紋識模塊放在了攝像頭旁邊。

種種消息可以推斷,三星本是有意推出雙攝版本Galaxy S8,但於光學指紋模塊出現問題,因此做出協。,三星Galaxy S8攝效果十分,雙攝手機相比落下風,依舊是目前安卓手機拍照機皇。應了索尼看法,攝潛力。

同時我們之前這篇文章中,對比了這三台目前旗艦手機後發現,其實三星Galaxy S8攝效果並會雙攝華為P10 Plus以及蘋果7P拉開太多距離。

是能檢驗手機拍照性能弱光環節,即使環境,但三星Galaxy S8樣張帶來效果是令人。雖然ISO帶來噪點是避免,但起碼能看清楚物體是什麼,色彩、通透、高飽和度,所以討好眼球。

這有賴於Galaxy S8支持像素雙核焦技術(Dual Pixel),圖像處理器上像素擁有兩個光電二極管,能夠地焦。因此整體表現出色、時。

從目前實際情況,雙攝同攝相比,畫質上拉開差距。於專業攝影者,雙攝可能會賦予他們創作空間。但於只是拍攝普通消費者來説,過於在意。

事實上,雙攝用武之地應當是AR。目前有消息稱,蘋果會下一代iPhone中引入AR功能。,即使如蘋果,能拿出AR解決方案。只是,如果有蘋果開始推動雙攝AR方案,那這項技術,會嗎?想來後,我們能體驗到雙攝之處了。

如之前文章介紹,雙攝像頭應用主要分為:距離相關應用,光學變焦,暗光補償以及3D拍攝和建模。每種應用原理有些,我們介紹一下相關原理:

人眼是一個物體距離進行定位,但人閉上其中一個眼睛後,定位能力會下降很多。9 g& Q3 ], {8 x+ O, W/ R2 G( t

簡單的説,測距離話,通過算法算出,拍攝物體左/右攝像頭角度θ1和θ2,加上y值(即兩個攝像頭中心距),非常容易算出z值(即物體到Camera距離)7 M, X* ~3 l7 V! B3 _

不過這推算,若兩個攝像頭中心過話,可計算物體距離會。若想算出距離,讓左右攝像頭距離拉。

光學變焦主要是左右攝像頭使用FOV(可視角),這樣兩個攝像頭取景。當用户需要廣角照片,視角85度左攝像頭取景,獲得廣角效果。當用户需要焦照片,視角45度右攝像頭取景,獲得焦效果。0 B1 b- B2 o& R6 H7 E# {2 g! A

使左右攝像頭拍攝物體重疊度,光學變焦雙攝像頭模組不能像做距離應用攝像頭模組那樣距離過,而是需要將左右攝像頭擺得。/ N8 R” H2 K+ W1 g; T% s

! s8 O5 t) L+ L, P4 `% G

其實第二篇時候,小編介紹過暗光增強原理。來講,做暗光增強兩個攝像頭一個RGBG標準攝像頭,一個去掉RGBG 濾波片黑白攝像頭。RGBG用來獲得物體色彩,而黑白攝像頭用來獲得進光量,來判斷拍物體強度。然後兩個圖片融合獲得暗光增強。

只是來説,有兩種融合方法:# c% n+ R% O% I3 d4 m& Y, m

1. 黑白圖片主體,將彩色圖片上獲取每個像素顏色貼至黑白圖片上,兩種圖片融合。

2. 彩色圖片主體,將黑白圖片上獲取每個圖像強度補償到彩色照片上,兩種圖片融合。

至於哪種方式做融合,可能仁者見仁智者見智,這展開討論了。; ?” X. Y9 D2 r’ g6 ~: j. D! x

,做暗光增強,讓左右攝像頭拍攝物體重疊圖,此類雙攝像頭模組是要求。

E8 d; V4 D, H0 V) }6 [

需要説事,華P9 選用這個方式模組。- W3 T0 L” R* @& C9 |! H; ^3 T7 l! k

有些業內人士表示這種算法目前做效果並不明顯。暗光補償用户來幫助,拍夜景時候。不過有些客户認為索尼和三星Dual PD技術,願意Dual PD 攝像頭來做暗光補償。

是雙攝像頭是Dual PD暗光補償效果,大家可以一下華P9和三星Galaxy S7 edge,會有答案了。0 m- k% z) [& v, u0 j) m8 v

3D拍攝和3D建模算法距離應用有點類,只是它精度要求,有時會需要外測距進行距離判斷。這裏編詳展開介紹了。* G0 }7 Y* F+ V