在討論MTF這檔子事之前,我們要先釐清一件觀念,那就是MTF、LP(線對)測試只看成像端。
甚麼意思?
以下參考網站中提到
http://www.image-engineering.de/index.php?option=com_content&view=article&id=483
In the analog times, the resolution of film and/or lens was expressed in line pairs per millimeter (LP/mm). This unit expresses the amount of line pairs you can find within one millimeter in the sensor/film plane. One line pair is a black line and a white line next to each other in the same orientation and with the same width. If you have 100 LP/mm resolution of a lens, this means that one find 100 black and 100 white lines within 1 mm projected on the film (or sensor).
假設你用MTF測試方法測到一顆鏡頭擁有100 lp/mm的解像力,指的是底片(或數位sensor)上可以清楚量出每mm有100對黑白線條的成像密度(而不是原始物體的細節密度)。
並且把這個成像密度給一個分數,這分數就是MTF,單位是對比度,用%表示。
若有好幾顆同樣都可以投影出100 lp/mm高密度成像的鏡頭,就用%來分高下,%愈高的表示影像愈犀利。
也許有人以為 lp/mm指的是物體細節密度,那就不對了。
想像一下,從平常玩鏡頭的經驗可以得知,超廣角可以拍很大很寬廣的東西,但小細節比較吃虧。
在相同距離下,微距或顯微鏡拍不了很大的東西,但可以把小細節描述得很豐富。
按這道理微距鏡在MTF分數一定電爆廣角鏡,
但事實上,高品質的超廣角在30 lp/mm擁有90%以上分數的也是比比皆是。
試問,甚麼方法可以讓超廣角拍出1mm裡面塞進30對黑白線條的小東西。
產生MTF測試條紋的方法有很多種,有直接拍攝條紋狀的印刷品、也有利用儀器機台產生黑白干涉條紋的成像方式。
我們知道鏡頭用來捕捉光線,無論原始物體白的有多白,黑的有多黑,鏡頭不能保證100%還原。
MTF測試關心的是鏡頭對於空間頻率的轉換特性,但是必須由對比度來量化量測結果。
所以第一個步驟是對成像的對比度(最大亮度與最低亮度)做正規化。
首先,先降低黑白條紋的頻率(用粗的條紋),找到【即使再怎麼變粗,對比度也不會更高】這時的對比度,
將最低成像亮度定義為0,最高成像亮度定義為1。
所以,發色淡的鏡頭與發色深的鏡頭在極粗條紋測試,因為正規化的關係,一定都是100%分。
不會有發色淡的鏡頭看起來對比比較低,而分數低於深發色鏡頭這種事。
如果有,表示你看到的這組測試比當時做正規化的條紋還細得多。
當空間頻率增加(黑白條紋變細、密度漸增),成像對比度逐漸下降、愈來愈模糊不清。
我們定義一個基本門檻,當線對密度增加到一個程度,對比度仍保有50%時 (例如最亮是原本的0.75,最暗是原本的0.25)
表示鏡頭在該頻率下仍有50%可接受的解像轉換能力,這就是所謂的MTF50標準。
例如上圖左,MTF50 = 40 lp/mm
再來,這種類型的MTF圖也很常見,沿著成像中心一直到成像邊緣,將各個位置的MTF50分數都做出來,
藉以表示鏡頭不同位置的成像品質,以及在不同片幅裁切下的表現。
例如上圖右,成像圈中央細節可以呈現到50 lp/mm,APSC邊緣(半徑14~15)可以保有40 lp/mm以上,但FF邊緣(半徑20~22)則掉到10 lp/mm。
鏡頭的事歸鏡頭,一直到這裡才剛要開始提到數位像素的事情,我們會關心某顆鏡頭的解像力能不能配得上某台高解析度相機,於是應該將這兩者做個連結關係。
Nyquist Theorem定理提到,欲解析某個頻率的信號,那至少需要準備兩倍於該信號的頻率。
假如一個成像細節的寬度叫做lw,那麼轉換成數位像素的話,一個像素的寬度必須只有lw的一半大,也就是至少用兩個像素來表達一個lw。
套用這套理論,雖然中間有些過程很多都簡化掉、忽略不談,我將描述鏡頭解像力lp/mm換算到匹配的像素密度或像素大小。
當然,為什麼是兩個像素,可以大致看一下上面的例子。
我故意把圖中最細微的部分放大,無論是小像素的相機還是大像素的相機,它們能夠清楚表現的細節大小,
剛好都是大約自己的兩個像素寬,比這個更小的尺度就算鏡頭有能力解出來,也無法有效地呈現。
相對的,相機的像素很細,但鏡頭解像力沒跟上也是一樣枉然,
例如最右邊那條線,在【原始光線】那端是有黑白細節存在的,但已經被鏡頭模糊喪失掉了,即使用小像素相機也未能拍得清楚。
最後趁這個機會,我們來討論片幅與畫質細節的關係。
首先引用光學倍率等比簡式,分子部分都是與【像】方面有關的,分母部分都是與【物】有關的。
舉個例子,想要拍廣角大景,視野不變(例如固定100度寬),物距不變(例如必須站在觀景台上,拍攝點的位置是固定的)
從APSC換成FF片幅(片幅x1.5),鏡頭選適用的(焦距/1.5),
有趣的來了…
當這兩台相機的sensor其想素大小一樣或非常接近的時候,一個像素可以呈現的最小尺度就是除以1.5。
【一個像素可以呈現的最小尺度】講通俗一點,就是最小極限的細節,再簡短一點,就是細節。
這裡指的是物端的細節,也就是木頭上的紋路或者皮膚上的細毛甚麼的。
所以以後要勸敗升級FF的時候,就挑明了,細節提升1.5倍。
片幅變大的影響是非常直接的。那如果像素大小又更細小呢? 那又是一項非常直接的加乘效果。
(這裡又先撇開前面大書特書關於鏡頭解像力夠不夠這檔子事)
筆者目前用的是N家的D90,上面列出近期所有熱門的N家機種予以比較。
然後用前文提到的原理將細節提升程度標記在箭頭邊的小字,基本上,不論升級為現在哪一款機種,
細節均有所提升,不可否認提升最多的必然是D800系列。
反而使用16MP CMOS的D4 DF系列因為像素較大,片幅提升的效果被像素大小給稀釋掉。
另外,24MP的D7100已經是該世代像素最小的DSLR,像素比36MP的D810還小,但因片幅尺寸的關係,由D7100升級到
D810依然可以得到1.25倍的細節提升。
回到原本的命題,
D810,匹配其0.0048 mm/pixel的像素大小,至少需挑MTF50有50 lp/mm的鏡頭。
D7100,匹配其0.0040 mm/pixel的像素大小,至少需挑MTF50有60 lp/mm以上的鏡頭。
除了因不需要太大的成像圈所以邊緣解像力需求較低外,不然D7100的鏡頭匹配是比D810更嚴格的。
相關文章: RAW檔兩三事