2016年3月31日木曜日

Carl Zeissが出してた「MTFの読み方」を読んでみた(1)

まずはPoint Spread Funtion(PSF; 日本語だと「点拡がり関数」、すっごいダサい直訳)が不適切になる理由を理解しなければなりません。

収差を理論的な側面から理解するという観点からは、PSFという側面を見ることは良いことのように思います。形状とその大きさを見ればレンズから得られる像の特性を評価できることは事実です。ところが以下の1つの理由から、この比較は「そこまで良いものではない」ということが言えます。
  1. PSFの形状は条件次第でとても複雑になり、単純な説明をさせないことがあるため。特にデジカメのローパスフィルターは、それそのものがやや奇抜なPSFを有するので簡単には解析できない(PSFの解析の際には、それがたとえレンズのPSFでも一度「像」にする必要があるので、デジタルカメラを使って像を計測する場合はとても複雑な条件になる・3番目の理由で詳述)
    ※近年ではローパスフィルターが入ってないものもありますが、それでも像面、コマ収差、球面収差が複雑に絡んだPSFを理解することはとても大変でしょう
  2. PSFが分かったところで、実際の撮影シーンにこのPSFがそのまま適用できるようなものは少ないため。現実には天体撮影をする場合だけPSFがそのまま適用可能で、それ以外は「数多くのPSFが重なり合ってる状態」なのでPSFをいくつも配置し、それらの和を計算する必要があります。これは現実的ではありません。
  3. レンズを通して結像した像が人間の目に知覚される、一連の画像処理の流れは、次の章で述べるような方法によって、PSFによる解析よりもより自然で単純で美しく書き表せる。
最後の3.に書いてある「次の方法」というのはModulation Transfer(変調伝達)のことですが、これは次回改めて書きます。またMTFはModulation Transfer Functionの略です。

まとめると複数の収差(ザイデルの五収差と色収差)が、それぞれ違う大きさで複合的に現れてくる点光源によって光学系の善し悪しを評価することは困難であるということです。レンズの評価をするには、かならず像であり観測可能な状態である必要があります。この場合はレンズ単体の収差に加えて、像を得るためのデバイス(フイルムなりイメージセンサー)の特性も加味しなければなりません。

センサーやフイルムが違えば、同じレンズでも別のカメラで計測すれば別の結果となってしまいます。特に同じモデルでもローパスフィルターの作用をキャンセルしているものが設定されていれば(たとえばD800とD800Eであったり、5Dsと5DsRの関係)、それぞれにおけるPSFの結果は大きく異なることが予想されます。しかしながらこれらにおけるPSFの違いはレンズの違いを表しません(違いはあくまでセンサー構造の違いです)。

もちろんこのセンサーの違い(ローパスフィルターの有無)に起因するPSFの違いは、最終的な像の差違を生み出します(D800とD800Eの違い・デジカメwatchであったり、5Dsと5DsR・デジカメwatchでどのくらい違いがあるか検証しています)。しかしこれらの違いをPSF単独で見いだすことができるかどうか、というところが問題になってきます。特に私たちユーザーはPSFを示されても、一般的な被写体でどのような像が得られるかは予想することができません。

これらの事情からも、PSFは客観的な光学系の評価方法の1つでありながらも、一般撮影における像の状態を予想するためには適していないということができます(これがMTFが使われている理由)。

0 件のコメント: