2013年8月18日日曜日

ヘビでもわかるライトフィールドカメラの原理 その3.2 データと分解能

その2.4でLytroのカメラの構造について説明したが、今回はどのようなデータが実際に取得されているかについて簡単に説明する。




左の図はライトフィールドカメラの構造を2次元で表したもので、センサーは1次元で表されているが、実際はもちろん2次元。そこに4次元のデータ(4D Light Field)を記録する訳である。それを示したのが右の図である。センサーは(x, y)の座標を持ち、その中に更に(u, v)の座標がある。

(x, y)はマイクロレンズの位置によって決まり、(u, v)はその下のピクセルの座標であり、絞りのどの位置から来た光かが記録される。これらは当然ながら離散的であり、(x, y)の分割数はマイクロレンズの数、(u, v)の分割数はマイクロレンズ下のピクセルの数によって決まる。
つまり、空間分解能はマイクロレンズの数、方向分解能はマイクロレンズ下のピクセル数によって決まる。

これらのデータはデジタルデータなので自由に事後処理することができる。たとえば(x, y)と(u, v)の関係を入れ替えてみる。



すると(u, v)を指定したとき、その座標に形成される画像は前回説明したsubaperture imageになるということが分かる。(絞りの場所を指定した時の画像なので当然と言えば当然だが…)


事後処理についてはたぶんいろんなアルゴリズムがあってここでは説明できないので割愛する。



0 件のコメント:

コメントを投稿