SIGMA sd1 merrillの撮影素子は! [SIGMA sd1 merrillの撮影素子]
■SD1 Merrill 17-50/2.8 キット■
SIGMA sd1 merrillの撮影素子は、モノクロームセンサーに、
カラーセンサーを配した一般的な設計!
シグマのデジタルカメラ以外の、ほぼすべてに搭載されている一般的なイメージセンサーは、
「カラーフィルターアレイセンサー」と呼ばれます。
これらは、光を取り込むセンサー自体が、
そのままでは色情報を取り込むことができず、
光の強弱だけを取り込むモノクロームセンサーなのです。
ですから、フォトセンシングを行う1画素相当のフォトダイオードの上に、
光の3原色である赤・緑・青(RGB)を市松模様状に配したカラーフィルターを置いて、
各画素あたり1色のみの情報を取り込むしくみになっています。
つまり、1,500万画素のカラーフィルターアレイセンサーであれば、
その全画素を、G(緑)を取り込む750万画素、
B(青)とR(赤)を取り込む各375万画素に3分割して色を取り込むことになります。
もちろんこのままではRGBが市松模様状に広がる奇妙な写真になるため、
各画素で失われた他の2色、
つまり、G(緑)を取り込んだ画素は、
隣接するB(青)とR(赤)を取り込んだ画素からそれぞれの色情報を取得して、
色補間処理と呼ばれる後段の処理によって、
最終的な写真に仕上げるというシステムをとっています。
>>>SD1 Merrill 17-50/2.8 キット
ではなぜ、B(青)とR(赤)は、それぞれ全画素の1/4しか割り当てられないのに対し、
G(緑)の画素のみが全体の1/2を占めているのでしょうか。
その答えは視覚のメカニズムにあります。
人間の眼は、この緑に相当する波長領域に対して最も感度が高く、
それゆえに、解像度情報をこの波長領域から得ているのです。
人間の視覚特性でより細部まで見えるのは、緑色なのです。
つまり、より多くの画素で緑の情報を取り込み、
視覚感度が比較的低い青と赤は少なめでよいという思想のもとにつくられています。
比較すれば感度が低いとはいえ、
人間の視覚が確実に感知している青と赤の色情報と、
緑で取り込んだ輝度情報との間には差があり、
結果、生成された画像において、
色解像度と輝度解像度に差異を生じさせています。
ここが弱点であり、正確に正しく写真を取れない理由になっています。
>>>SD1 Merrill 17-50/2.8 キット
そこで、sigma(シグマ)独自のダイレクトイメージセンサーの登場になるわけです。
ダイレクトイメージセンサーは、表層部から順に短い波長の光を吸収し、
深層部ほど長い波長の光を吸収する特性をもっているシリコンの特性を利用して、
各フォトダイオードごとに、表面近くからB-G-R(青-緑-赤)の順にすべての光を取り込みます。
色を水平方向に分離して取り込むのではなく、
垂直方向に取り込む点では、
基本的にカラーフィルムと同じ構造を持っています。
つまり、1,500万のピクセルロケーションを持つダイレクトイメージセンサーであれば、
レンズを通して撮像素子に運ばれてきた光から、
1,500万すべてのピクセルロケーションで、
RGB(青緑赤)の3原色をそのまま取り込めることを意味します。
ですから、撮像素子で色情報を取り込む際に、
ピクセルロケーションをRGB(青緑赤)各色の配分で分割する必要もなければ、
それによって、後段の処理で光情報を造ったり捨てたりする必要もないのです。
フルカラーキャプチャシステムで生成された画像においては、
原理的に色解像度と輝度解像度の差が生じ得ないのです。
実際には、デジタルカメラで撮影される被写体は、
色情報を含んでいる場合が圧倒的に多いため、
「自然な描写力」という点において、
色解像度と輝度解像度に差がないということは、
極めて重要な要素であるとシグマは確信しています。
さらに、一般的なカラーフィルターセンサーは、
RGB(青緑赤)の干渉によって、
この偽色の発生を発生させてしまいますが、
被写体と関係ない色を削ってしまうため、
本来の解像度やシャープネスを損なってしまします。
sigma(シグマ)の独自のX3ダイレクトイメージセンサーは、
そのローパスフィルターが存在しないので、
いや必要ないので、いかに被写体の本来の解像度やシャープネスに
すぐれているかご理解いただけると思います。
>>>SD1 Merrill 17-50/2.8 キット
さらに、ローパスフィルターによって削られた色が不足しているため、
本来の正しい色に戻すことは不可能です。
そんな問題もsigma(シグマ)のX3ダイレクトイメージセンサーによって、
本来の被写体の色を正確に捕らえ画像にしてくれます。
SIGMA sd1 merrillの購入は、
こちら↓
SIGMA sd1 merrillの撮影素子は、モノクロームセンサーに、
カラーセンサーを配した一般的な設計!
シグマのデジタルカメラ以外の、ほぼすべてに搭載されている一般的なイメージセンサーは、
「カラーフィルターアレイセンサー」と呼ばれます。
これらは、光を取り込むセンサー自体が、
そのままでは色情報を取り込むことができず、
光の強弱だけを取り込むモノクロームセンサーなのです。
ですから、フォトセンシングを行う1画素相当のフォトダイオードの上に、
光の3原色である赤・緑・青(RGB)を市松模様状に配したカラーフィルターを置いて、
各画素あたり1色のみの情報を取り込むしくみになっています。
つまり、1,500万画素のカラーフィルターアレイセンサーであれば、
その全画素を、G(緑)を取り込む750万画素、
B(青)とR(赤)を取り込む各375万画素に3分割して色を取り込むことになります。
もちろんこのままではRGBが市松模様状に広がる奇妙な写真になるため、
各画素で失われた他の2色、
つまり、G(緑)を取り込んだ画素は、
隣接するB(青)とR(赤)を取り込んだ画素からそれぞれの色情報を取得して、
色補間処理と呼ばれる後段の処理によって、
最終的な写真に仕上げるというシステムをとっています。
>>>SD1 Merrill 17-50/2.8 キット
ではなぜ、B(青)とR(赤)は、それぞれ全画素の1/4しか割り当てられないのに対し、
G(緑)の画素のみが全体の1/2を占めているのでしょうか。
その答えは視覚のメカニズムにあります。
人間の眼は、この緑に相当する波長領域に対して最も感度が高く、
それゆえに、解像度情報をこの波長領域から得ているのです。
人間の視覚特性でより細部まで見えるのは、緑色なのです。
つまり、より多くの画素で緑の情報を取り込み、
視覚感度が比較的低い青と赤は少なめでよいという思想のもとにつくられています。
比較すれば感度が低いとはいえ、
人間の視覚が確実に感知している青と赤の色情報と、
緑で取り込んだ輝度情報との間には差があり、
結果、生成された画像において、
色解像度と輝度解像度に差異を生じさせています。
ここが弱点であり、正確に正しく写真を取れない理由になっています。
>>>SD1 Merrill 17-50/2.8 キット
そこで、sigma(シグマ)独自のダイレクトイメージセンサーの登場になるわけです。
ダイレクトイメージセンサーは、表層部から順に短い波長の光を吸収し、
深層部ほど長い波長の光を吸収する特性をもっているシリコンの特性を利用して、
各フォトダイオードごとに、表面近くからB-G-R(青-緑-赤)の順にすべての光を取り込みます。
色を水平方向に分離して取り込むのではなく、
垂直方向に取り込む点では、
基本的にカラーフィルムと同じ構造を持っています。
つまり、1,500万のピクセルロケーションを持つダイレクトイメージセンサーであれば、
レンズを通して撮像素子に運ばれてきた光から、
1,500万すべてのピクセルロケーションで、
RGB(青緑赤)の3原色をそのまま取り込めることを意味します。
ですから、撮像素子で色情報を取り込む際に、
ピクセルロケーションをRGB(青緑赤)各色の配分で分割する必要もなければ、
それによって、後段の処理で光情報を造ったり捨てたりする必要もないのです。
フルカラーキャプチャシステムで生成された画像においては、
原理的に色解像度と輝度解像度の差が生じ得ないのです。
実際には、デジタルカメラで撮影される被写体は、
色情報を含んでいる場合が圧倒的に多いため、
「自然な描写力」という点において、
色解像度と輝度解像度に差がないということは、
極めて重要な要素であるとシグマは確信しています。
さらに、一般的なカラーフィルターセンサーは、
RGB(青緑赤)の干渉によって、
この偽色の発生を発生させてしまいますが、
被写体と関係ない色を削ってしまうため、
本来の解像度やシャープネスを損なってしまします。
sigma(シグマ)の独自のX3ダイレクトイメージセンサーは、
そのローパスフィルターが存在しないので、
いや必要ないので、いかに被写体の本来の解像度やシャープネスに
すぐれているかご理解いただけると思います。
>>>SD1 Merrill 17-50/2.8 キット
さらに、ローパスフィルターによって削られた色が不足しているため、
本来の正しい色に戻すことは不可能です。
そんな問題もsigma(シグマ)のX3ダイレクトイメージセンサーによって、
本来の被写体の色を正確に捕らえ画像にしてくれます。
SIGMA sd1 merrillの購入は、
こちら↓
Facebook コメント