写真のしくみ ㉓ 光を電気に変えるイメージセンサーと画素のはたらき
光はまっすぐ進み、レンズは世界をひっくり返す。写真と映像にひそむ小さな「なぜ?」を、数式なしで解き明かす全40回。
フィルムが化学の力で光を記録するなら、デジタルカメラは何の力で光をとらえているのでしょう。答えは「電気」です。今回は、光を電気信号に変換するイメージセンサーのしくみから、画素数とセンサーサイズが画質に与える影響、アナログの光がデジタルデータに姿を変える瞬間まで、一気にたどっていきます。
デジタルカメラの心臓部、イメージセンサー
デジタルカメラの中をのぞいたことはありますか? ミラーレスカメラならレンズを外すだけで、奥にキラリと光る小さな四角い板が見えます。一眼レフカメラなら、ミラーを跳ね上げたその先にあります。この小さな板がイメージセンサーです。
フィルムカメラの時代、まったく同じ場所にフィルムがありました。フィルムは光を受けて化学変化を起こし、像を記録していました。イメージセンサーはフィルムと同じ場所に座り、同じ「光を記録する」という仕事をしています。ただし、やり方がまるで違います。フィルムが「化学」の力で像をとらえるのに対して、イメージセンサーは「電気」の力で像をとらえます。
人間の体にたとえてみましょう。目には水晶体というレンズがあり、網膜という光を感じる膜があります。水晶体が光を集め、網膜がその光を受け取って、脳に電気信号として送ります。カメラも同じです。レンズが光を集め、イメージセンサーがその光を電気信号に変えて、カメラの中のコンピューターに送ります。つまり、イメージセンサーはカメラの「網膜」のようなものなんです。
この小さな板の性能が、写真の画質を大きく左右します。いいレンズを使っても、センサーの性能が低ければ台無しになりますし、逆に優れたセンサーがあっても、レンズがしょぼければ力を発揮しきれません。カメラは「レンズとセンサーの二人三脚」で写真を生み出しています。
光が当たると電気が生まれる
さて、イメージセンサーは光を電気信号に変えるといいました。では、どうやって?
ここでひとつ、すごいことを知ってほしいんです。光が物質に当たると、電気が生まれることがある。
イメージセンサーの材料はシリコン(ケイ素)という元素です。地球の地殻で酸素の次に多い元素で、砂や石英もケイ素の化合物(二酸化ケイ素)からできています。私たちの身のまわりにとてもありふれた元素で、コンピューターのCPUもメモリも、ほとんどの半導体製品がこのシリコンからできています。
このシリコンに光が当たると、何が起きるでしょうか。
シリコンの結晶の中には、ふだん原子のまわりにおとなしく束縛されている電子がたくさんいます。ところが、光のエネルギーが十分に大きいと、この電子が束縛から解き放たれて、結晶の中を自由に動き回れるようになります。電子が抜けた跡には「正孔(ホール)」と呼ばれる穴ができます。これを電子・正孔対といいます。自由に動ける電子が増えるということは、電流が流れやすくなるということです。光が強ければ強いほど、解き放たれる電子の数が増え、電気信号も大きくなります。
この現象を光電効果と呼びます。
「光電効果」と聞いて、アインシュタインの名前を思い浮かべた人もいるかもしれません。1905年、アインシュタインは「光が金属に当たると電子が表面から飛び出す」という現象を説明し、1921年にノーベル物理学賞を受けました。これは外部光電効果と呼ばれるものです。光のエネルギーで電子が物質の「外」へ飛び出すからです。
イメージセンサーで使われているのは、これとは少し違います。電子は物質の外に飛び出すのではなく、物質の「内部」でエネルギーをもらって自由に動けるようになります。こちらは内部光電効果と呼ばれています。外部と内部、名前は似ていますし、「光のエネルギーが電子に渡される」という根っこの考え方は共通していますが、起きている現象は区別されます。
いずれにせよ、大事なポイントはこれです。光にはエネルギーがあり、そのエネルギーが物質の中の電子を動かす。この自然現象のおかげで、カメラは光を電気信号に変換できるんです。自然の法則がカメラの心臓部を動かしていると思うと、ちょっとわくわくしませんか?
シリコンの内部光電効果が起きるには、光のエネルギーがシリコンの「バンドギャップ」(約1.1 eV)を超えている必要があります。これに対応する波長はおよそ1100nmで、可視光(380〜780nm)はすべてこの条件を満たします。だからシリコンはカメラのセンサー材料に適しているのです。ただし近赤外線(780〜1100nm付近)にも反応してしまうため、多くのカメラではセンサーの前に赤外線カットフィルターを置いて、人間の目に見える範囲の光だけを記録するよう調整しています。
センサーの上に並ぶ「画素」たち
イメージセンサーの表面を、とてつもなく強力な顕微鏡で拡大してみましょう。すると、ものすごく小さな光の受け皿が、碁盤の目のようにびっしりと並んでいるのが見えます。このひとつひとつが画素(ピクセル)です。
ひとつの画素の中には、フォトダイオードと呼ばれる部品があります。フォトダイオードはシリコンでできた半導体素子で、先ほど話した内部光電効果を利用して、当たった光の量に応じた電荷(電気のもと)をためこみます。光がたくさん当たった画素には電荷がたくさんたまり、ほとんど光が当たらなかった画素にはわずかな電荷しかたまりません。
つまり、画素ひとつひとつが「自分のところにどれだけ光が来たか」を測っているんです。
ここで、モザイクアートを思い浮かべてみてください。小さなタイルを何万個も並べて一枚の大きな絵を作る、あの作品です。遠くから見ると美しい風景や人物の顔に見えますが、近づくと一枚一枚のタイルは単なる色のかたまりにすぎません。
イメージセンサーもまったく同じ発想です。ひとつの画素は「自分の場所の光の強さ」しかわかりません。でも、それが何百万個、何千万個と集まることで、レンズが結んだ像がまるごと電気信号として写し取られます。
現在のデジタルカメラには、だいたい2000万から6000万ほどの画素が載っています。たとえば2400万画素のセンサーなら、横に6000個、縦に4000個の画素が並んでいる計算です。あの小さなチップの上に、です。半導体の技術って、本当にすごいですよね。
画素数が多ければいいわけではない
「画素数が多いほどいいカメラでしょ?」
カメラ売り場でよく聞くセリフです。たしかに、画素数が多ければ記録できる細部(ディテール)は増えます。大きなポスターにプリントしたいときや、写真の一部を切り抜いて拡大したいときには画素数の多さが効いてきます。
でも、話はそう単純ではありません。
ここで想像してみてください。センサーの大きさを変えずに画素数だけを増やしたら、何が起きるか。答えは簡単で、ひとつひとつの画素が小さくなります。同じ面積をより多くの区画に分けるのですから当然です。
画素が小さくなると、ひとつの画素が受け止められる光の量が減ってしまいます。
たとえ話をしましょう。雨の日に校庭へ出て、バケツを並べて雨水を集めるとします。大きなバケツなら、たっぷりと水がたまります。でも、同じ校庭にバケツの代わりに小さなおちょこをぎゅうぎゅうに並べたらどうでしょう。ひとつひとつのおちょこにたまる水はほんのわずかです。数は増えたけれど、それぞれの器が受け取る量は減っています。
画素もまったく同じです。小さな画素は受け止める光が少ないので、電気信号も弱くなります。信号が弱くなると、センサーの内部で常にわずかに発生している電気的なゆらぎ、ノイズが相対的に目立つようになります。暗い場所で撮った写真がザラザラして見えることがありますが、あれはノイズが信号に対して大きくなっている状態です。
つまり、やみくもに画素数を増やすと、一枚一枚の画素が受け取る光が減り、結果としてノイズが増えてしまう可能性があります。カタログの画素数の大きさだけを見て「こっちのほうが高性能だ」と決めつけるのは早合点です。大事なのは、画素の「数」と「ひとつの画素が集められる光の量」のバランスなんです。
センサーが大きいときれいに写る理由
それなら、画素をもっと大きくすればいいですよね。では、どうやって?
方法はふたつあります。ひとつは画素数を減らすこと。もうひとつは、センサーそのものを大きくすることです。
カメラの世界では、いくつかのセンサーサイズが広く使われています。代表的なものを大きい順に並べてみましょう。
- フルサイズ(35mm判) 約36mm × 24mm
- APS-C 約23.6mm × 15.8mm
- マイクロフォーサーズ 約17.3mm × 13.0mm
- 1型 約13.2mm × 8.8mm
- スマートフォン これよりさらに小さい
フルサイズセンサーの面積はAPS-Cのおよそ2.3倍、マイクロフォーサーズのおよそ3.8倍、1型のおよそ7.4倍もあります。
同じ画素数なら、センサーが大きいほうが画素ひとつあたりの面積が広くなります。面積が広い画素は、それだけ多くの光を受け止められます。先ほどのバケツのたとえでいえば、フルサイズセンサーは「広い校庭にゆったりとバケツを並べている」状態で、小さなセンサーは「小さな庭におちょこを並べている」状態です。同じ雨が降っても、集まる水の量が違います。
だから、フルサイズのカメラは暗い場所でもノイズが少なく、きれいに写りやすいんです。夕暮れの風景や薄暗い室内でのスナップ写真で差が出やすいのはこのためです。
さらに、画素が大きいとダイナミックレンジにも余裕が出ます。ダイナミックレンジとは、センサーが記録できる「一番暗いところから一番明るいところまでの幅」のことです。画素が大きければ電荷をためられる容量(ウェルキャパシティ)も大きくなり、明暗差の激しいシーンでも白飛びや黒つぶれが起きにくくなります。
ただし、大きなセンサーにはそれに見合う大きなレンズが必要になります。カメラ本体もレンズも大きく重くなりますし、価格も上がります。小さなセンサーには「軽い、コンパクト、手ごろな価格」という大きな利点があります。
どちらが優れているという単純な話ではありません。何を撮りたいか、どこへ持っていくか、予算はどれくらいかで最適な選択は変わります。大事なのは、センサーサイズの違いが画質にどう影響するかを知っておくことです。
スマートフォンとデジタルカメラの両方を持っていたら、同じ暗い場所で同じ被写体を撮り比べてみましょう。撮った写真を画面いっぱいに拡大すると、スマートフォンの写真にはザラザラしたノイズが目立つのに、センサーの大きなカメラではノイズが少なくなめらかに写っているはずです。センサーサイズの違いを、自分の目で実感できます。
アナログの光からデジタルのデータへ
ここまでの話をまとめましょう。光がイメージセンサーに当たると、画素の中のフォトダイオードが光電効果によって電荷を生み出します。この電荷の量は光の強さに応じて連続的に変化します。つまり、アナログ信号です。
でも、コンピューターやメモリーカードが扱えるのは0と1の並び、つまりデジタルデータです。だから、アナログの電気信号を数字に変換しなければなりません。この変換をA/D変換(アナログ・デジタル変換)と呼びます。
わかりやすいたとえを出しましょう。
体温計を思い浮かべてみてください。昔ながらの水銀体温計では、液面の高さが連続的に変わります。36.527…℃のように、どこまでも細かい値がありえます。これが「アナログ」です。一方、デジタル体温計は「36.5℃」のように、決まった刻みの数字で表示します。実際の体温を一定の精度で「丸めて」数値化しているわけです。
A/D変換もこれと同じことをしています。画素にたまった電荷を電圧として読み出し、それを決められた段階数の数字に割り当てます。
このとき、「何段階に分けるか」がとても重要です。段階が少ないと大ざっぱな記録になり、微妙な明暗の差が失われます。段階が多ければ、より精密に光の強弱を記録できます。この段階数を決めるのがビット深度(bit depth)と呼ばれるものです。
- 8ビットなら $2^8$ = 256段階
- 12ビットなら $2^{12}$ = 4,096段階
- 14ビットなら $2^{14}$ = 16,384段階
段階が増えるほど、明るさのグラデーションをなめらかに記録できます。たとえば、夕焼け空のオレンジから紫へと移り変わる微妙な色の変化。段階が粗いとこの変化がカクカクした「バンディング(縞模様)」になってしまいますが、段階が細かければなめらかなグラデーションとして残ります。
現在の多くのデジタルカメラは12ビットから14ビットのA/D変換を行っています。カメラが生成するRAWデータ(センサーの信号をほぼそのまま保存した「生」のデータ)には、この細かい段階がそのまま記録されます。だから、あとからパソコンで明るさや色を調整しても、階調が破綻しにくいんです。JPEG画像は8ビット(256段階)に圧縮されているので、RAWに比べると調整の余地が狭くなります。
こうして、レンズが集めた光は、イメージセンサーの画素で電荷に変わり、A/D変換によって数字の列に変わります。光という自然現象が、0と1のデジタルデータに姿を変える瞬間。これがデジタルカメラの中で静かに、しかし猛烈なスピードで起きていることなんです。
この回のまとめ
この回では、デジタルカメラの心臓部であるイメージセンサーのしくみを見てきました。ポイントを振り返りましょう。
- イメージセンサーはカメラの「網膜」。 レンズが結んだ像を受け取り、光を電気信号に変えます。フィルムカメラのフィルムに代わる役割を果たしています。
- 光が電気に変わるのは「光電効果」のおかげ。 シリコンに光が当たると、内部光電効果によって電子が解き放たれ、電気信号が生まれます。光が強いほど信号も大きくなります。
- センサーの上には何百万もの画素が並んでいる。 画素ひとつひとつがフォトダイオードを持ち、自分の場所に届いた光の強さを記録します。モザイクアートのタイルのように、膨大な数の画素が集まってはじめて一枚の像になります。
- 画素数は多ければいいという単純な話ではない。 センサーの大きさが同じなら、画素数を増やすほど画素ひとつあたりのサイズが小さくなり、受け取れる光が減ります。ノイズが増え、暗い場所での画質に影響が出ることがあります。
- センサーが大きいと画素にゆとりが生まれる。 大きなセンサーは画素ひとつあたりの面積が広くなり、より多くの光を受け止められます。ノイズが少なく、ダイナミックレンジにも余裕が出ます。ただし、カメラやレンズが大きく重くなるトレードオフがあります。
- アナログの信号はA/D変換でデジタルデータになる。 電荷の量を数字に変換することで、コンピューターが扱える形になります。ビット深度が大きいほど、明暗の微妙な違いを精密に記録できます。
光が飛んできて、シリコンの中の電子を揺り動かし、その電荷が数字に変わる。たったこれだけのことなのに、そこには物理学の法則と半導体技術の粋が詰まっています。シャッターを切るたびに、カメラの中ではこの壮大な変換が何千万回も同時に起きています。次にカメラを手に取ったとき、そのことをちょっと思い出してみてください。次回は、白黒の世界しか見えないこのセンサーがどうやってカラー写真を生み出すのか、その秘密に迫ります。