世界を動かす技術を、日本語で。

深宇宙の写真を色補正できない理由

概要

  • 天体写真の色表現 は非常に議論が多いテーマ
  • 人間の視覚とカメラのセンサー の違いが色再現の難しさの原因
  • 赤外線や特定波長の扱い でカメラと肉眼に差異
  • 色補正やホワイトバランス にも限界が存在
  • 最終的な色選択 は撮影者の判断に委ねられる場合が多い

天体写真における「色」の論争

  • 天体写真 では「正しい色」「自然な色」に関する論争が絶えない現状
  • 人間の視覚 は複雑で、色の感じ方も個人差や環境要因が大きい
  • 視細胞 は主に4種類で、 杆体 は白黒情報、 錐体 は赤・緑・青の波長に反応
  • 赤と緑の錐体 は感度が重なり、脳内で緑成分が引かれることで独特な色認識
  • 色の知覚 は各錐体の信号比率(RGB比)による

カメラと人間の色認識の違い

  • カメラのピクセル はモノクロ画像を生成し、上にRGBフィルター(Bayer配列)が重ねられる
  • カメラの色精度 はフィルターの特性が人間の錐体にどれだけ近いかで決まる
  • 800-1000nmの赤外線領域 は人間には見えないが、カメラには感知される
  • 赤外線はすべての色チャンネルを等しく刺激 し、結果的にパステルピンクとして現れる
  • 赤外線カットフィルター を装着することでこの問題は回避可能

特定波長の発光体とカメラの感度

  • 水素(H-alpha 656nm, H-beta 486nm) は主に赤と青で発光
    • 人間の目 はH-alphaに鈍感で、H-betaの青が強調されピンクに見える
    • カメラ はH-alphaに高感度で、赤が強調される
    • UV-IRカットフィルター が強いカメラでは逆に青みが強調される
    • フィルターを外す(改造) と今度は赤に過敏になる
  • 酸素(OIII 500.7nm) は緑〜青の間で発光
    • 人間の目 には緑がかったターコイズ(sRGB #00FFBA)に見える
    • カメラ はシアン(sRGB #50E4FF)として認識
    • 色補正マトリクス を使っても、全体の彩度が上がるだけで正しい色にはならない

宇宙空間の色再現の限界

  • 宇宙空間 では「色校正」の前提が成り立たない
    • 光源や明るさが均一でない
    • 物体自体が発光している場合が多い
  • ホワイトバランス も一筋縄ではいかず、一般的には「昼光」設定が使われるが、正確とは限らない
  • 著者は平均的な渦巻銀河を基準 にホワイトポイントを設定し、ある程度客観性を保つ方法を採用

まとめ:天体写真の色はどう決めるべきか

  • カメラと人間の視覚の違い から、完全な色再現は不可能
  • 色補正やホワイトバランス にも明確な正解は存在しない
  • 最終的な色選択 は撮影者の美意識や目的に委ねられる現状

Hackerたちの意見

次の宇宙ミッションは、月にカラーカリブレーションチャートを置くべきだね。

月自体がすでにその役割を果たしてるよ。月面の観測は、少なくとも地球観測衛星のキャリブレーションに広く使われてる。満月の明るさは、各波長ごとに一年中予測できるし、よく知られてるから、ペイロードの確認にはいいターゲットなんだ。

アポロミッションでは、カラーチャート付きのノモンを持って行ったんだ。サンプルの写真を撮るときに、よく設置してたよ。 https://airandspace.si.edu/collection-objects/gnomon-lunar-a...

火星のローバーにもカラーカリブレーションチャートを置いてるよ。例えば、https://www.lucideon.com/news/colour-standards-on-mars

アポロ17号の月のカラーチャートの写真だよ(AS17-137-20900):https://tothemoon.im-ldi.com/data_a70/AS17/extra/AS17-137-20...

最近、人間の色覚とカメラについて深く掘り下げてるんだけど、RGBベイヤーフィルターが過剰に使われてる印象があるんだ。主に市場シェアのせいでね。人間の視覚を模倣する以外の用途にはあまり向いてないと思うよ!例えば、静止したシーンがあるなら、モノカメラの前にたくさんフィルターを置いて、もっと多くの周波数情報を得るっていうのはどう?

知らなかったらだけど、最後の部分はほとんどの光学科学イメージング(例えば、衛星画像や分光法全般)を説明してるんだよ。

これは高級天体写真では一般的で、ほぼプロの天文台でしか使われてないね。でも、科学者たちは「長方形」のフィルターが好きで、平坦なパスバンドとシャープな減衰が特徴なんだ。人間の色覚とは全然違うよ。

プッシュブルームのセットアップがいいと思うよ: https://www.adept.net.au/news/newsletter/202001-jan/pushbroo... ハイパースペクトルイメージングは本当に面白い分野だよ。基本的なフィルターと時間的なトリックでたくさんのことができる。ただ、ホットミラーの領域(ほとんどのカメラで行われる近赤外線と赤外線のフィルタリング)を出ると、かなり専門的にならなきゃいけないけどね。でも、コールドミラー(可視光をカットする赤外線フィルター)とナイトビジョンカメラを使えば、安くて楽しいパーティーができるよ。

偏光も忘れないで!周波数だけじゃなくて、もっと情報があるからね。

これの技術用語はマルチスペクトルイメージングだよ。科学や産業でたくさんの応用がある。

そうそう、カメラ技術が主に白人を映画で普通に見せるためにキャリブレーションされてるって知って驚いたよ。他は二の次だったんだ。だからカメラは暗い肌のトーンに苦労することが多いんだよね。技術が彼らを無視してきた100年のせいで。それを知って驚いた自分にまた驚いたよ。

それは時間と周波数の情報を空間情報に変えることになるけど、天文学ではそれが必要なんだよね。でも、家族の写真にはあんまり向いてないかも。

かなりやってるよ。多スペクトルイメージングは天文学や科学研究、アートや歴史的な遺物の研究でよく使われている分野なんだ。一部の写真家も使ってるけど、シーンが少し変わると画像がぼやけちゃうから難しくなるんだよね。一般的に、写真家はもっと人間に近い表現を捉えようとしてるしね。 https://en.wikipedia.org/wiki/Multispectral_imaging https://colourlex.com/project/multispectral-imaging/

大多数の消費者は、自分のカメラで「人間の目に良く見える」写真を撮りたいと思ってる。その他の使い方はニッチだね。でも、実際に天体写真家が星を人間の目に合わせてキャリブレーションすることに興味を持ってるのには驚いたよ。記事ではいくつかの例(赤外線や水素放出線)を通じて、人間の目は星の「本当の」色を見るには非常に貧弱な道具だって示してる。ほとんどの天文学の写真は、目に見える以上のものを示すために偽色を使ってる(NASAのアーカイブのキャプションをチェックしてみて)から、効果的なんだ。

なんでモノカメラの前にたくさんのフィルターを置いて、もっと周波数情報を得ないの?ただのRGBフィルターじゃ、同じ露光時間でバイヤーマトリックスより良いものは得られないし、地球上のほとんどの被写体は動きすぎて3つのフィルターで別々に露光するのは難しいんだ。モノカメラとRGBフィルターの利点は、私たちの感覚の別の特性を利用できること。私たちは色よりも明るさに敏感なんだ。だから、RGBフィルターで限られた露光時間を使って、ほとんどの時間は4つ目の「輝度」フィルターを使うことができる。処理中にRGB画像を組み合わせて、それをHSIに変換し、Iチャンネルを輝度画像で置き換えることができる。Lフィルターはあまり光を遮らないから、信号を得るのが早いけど、本当に暗いものに対して信号を得るのが問題な時にしか本当の利点にはならないんだ。

これと同じことが地球の衛星画像にも当てはまるよ。人間の目の感度に大体対応する光学バンドがあっても、反応パターンはかなり違うんだ。作るビジュアライゼーションでその波長バンドを使ってるわけでもないことが多いしね。科学センサーはできるだけ「四角い」スペクトル応答を求めるから、人間の目の反応とは全然違うんだ。センサーからリアルなRGBビジュアライゼーションを得るのは、まさにアートだよ。

画像の正しい色は、各ポイントのための滝プロットに似た多スペクトル放射線画像だね。各FFTビンは100GHzのサイズで、範囲は1000THzを超えるんだ。ある意味で、CCDレベルでもカラーセンサーは同じことをしてるよね。特定の色に対して感受性のあるラジオエネルギーを圧縮して平均化してるんだ。

https://en.wikipedia.org/wiki/Hyperspectral_imaging

ヴォイジャーが撮った木星の衛星イオの最初の画像が明るい赤と黄色、そして土星の衛星エンケラドスが緑色だったことを、いまだに許せないんだよね。

ネプチューンは長い間深い青として描かれてきたけど、実際には天王星と似た淡い緑がかった青なんだよね。

天体写真にちょっと手を出したことがあるけど、色はオブジェクトの構造(と美しさ)を引き出すために使うのがベストだと思う。人間の目に忠実に合わせようとすると、残念ながらそのデータが見えづらくなったり理解しづらくなったりするんだ。特にナローバンドではそうだね。

それに、何の意味があるの?物体が青よりちょっと緑に見えたところで、宇宙の不思議には何の変化もないし。

ハッブルパレットはコントラストを良くするために特別に選ばれたんだ。だから、実際に星雲の異なる部分が見えるんだよ。そうじゃなかったら、ただの微妙に違う赤や赤外線の色合いになっちゃう。

宇宙だけじゃなくて、地球上のカジュアルな写真でも、均一な光源や明るさで照らされてるわけじゃないよね。「昼間」や「曇り」みたいな特定のシチュエーションを除けば、特に夜にいろんな人工光源を混ぜて撮影すると、似たような問題が出てくる。RAWで撮影すれば、問題は開発段階に移るけど、バランスを取るのが難しいし、他の光源が変に見えちゃうこともある。でも(これは深宇宙の写真にはない逆説だけど)、驚くことに同じシーンが人間の目には美しく見えるんだよね!結局、光の解釈や人に見せたいものは主観的なクリエイティブな仕事なんだ。

人間の視覚システムは、すでにこの問題に対処するように適応してるんじゃないかな。

「赤と緑の錐体には重複が多いから、脳は赤からいくらかの緑を引き算して、このスペクトル応答を生み出す。」って言ってるけど、錐体は負の応答を出さないよ。グラフは、その波長でスペクトルカラーを再現するために必要な原色の強度を示してる。負の値は、原色が他の原色と加算するのではなく、スペクトルカラーに合わせるために加えられたことを示してる。

いや、錐体は負の応答を出さないよ。全然言われてることと違うじゃん…

でも、これは深宇宙の写真の固有の特性じゃなくて、一般的に使われてるセンサーの特性だよ。人間の応答曲線に合わせた望遠鏡を作れない理由はないし、科学的な観点からはあまり意味がないかもしれないけど。

一般の人がいつも知りたいのは、「もし安全なガラスのバブルの中で宇宙に浮かんで、この物体を目で見たら、何が見えるの?」ってことだよね。誰かこの答え知ってる?ただの黒なのかな?それとも明るい白い星だけ?

空にあるほとんどのものは、黒く見えるだろうね。これらのものは信じられないほど暗いから、十分な信号を得るには何時間も露光が必要なんだ。何時間も露光した後でも、重ねた生のフレームは黒いフィールドに小さな光点があるだけだよ。例外は自分たちの太陽系のものだね。

そうだね、最も密度が高くて近くて興味深い構造のいくつかは、他の天の川の後ろに隠れてるんだ。それが可視光で最大30等級の消失を引き起こすけど、深い赤外線や紫外線はもっと簡単に通過するんだ。問題を説明するのに良い方法は、宇宙の構造の多くは非可視波長でしか見えないってことだと思う。だから、「安全なガラスのバブルの中にいるような」キャリブレーションされた正確なビジュアルは、天体写真の良いカテゴリーだけど、電磁放射を放出しているもののほんの一部しか可視化する価値がないんだ。もしカメラが見えない色を見えるものに変換できるなら、それは素晴らしい能力だね。

天体望遠鏡を通して見ると、実際に星からの光が網膜に当たるから、自分でこの質問に答えられるよ!星雲や銀河みたいなものは形がはっきり見えるけど、色はあまり見えなかったり、ぼやけてたりすることが多いんだ。これは、私たちの目の色を感じるコーン細胞が、低光量の時にはモノクロのロッド細胞ほど機能しないからだね。オーロラを見たことがある人ならわかると思うけど、色が認識しにくいけど、カメラを使うと色がはっきり出るよね。光の強さによっても大きく変わるし、物体からの光の強度によっては、目で自然に色を感じ取れる星雲や他の天体もあるよ。あと、人によって夜間視力や低光量での色の認識能力はかなりバラつきがあるから、視力(近視や遠視)も個人差が大きいし、年齢とともに少し悪くなることもあるのを忘れないでね。

もう一つ言っておくと、遠くにあるものは宇宙の膨張のおかげで赤方偏移して赤外線に変わっちゃうんだ。だから、元々は可視光の範囲にあった光も、今は波長が伸びて目では見えなくなってる。もし40億光年先のすごいものを見たいなら、毎年クリスマスにお願いしてる網膜の赤外線インプラントを入れなきゃね。