シーンリファードとディスプレイリファード

 カラーマネジメントについて調べていると、特に動画関係の文脈でシーンリファード(シーン参照、scene-referred)・ディスプレイリファード(ディスプレイ参照、display-referred)という言葉がよく出てきます。曰くシーンリファードは撮影時の光情報の記録を目的としていて、ディスプレイリファードは表示デバイスでの鑑賞をその目的としている。

 分かるような分からないような?
 カラーマネジメントを行う(すなわちカラーパイプラインを考える)うえで避けて通れない知識であるにもかかわらず曖昧な理解のまま放置している人も多いはず。個人的に分かりにくさを感じる原因は「言葉の定義」ではなく、データとワークフローの「具体例」と「使い方の整理」にあると考えています。今回はこの点をまとめてみます。

 まずは言葉の定義から確認します。DeepSeekで聞いてみると的確な答えが返ってきました。
 ・シーンリファード
  画像データが、現実のシーン(被写体の物理的な光の強度)を直接的に表現する形式で保
 持されている状態。具体的には、カメラセンサーが捉えた光のエネルギー(線形値)を、デ
 ィスプレイの特性に依存せずに保存し、後続の処理で自由に操作できるようにするアプロー
 チです。
 ・ディスプレイリファード
  画像データが、特定のディスプレイ(例: Rec.709やsRGB)の色域やダイナミックレンジに
 最適化された形式で保持されている状態。ディスプレイの特性に合わせてガンマ補正やトーン
 マッピングが適用され、人間の視覚に合わせた非線形変換が施されています。

 それぞれ2文でうまくまとまっていると思います。ポイントは、シーンリファードが「現実のシーン(被写体の物理的な光の強度)を直接的に表現する形式で画像データを保持」しており、ディスプレイリファードが「Rec709やsRGBなどの特定のディスプレイに最適化された形式で画像データを保持」していることです。
 つまりシーンリファードは光の物理的強度を記録する(している)ことであり、ディスプレイリファードは人間の視覚特性に合わせた変換が施されていること1、と言い換えることができます。

 ではそれぞれの具体例はなんなんだ?というのが次の話題で、ここを明確にすることも重要です。
 ・シーンリファード
  具体例=RAW(リニア)、RAW(LOG)、NotRAW(LOG)
  RAW(リニア)=スチル写真のRAW(RAF・NEFなど)、VENICE(X-OCN)など
  RAW(LOG)=BlackmagicRAW(BRAW/BMDFilm)、NikonRAW(NEV/N-Log)など
  NotRAW(LOG)=ProRes422HQ(F-Log)、XAVC(S-Log3)など
  一見してシーンリファードの共通点は、光を記録するための応答関数(OETF)がリニアか
 LOGであることです。純粋に「物理的な強度を記録する」ためにこれらの方式が最適なので
 す。コーデックは記録情報を最大限保持するためにRAW形式が多く、RAWでない場合もクロ
 マサブサンプリングの間引きが極力抑えられた形式(ProRes422HQなど)を用いることが多
 いでしょう。
 ・ディスプレイリファード
  具体例=NotRAW(Rec709/BT1886、sRGB、AdobeRGB、Rec2020/PQなど)
     =H.265(Rec709/BT1886)、JPEG(sRGB)、JPEG(AdobeRGB)、H.265
     (Rec2020/PQ)など
  シーンリファードと対比すると明らかなように、ディスプレイリファードはRAW形式では
 ないいわゆる「現像された」形式であり、標準化された規格に準拠しています。不特定多数
 の人(再生機器)が色Aを色Aとして解釈できる必要があるからです。
  なお、前半はお馴染みのSDR規格ですが、HDR規格であるPQがディスプレイリファードと
 いうのは少し意外かもしれません。しかしPQカーブは人間の視覚特性を反映した応答関数
 (EOTF)であり、表示デバイスにおける絶対輝度を定めた紛れもないディスプレイリファー
 ド規格です。
  ではHLGは?と気になるのが人情ですよね。HLGはシーンリファード規格です。

 定義と具体例の理解ができたところで、最後は「使い方の整理」です。
 記録・編集・配信すべてがデジタルデータで完結してしまうが故に、シーンリファードとディスプレイリファードの境界が特に認識しづらくなっているように感じます。編集画面を眺めながら作業をしていて、これはシーンリファードなの?それともディスプレイリファードなの?と思いませんか?
 なのでここで大胆に(勝手に)整理したいと思います。
 私たちは動画や写真の編集・現像作業を行う場合、必ずある規格(Rec709/BT1886、sRGB、AdobeRGB、Rec2020/PQなど)に準拠した表示デバイスを見ています。つまりディスプレイリファードな環境の中にいます。この作業環境を「ディスプレイリファード『ワークフロー』」と呼びたいと思います。
 その一方で、編集・現像の柔軟性を最大化したい場合、パソコン内部ではRAW形式やLOGガンマで撮影した「シーンリファード『データ』」を扱っていることが多いでしょう。白飛び・黒潰れを違和感なく現像できる(戻せる)のはこのデータが保持されているからです。
 この状況をまとめると、”画像(映像)データそのものはシーンリファードであるけれども、作業環境はディスプレイリファードである”と表現できると思います。
 また記録・編集・配信すべてをRec709やsRGBで行うこともまだまだ多いはずです。この状況は”画像(映像)データも作業環境もディスプレイリファードである”と言えます。

 ということで最後のまとめです。
 画像(映像)データにはシーンリファードデータとディスプレイリファードデータの2種類があり、あらゆるワークフローはディスプレイリファードな環境の中で行われるので、ディスプレイリファードワークフローの1種類のみ2である。あるターゲット規格(Rec709/BT1886、Rec2020/PQなど)を目指したディスプレイリファードワークフローの中で、シーンリファードデータとディスプレイリファードデータを素材として適宜使用するのです。
 実際の例は多くないかもしれませんが、シーンリファードデータとディスプレイリファードデータは混合して扱うことが可能です。むしろカラーパイプラインを考える(すなわちカラーマネジメントする)うえでは個々のデータがどの属性(コーデック・色域・ガンマ(OETF))かを把握していることが極めて重要です。

  1. この違いは意外と難しくて、イメージしづらいかもしれません。
    例えば、輝度500cd/㎡(nits)と1000cd/㎡(nits)の被写体を記録するとき、シーンリファードは素直に2倍差がある状態として記録します。しかし人間はこれらの物体を見たとき、明るさに2倍の差があるとは「感じません」。1000nitsの被写体が多少明るいかなと感じる程度です。これが人間の視覚特性であり、ディスプレイリファードはこの特性(に合わせて定義された規格)に沿うように変換を施していることを意味します。 ↩︎
  2. シーンリファードデータを扱う場合に、それは「シーンリファードワークフロー」であると表現されていることが多く、個人的にすごく違和感があります。結局ディスプレイリファードな表示環境の中で審美的な決定を行うのだから、それはディスプレイリファード(な)ワークフローではないでしょうか? ↩︎

Comments

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

CAPTCHA


This site uses Akismet to reduce spam. Learn how your comment data is processed.