初探 HDR
11 min read

初探 HDR

最近組了一台 PC,買了一台有 DisplayHDR 400 認證的遊戲螢幕。為了要放影片,裝了 MPC-BE,但卻發現系統裡幾款播放器放 HDR 影片時的亮度色彩都不一樣,於是就裝了之前耳聞已久的 madVR 影片渲染器,設定成把 HDR 資訊用 GPU 直出到螢幕,想說這樣的效果應該最好吧?結果卻發現出來的影像跟用我的低階三星 HDR 電視播完全不一樣——顏色變得超淡,而且畫面中的亮部動不動就過曝。用 madVR 自己的 tone-mapping 把 HDR 影像軌轉成 SDR 訊號再透過 Windows 去顯示反而還比較類似 HDR 電視上看到的效果,也就是亮部較暗但不會過曝,顏色也鮮艷很多,是一個「正常」的畫面。

到底為什麼會這樣?

所以我開始研究,到底什麼是 HDR。以前只有那台低階 HDR 電視,只知道 HDR 的訊號跟 SDR 不一樣,要有標 HDR 的電視或電腦螢幕才可以解 HDR 訊號,然後 HDR 訊號是 10-bit,這樣而已。一直以來都覺得 Netflix 上的 HDR 影片在暗部很漂亮,但只能猜是 HDR 的編碼位元率拉得比較高的原因而已。當然也知道 HDR 可以比 SDR 亮很多,但在我的電視上面實在看不出來,因為它的最大亮度才 280 nits 左右。

結果我花了差不多一個禮拜的時間才稍微摸懂 HDR 的基本概念。

電視跟電腦螢幕差很多

本來我以為電視跟電腦螢幕的差別除了大小之外,就是差在電視有特別的影像處理器,可以做升頻、降噪等事,還有電視本身就有作業系統,這兩件事而已。但在看到像是 DisplayHDR、HDR10、Dolby Vision、UHD Premium、HLG 等一堆不同的 HDR 規格之後,我才意識到一件事:電腦跟電視螢幕根本上是兩個完全不同的市場,所以會有完全不同的標準與聯盟;所謂的 HDR——高動態範圍——只是剛好這兩個市場都通用的概念而已,它們各自的定義是完全不同的。

電腦螢幕的 HDR 標準主要是以 Vesa 的 DisplayHDR 為主,主要定義螢幕的性能,像是最大亮度、能處理的色彩深度、明暗對比等規格。而電視的 HDR 則是以 BT.2100 底下的 PQ 與 HLG 兩種系統為主;它們定義的是內容的格式而不是螢幕性能,也就是說只要電視可以解 HDR10(PQ 系統)訊號,它就可以掛上 HDR10 的標章,即使它的亮度才 280 nits 也一樣。UHD Premium 則比較類似 DisplayHDR,是著重螢幕性能的,所以比較不會在低階電視上面看到。

簡單來說, DisplayHDR 與 UHD Premium 定義的是硬體能力,其他的 HDR10、HDR10+、Dolby Vision、HLG 全部都是影像內容的規格。雖然我一開始以為 DisplayHDR 才是最重要的選購因素,因為是在買硬體嘛,但後來才發現根本不是這樣。

DisplayHDR 不是最重要的

原因蠻複雜的,不過基本上來說,電視圈的 HDR 規格成熟度遠大於電腦螢幕界。HDR 電視早就出現在低價機種上好幾年了,Netflix、Apple TV 等串流平台也早就有 HDR 內容,PS4 Pro 等主機下的遊戲也早早就加入 HDR 模式。反觀電腦圈,不管是 Windows 還是 macOS,對 HDR 的支援大概都是在這一年內才慢慢穩定下來的,而電腦上最需要 HDR 的應用——電腦遊戲——卻還遠遠不及主機遊戲的支援度。有許多大作甚至是只在主機版本上釋出 HDR 模式,像 The Witcher 3 就是。另一個 HDR 應用——影片內容——更不可能贏過影片專長的電視圈。

另一個原因是,HDR 絕對不是只有硬體重要,訊號處理能力更是重中之重。也就是說,它能不能正確的解讀傳給它的訊號,把訊號映射到正確或好看的亮度與色彩之上。其實解碼在 SDR 螢幕上也很重要,但 SDR 螢幕的解碼問題多半出現在色彩偏移、Gamma 設定與黑色位準等部分,怎麼樣都還是看得到八成正確的影像;不像 HDR,如果不支援某種規格的話,那要嘛就是訊源直接拒絕餵給你 HDR 訊號,要嘛就是最大亮度錯誤,整個畫面變平的或者亮部整個爆掉。而 DisplayHDR 幾乎沒對這方面有什麼定義,所以我們也無法確定說買了一個 DisplayHDR 認證的螢幕,可不可以看到正確的 HDR 影像。

簡單來說,DisplayHDR 只是告訴你一個大概的硬體等級,讓你方便比較而已。HDR 電視都沒有標 DisplayHDR 或甚至 UHD Premium,也不代表它們的硬體等級比較低。反而是標 HDR10、HLG 跟 Dolby Vision 等的螢幕才比較能確保能正確處理 HDR 訊號。

過曝是特色不是問題

我是認真的。雖然說我的 HDR 螢幕在看 HDR 影片直出時很容易過曝,但我卻不覺得這種過曝的影像完全不如 SDR 的影像,或甚至 tone-map 過的 HDR 影像。原因是,我在過曝的影像裡,感受到了從前完全沒有感受過的對比

這正是我認為 HDR 相比起 SDR 真正的優勢所在。不是亮度也不是暗部細節之類的,因為那些其實 SDR 螢幕與內容都做得到。HDR 真正的價值,在於它能正確保存明暗對比,將內容創作者所想要的明暗對比更完整的呈現給閱聽者與玩家。

而這不是因為 HDR 的設計比 SDR 先進什麼的。相反的,SDR 一開始就可以做到這一點。SDR 的整個規格是基於 CRT 所設計的,所以最大亮度也就跟著 CRT 來定成 100 nits。內容創作者會用這個最大亮度來調光,所以只要大家都用 CRT,或者用最大亮度 100 nits 的螢幕來看內容,那就可以得到正確明暗對比的影像。

但是螢幕越來越亮⋯⋯

因為電腦不像電視可以在比較暗的環境裡觀賞,都是在白天的辦公室裡用,所以螢幕亮度需要更高。對常常要在戶外使用的手機來說,需要的亮度又更高。現在的電腦螢幕有個三五百 nits 很正常,手機螢幕更是 500 nits 起跳。結果就是大家都在拿 三四倍亮度的螢幕來看 100 nits 的 SDR 內容,那對比自然就會被拉大了。原先的暗部在這些螢幕上看,可能都快接近原本 CRT 的最大亮度了。

換句話說,我們現在看到的 SDR 影像,大多時候其實是錯誤的。

原本的 SDR 應該是一個有絕對亮度的標準,因為它的亮度是以絕對單位 nits 來表示。但是因為當初設計時沒想到螢幕會越變越亮的問題,所以沒有相對應的解決方案,更不可能叫大家看影片的時候都乖乖把亮度調到 100 nits,結果就是大家都把 SDR 當作一個相對亮度的標準了。而內容創作者在調光的時候,甚至手邊的消費型顯示器比正確校色的 SDR 參照監視器還有用,因為根本沒人在用正確亮度在看影片。

HDR(PQ 系統)就是要來補正這個問題的。它要求顯示器在碰到 100 nits 的訊號時就乖乖顯示 100 nits 的亮度出來,不要擅自把它提升到 200 nits 或 300 nits。但這樣的話,螢幕101 nits 以上的亮度空間不就被浪費了嗎?很簡單,它就把它規格的最大亮度往上提升就可以了。而為了避免以後螢幕越做越亮,又碰到 SDR 當時碰到的問題,它乾脆就定義一個不太可能達到的最大亮度(一萬 nits),讓你的螢幕不管變多亮,都有相對應的訊號可以用。如此一來,才可以讓亮度再次回到絕對標準的狀態,消費者也才能看到創作者對明暗對比的真實意圖。

但如果訊號太亮,螢幕顯示不出來怎麼辦?

這個問題非常常見,因為現在大多數的 HDR 影像都是以最大亮度 1000 nits 來調光的,而大多數的 HDR 螢幕亮度並沒有到這麼高。

螢幕要處理超過最大亮度的訊號主要有三種選擇。第一種是學 SDR,把整個影像的明暗對比壓縮到螢幕的亮度範圍之內。但如果用這種方法的話,就失掉 HDR 保存絕對亮度的意義了。

第二種是只壓縮接近螢幕最大亮度的亮部訊號(roll-off/soft clip),而盡量不去動到大概 200 nits 之下的訊號。這種方法大概是最常見的,可以保持大部分的明暗對比,也可以保存亮部細節。

第三種是直接把超過螢幕亮度的部分讓它爆掉(hard clip),就類似在相機裡過曝的部分一樣。這種方法會捨棄掉一些亮部細節,但也可以最忠實的還原訊號的明暗對比。

我的電視用的是第二種方法——壓縮亮部,所以我可以看得到所有原本有的亮部細節,但它的對比度就會稍微低一點。而我的螢幕用的是第三種方法——硬切掉亮部,所以看起來像是過曝,但對比度的效果也是最好的。

講這麼多,HDR 有用嗎?

與其說 HDR 有沒有用,不如說 SDR 已經失能了,至少在影視內容上來說。一般的電腦介面並不怎麼要求絕對亮度,螢幕有多亮,它就變多亮,所以用 SDR 沒有問題。但是影視內容很需要保存明暗對比,所以已經失去亮度保存功能的 SDR 標準已經不堪使用了。除了電影院之外,幾乎沒有觀賞環境是可以讓內容產製者完整控制環境與畫面亮度的,而 HDR 就是對這個問題的回應。

簡單來說,如果你希望影視內容與遊戲的創作意圖能在電影銀幕之外的螢幕上也能好好的傳達,那你就需要 HDR。

後記

原本想要為這篇文章上一些圖的,卻發現不管是截圖工具還是從 FCP 直接輸出,都會碰到色彩空間錯誤匹配的問題,導致最終的 sRGB 圖片沒辦法呈現我在螢幕上看到的畫面。看來要呈現 HDR 與 SDR 真正的差異,最好還是用相機去拍螢幕才行。我想這大概是 HDR 推展的一個很大問題吧,就是說它的效果雖然一看就明白了,但很難在網路上傳播,因為推展的對象都在用 SDR 螢幕的話,你也沒辦法讓他真的有看到 HDR 的感覺。