Om HDR
HDR handlar om att utnyttja en skärms maximala ljusstyrka i en miljö där du har ett relativt dämpat omgivningsljus. Den korrekta inställningen av skärmljusstyrkan är då långt ifrån skärmens maximala ljusstyrka.
Med korrekt ljusstyrka menar jag att skärmen aldrig ska vara inställd så att svart text på vit bakgrund upplevs som obekvämt ljus. Det ska vara som att titta på ett normalt belyst vitt papper. En hdr-bild kan då visas så att dess ljusaste delar blir mycket ljusare än det man kan kalla pappersvitt.
För att inte det svarta ska bli för ljust när skärmens ljusstyrka utnyttjas bör skärmen vara av typen OLED eller mini LED (det finns några fler teknologier, men de är dyrare). Den förstnämnda har möjlighet att helt släcka varje individuell bildpunkt. Att kunna få det som ska vara svart helt svart är effektfullt, men det är lika viktigt att skärmen klarar av att visa mörka nyanser utan att de blir för ljusa. Det vill säga att det är ett litet hopp från helt svart till den mörkaste gråtonen.
Först till TV-apparater
De första TV-apparaterna med HDR kom kring 2017. Med teven kan man se HDR på till exempel YouTube och Netflix. Dessa två var snabba igång med tekniken.
Några viktiga framsteg för HDR:
- 2020: Iphone 12
- 2021: MacBook Pro
- 2022: Adobe Camera Raw
- 2023: Adobe Lightroom för iOS / Android
- 2023: Google Camera
- 2024: Instagram
Vad saknas?
Stöd för stillbilds-hdr (avif och jpeg med gainmap) i Iphone. Jag väntar även med spänning på när World Wide Web Consortium (W3C) ska bli klara med standarden för HDR i canvas-element (bland annat). Jag vet inte om det finns någon tidplan och när det kan tänkas komma till webbläsarna.
All visning (på teve, dator, osv) bör ta hänsyn till innehållets maxljusstyrka i de fall denna är högre än vad skärmen klarar av. På Mac får man visserligen imponerande nog stöd för Dolby Vision, men inte den mycket enklare och bättre parametern maxCLL. Och inte HDR10+.
Varför utvecklades HDR?
Att man utvecklade HDR-standarden ser jag som en uppenbar följd av att skärmarna blev för bra. För stillbild var detta inget större "problem" då man dels alltid har haft stöd för olika stora färgrymder (då kan man utnyttja de bästa skärmarnas fulla färgomfång), dels för att syftet med att redigera bilder i datorn haft sitt fokus mot att bli en fysisk bild. Det innebär att det vita i skärmen ska vara just så vitt som pappret bilden skrivs ut på och HDR blir irrelevant.
Däremot för film var man fast i både en begränsad färgrymd och en ljusstyrka som var onödigt låg. Följden av det är att film i teve-apparatens standardläge visas med felaktig färg på skärmar som klarar av att visa mer mättade färger än vad standarden tillåter. Alternativt att man med tevens entusiastläge inte utnyttjar vad teven klarar av att visa.
Med film på en teve-apparat var det ett relativt enkelt steg att införa den nya standarden. Det var därför den först kom dit. För datorer och telefoner krävs en förändring i hela systemet för att hantera högre ljusstyrka i delar av skärmytan. Android dröjde längst med detta. Innan den möjligheten kom fick den vanliga ljusstyrkeinställningen höjas till max och filmen tittas på fullskärm.
Grundproblemet med HDR
Standarden är tänkt att fungera med de bästa skärmarna. Så bra att de ännu inte finns. Det innebär att det är korrekt att samma film eller bild ska se olika ut på olika bra skärmar. Alltså motsatsen till vad man spontant tänker att en standard är till för. Att ge samma utseende på alla skärmar. Även en sämre skärm kan nämligen (med profilering) fås att visa en begränsad standard med rimlig närhet till hur en jättebra skärm visar denna begränsade standard.
Även med skärmar som inte alls stöder HDR vill man såklart kunna titta på HDR-material. Med Blu-ray får man visserligen med två versioner av filmen och strömningstjänster kan enkelt skicka ut sdr-versionen till en skärm som inte stöder HDR. Men för marksänd teve behövs något som fungerar på både en ny och gammal apparat. Därför var BBC med och tog fram den variant av HDR som heter HLG.
Två varianter av HDR
Det finns två olika varianter för HDR. Den ena heter HLG och den andra PQ. Den senare är den vanligaste och den utgår ifrån att man alltid tittar på en film i ett mörkt rum. PQ anger i exakt ljusstyrka (cd/m²) hur bilden ska visas. Men det sägs inget om vad som ska hända om denna angivna ljusstyrka inte kan visas av skärmen.
Två varianter av anpassning av PQ
En skärm som inte klarar av att visa det ljusaste i HDR-material kan antingen välja att strunta i de ljusaste detaljerna. De bli då helt vita, utan detaljer, utfrätta. Alternativt kan man pressa ihop HDR-materialet så att det blir lägre kontrast i det ljusaste. Då försvinner inga detaljer, men det tråkiga blir att även bilder som skärmen klarar av påverkas genom att det blir lägre kontrast i det ljusaste av bilden.
För att hantera detta finns (sanslöst nog) två olika tillägg till HDR-standarden. Dels Dolby Vision (ägd av Dolby), dels den öppna HDR10+. Jag har svårt att se att det behövs mycket mer än att ange maxljusstyrkan för bilden / scenen (maxCLL). Om man koncentrerat sig på den siffran skulle det rimligen även funnits ett mycket bättre stöd för den än vad som finns nu.
HDR för stillbild
Panasonic var först med funktion för hdr-stillbilder (HLG) som går att visa om man ansluter kameran till en teve. Canon utvecklade något senare samma sak, fast med PQ. Apple skapade ett eget HDR-format genom att lägga in en så kallad gain map i bilder tagna från och med Iphone 12. Slutligen hakade Google på och använder det av Adobes hantering av gain map i form av det Google kallar Ultra HDR.
Än är inte stödet för dessa format igång så att man till exempel kan titta på en Ultra HDR-jpeg i webbläsaren med en Iphone. Bara att hoppas att det kommer någon gång. Att andra än Apple ska hantera deras egna format är såklart ingen chans förstås.