Dies ist eine alte Version des Dokuments!
Inhaltsverzeichnis
Achtung, diese Seite ist Work-in-progress!
Colormanagement
Wozu Colormanagement?
In einer Medienproduktion durchlaufen Bilder aus unterschiedlichen Quellen (z.B. verschiedene Kameras, computergenerierte Bilder, usw.) diverse Bearbeitungsschritte. Alle an der Produktion beteiligten Personen, sollen unter den unterschiedlichsten Betrachtungsbedingungen einen möglichst ähnlichen Bildeindruck bekommen. Die Monitore am Set, im Schnitt, in der CG -Abteilung, beim Compositing und in der Grading Suite haben unter Umständen ganz unterschiedliche Farbräume. Außerdem ist wahrscheinlich auch das Umgebungslicht unterschiedlich.


Ähnlich sieht es bei den Betrachtungsbedingungen der Konsumenten aus. Der Fernseher im abendlichen Wohnzimmer bei gedämpften Licht ist anders, als die Kinoleinwand in fast völliger Dunkelheit oder das Notebook in eine hellen Büro-Umgebung. Auch hier möchte man allen Konsumenten einen möglichst ähnlichen Bildeindruck vermitteln.


Um das zu erreichen braucht man Colormanagement. Colormanagementsysteme definineren unterschiedliche Input-Colorspaces, Working-Colorpaces, Viewing-Colorspaces und Output-Colorspaces. Außerdem definieren sie die verschiedenen „Rezepte“ um Bilder von einem Farbraum in den anderen zu transformieren. Es gibt verschiedene Colormanagement-Systeme mit unterschiedlichen „Rezeptbüchern“ die natürlich auch zu unterschiedlichen Resultaten führen. Daher ist es wichtig, dass möglichst jede im Produktkionsprozess eingesetzte Software das gleiche Colormanagement-System unterstützt.
Grundbegriffe
Display-referred vs. Scene-referred
Die gemessenen Helligkeiten in einer realen Szene sind in der Regel um ein Vielfaches höher als die Spitzenhelligkeit des Wiedergabemediums (Display, Leinwand). Eine moderne Kamera ist in der Lage einen großen Dynamikumfang aufzuzeichnen. Bei einem sogenannten scene-referred Workflow wird eine meist logarithmische OETF verwendet um diesen großen Dynamikumfang mit einer möglichst hohen Kodiereffizienz in die meist nur 10 oder 12 Bit des Aufnahmecodecs zu packen. Diese OETF ist eine mathematisch beschriebene Kurve (z.B. logC3 von Arri oder sLOG3 von Sony), die in der Kamera nicht veränderbar ist. Somit lassen sich aus den aufgezeichneten Daten wieder die realen Szenenhelligkeiten (bis zur Clippinggrenze des Bildsensors) rekonstruieren. Würde man ein so aufgezeichnetes Bild ohne weitere Maßnahmen auf einem Display mit einer vielfach geringeren Spitzenhelligkeit wiedergeben, hätte man ein Ergebnis, das beim Betrachter nicht eine der realen Szenenhelligkeit ähnliche Wahrnehmung erzeugt. Daher müssen die Daten vor der Wiedergabe vom scene-referred in den Display-referred space mit Hilfe einer DRT tranformiert werden. Diesen Prozess nennt man Picture-Rendering. Das ist nicht zu verwechseln mit dem Render-Prozess in einem 3D-Programm. Dort gibt es im Prinzip zwei Renderingschritte. Der erste ist Scene (Geometrie, Lichter, Shading…) → Data (RGB-Codevalues in einem Scene-Linear Colorspace). Das erledigt ein Renderer wie z.B. Arnold oder Cycles. Der zweite ist Data → Image (RGB-Codevalues in einem Display Colorspace). Das erledigt das CMS.



temp linkdump
Colormanagement-Systeme in Bewegtbildmedien-Produktion
gebräuchliche Systeme in Bewegtbildmedien-Produktionen sind:
Display referred Workflow in TV-Liveproduktionen
Ein relativ simples CMS wird in TV-Live-Produktiionen eingesetzt. Man hat die EOTF, Color-Gamut und Weißpunkt eines Referenzmonitors und die Viewing Conditions einer idealen Betrachtungsumgebung standardisiert (ITU-R BT.709, ITU-R BT.1886, ITU-R BT.2035). Diese wird am Bildtechnikarbeitsplatz nachgebildet und die Bildtechniker steuern die Kamerasignale so aus, dass das finale Bild auf dem Referenzmonitor den gewünschten Farb- und Helligkeitseindruck hat. Dabei wird die OETF in der Kamera beliebig „verbogen“ (insofern hat die in ITU-R BT.709 definierte OETF keine praktische Relevanz und verwirrt eigentlich nur). Tatsächlich gibt es keinen festen mathematischen Bezug zwischen dem finalen Bild und der Szene. Daher bezeichnet man diesen Workflow als Display referred.
Mit einer immer größeren Verbreitung von HDR-fähigen TV-Geräten, muss der Display-referred Ansatz auch für TV-Produtionen immer mehr in Frage gestellt werden, da parallel ein SDR und ein HDR-Bild produziert werden muss. Siehe hierzu auch: https://www.broadcastnow.co.uk/tech/modern-broadcast-workflows-1-colour-in-modern-broadcast-post-production/5179727.article
ACES
Das Academy Color Encoding System wurde von der Academy of Motion Picture Arts and Sciences zusammen mit ca. 50 Industriepartnern ins Leben gerufen. Bei ACES arbeitet man Scene referred, d.h. die Wandlung von Scene-referred nach Display referred findet nicht wie bei klassischen TV-Workflows schon in der Kamera statt, sondern wird ans Ende der Produktionkette geschoben. Die Aufzeichnung und die Bearbeitung erfolgt Scene-referred, erst in der sogenannten Reference Rendering Transform geschieht die Wandlung auf die entsprechenden Viewing Conditions. Dadurch kann man erheblich einfacher für verschiedene Display Devices (SDR-Monior, HDR-Monitor, Kinoprojektion, etc.) produzieren.