AW: [ECI] Tiefenkompensierung / Black Point Compensation
by Bestmann, Guenter 3887 S-RD-PN7
Hallo, meine Antworten im Text.
Gruß
Günter Bestmann
------------------------------------------------------------------------------------
Dr. Günter Bestmann
Heidelberger Druckmaschinen AG
Solution Center Sheetfed S-RD-PN7
Dr.-Hell-Straße
24107 Kiel
Tel.: +49 (0) 431/3863887
Mail: <mailto:Guenter.Bestmann@Heidelberg.com> Guenter.Bestmann(a)Heidelberg.com
-----Ursprüngliche Nachricht-----
Von: eci-admin(a)lists.transmedia.de [mailto:eci-admin@lists.transmedia.de]Im Auftrag von Andre Schützenhofer
Gesendet: Dienstag, 3. Februar 2004 10:13
An: eci(a)lists.transmedia.de
Betreff: [ECI] Tiefenkompensierung / Black Point Compensation
Hallo zusammen,
Warum gibt es überhaupt eine Funktion wie die Tiefenkompensierung / Black Point Compensation – vor allem wo doch das Standard-ICC-Level angeblich ausreichend funktioniert?
Adobe verwendet standardmäßig den Rendering Intent Relative Colorimetric - mit der Folge, das Bilder standardmäßig eher mäßig reproduziert werden. Durch die Tiefenanpassung wird hier eine deutliche Verbesserung erreicht. Wie an anderer Stelle bereits beschrieben, macht die Tiefenanpassung auch nur hier Sinn. Aus dieser Adobe- Funktion zu schliessen, das das Color Management nach ICC nicht ausreichend funktioniert, kann ich nicht teilen. Man kann es auch andersherum sehen: Adobe behebt mit dieser Funktion Qualitätsprobleme seiner eigenen Implementierungen. Man kann es auch als ein nettes Feature sehen mit aus meiner Sicht beschränktem Einsatzbereich.
Gamut Mapping:
Stand der Technologie ist, dass die Farbtransformation von Bildern mittels ICC-Technologie vorzugsweise über den Perceptual Rendering Intent erfolgen soll. Soweit auch die allgemeine Empfehlung seitens von Profilerstellungs-Tool-Herstellern. Die ICC-Spezifikation überlässt die Art und Weise des "Gamut Mapping" dem jeweiligen Hersteller von Profilerstellungs-Software.
Die Reproduktion von Bildern ist in weiten Bereichen geschmacksabhängig. Die einen lieben es bunter, die anderen mehr pastellartig, die einen wärmer die anderen mehr kühler. Das ist teilweise kulturell bedingt. Die Reproduktion ist eng mit dem Gamut Mapping verknüpft. Ein standardisiertes Gamut Mapping zu definieren ist da eine schwierige Aufgabe. Wenn es da so etwas geben wird, werden wir es auch unterstützen - als eine Möglichkeit Bilder zu reproduzieren.
Ungeachtet des Umstandes, dass sich die "Qualität" an sich der jeweiligen Gamut Mapping Strategie zu einer anderen unterscheiden kann, ergibt sich leider schon allein aus der Logik heraus eine systematische Inkonsistenz: Es ist nur dann möglich, eine einigermaßen gesicherte Aussage über das Transformationsergebnis eines bestimmten Bildes zu machen, wenn bekannt ist, welches Profilerstellungsprogramm mit welchem (auch speziellen bzw. individuellen) Gamut Mapping das perceptual rendering des Bildes durchführen wird.
Das ist so und wird auch so bleiben. Die Ansprüche der Anwender sind einfach zu unterschiedlich. Einen Einheitsgeschmack wird es hier auch nicht geben. Zu Zeiten der HighEndCMYK-Scanner von Hell, Crosfield, Screen gab es auch unterschiedliche Ergebnisse bei der Separation. Und keiner hat behauptet, das die eine Separation schlechter als die andere wäre. Ausserdem gab es Hunderte von Knöpfen, um die Separation zu verändern und motivabhängig zu korrigieren. Landschaften wurden anders reproduziert als Portraits oder Technikbilder. Das ist heute weitgehend in Vergessenheit geraten, und mangels Erfahrung auf diesem Gebiet wird alles mit einem ICC-Profil erledigt. Und nun auch noch mit einem Standard Gamut Mapping (mit Tiefenkompensation) ? Welch ein Rückschritt in Qualität!
Ich denke, das Problem ist offensichtlich. Einerseits wird eine gewisse Verfahrensunabhängigkeit der Datenhaltung empfohlen, andererseits kann eine Vorhersehbarkeit nur durch eine dann in Bezug zu der Spezifizierung des Zielprofils verfahrensabhängige Vorgehensweise gewährleistet werden.
Man muss seine Daten immer wieder an die neuen Ziele der Reproduktion anpassen (Zeitung, Gravur, Offset, Papiertyp 1 oder 4). Das ist der Sinn der Verfahrensunabhängigkeit und nicht das unter allen Umständen gleiche Ergebnis.
Die Problematik geht soweit, dass die Medienkeilauswertung von ein und dem selben Datensatz (Messwerte) übereinstimmen, das Separationsergebnis und somit Aussehen der Bilddaten aufgrund von verschiedenen Gamut Mapping Strategien unterschiedlich sein wird (Prüfmittel MK = CMYK, also abscol und RGB/LAB-Bild perceptual).
Der Medienkeil dient der Prozesskontrolle (im Proof, nicht im Druck) und hat nichts mit dem Gamut Mapping und der Bildreproduktion zu tun. Ich sehe hier auch kein Problem - das ist so!
Das Thema Gamut Mapping ist in seinen Auswirkungen bekanntlicherweise sehr komplex, deswegen hier auch nur stichwortartig:
1. Üblicherweise wird jede Quell-Farbe im Farbort verändert, ob nun im Zielfarbraum abbildbar oder nicht (Gamut Kompression)
Man braucht halt ein bißchen Platz für die Out-of-Gamut-Farben sowohl in der Buntheit als auch auf der Grauachse. Nun sind die Komprimierungen i.a. im Innern geringer als zum Rand des Farbkörpers hin.
2. Die Kompression ist bei aktuellem Stand der Technologie immer statisch
Nein, sie ist recht weitgehend einstellbar, in Printopen und auch bei den anderen Tools.
3. Wie schon erwähnt, gibt es keine Richtlinien über die Art und Weise der Implementierung des Gamut Mapping
So ist es. Wenn es eine Richtlinie geben wird, werden wir sie als eine Möglichkeit unterstützen.
4. Daraus folgen teilweise extrem unterschiedliche Umsetzungen des Bildmaterials, auch und vor allem bei CMYK2CMYK Transformationen, und zusätzlich wegen teils völlig unterschiedlicher Philosophien über die Rückrechnung in den PCS, die sich im Ergebnis mit zusätzlich unterschiedlichen Gamut-Mapping-Strategien aufaddieren können
Sie sind unterschiedlich, aber nicht so extrem (wie immer das definiert ist). Die Unterschiede bei CMYK2CMYK treten auf, wenn Tools ein unzureichendes Inverses Gamut Mapping im Perceptual RI haben. Für unsere Profile trifft dies jedenfalls nicht zu. Im Gegenteil, die Prozesskonvertierung funktioniert ausnehmend gut in unseren Anwendungen.
5. ...
Es ist noch anzumerken, und ich erlaube mir diese klaren Worte, dass vor nicht allzulanger Zeit die perceptual rendering intents einiger Profilierungstools nicht wirklich zur Separation geeignet waren - und das vor allem aus qualitativen Gesichtspunkten. Glücklicherweise hat sich das zum Positiven gewandelt. Zu dieser Zeit war der bestmögliche Kompromiss, farbmetrische Konvertierungen durchzuführen, da das Gamut Mapping vom Ergebnis her meistens indiskutabel war.
Diese Behauptung und auch die weiter unten kann ich aus meiner langjährigen Erfahrung heraus absolut nicht nachvollziehen. Das es 1992 bei der Einführung des ICC-basierten Color Managements noch zu Problemen kam, gebe ich gerne zu, aber spätestens um 1995/96 waren diese gelöst samt der zu Beginn noch mangelhaften Interoperabilität der CMMs und Profile. Es gibt Qualitätsunterschiede zwischen den Tools, aber so groß sind sie nun auch nicht. Sie liegen mehr in den Details wie dem Gamut Mapping Strategien, der Einstellbarkeit von Farbaufbauten, der Glätte der Separation, der Qualität der Inversen Transformation usw. Unbrauchbar ist da keiner der renomierten Hersteller.
Die Behandlung der Helligkeit als vor allem tiefenzeichnende Komponente in nicht-linearer Funktionsweise ist auch für die Implementierung des Gamut Mapping keine Selbstverständlichkeit, jedenfalls nicht für alle Profilierungs-Tools. Tatsächlich verhielten und verhalten sich einige Gamut Mapping Strategien in der Behandlung der Helligkeit genauso linear wie es die Tiefenkompensierung heute macht. Erst durch die Implementierung zusätzlicher Rendering Intent-Optionen in bestimmten Profilerstellungstools ist es möglich, die Tiefenzeichnung in der Wiedergabeseite / perceptual RI zu verbessern. Wie gesagt gilt das allgemein nicht für alle zur Zeit am Markt erhältlichen Programme.
Das sehe ich bei unseren Produkten nicht so.
Glücklicherweise scheinen die gleichen Probleme zu ähnlichen Lösungsansätzen zu führen, so dass die Diskrepanz zwischen den einzelnen Strategien kleiner geworden ist. Tatsächlich ist es mit bestimmter moderner Software möglich, sowohl gut gesättigte aber zugleich auch in Bezug zu der Quell-Datei recht neutrale Separationen mittels Perceptual Rendering zu erzeugen.
Tiefenkompensierung / Black Point Compensation
Es ist natürlich verständlich, dass eine Funktion wie die Tiefenkompensierung eine gewisse Bedrohung für das Dasein der perceptual rendering Philosophie darstellt. Aus Software-Herstellersicht scheint augenscheinlich die Sicht vorzuherrschen, dass das einzige (oder zumindest wichtigste) Unterscheidungskriterium die Art und Weise des Gamut Mapping als Entscheidungsgrundlage für den Kauf und die Verwendung der Software ist.
Ich sehe das nicht als Bedrohung, sondern eher als einen Verlust an Qualität als Folge eines Verlustes an Fachwissen über Farbreproduktion. Die Bedrohung ist hier eher die Nivelierung des Geschmackes. (Irgendwie werde ich langsam ein wenig "böse" - man möge mir das nachsehen als jemand, der das Thema Qualität immer sehr hoch hält.)
Tatsächlich ist uns doch allen bewusst, dass es um mehr als nur das geht.
Und tatsächlich lassen sich mit RelColBPC hochwertige Separationen erzeugen. Man sollte hierfür sorgfältig erstellte individuelle Profile verwenden. Darüberhinaus lassen sich die meisten nicht gewünschten Effekte editieren.
Das kann in dieser Allgemeinheit nicht richtig sein. Mir sind auch nicht viele Anwender bekannt, auch hier auf dieser Liste nicht, die so arbeiten.
Wenn jemand den farbmetrischen Tabellen Reproduktionsqualität abspricht, schließt er damit eine Verwendbarkeit zum hochwertigen Proofen mit aus.
Exakte Farbmetrik fürs Proofen und Reproduktionsqualität sind zwei sehr unterschiedliche Dinge. Für die Separation werden die BtoA-Tags verwendet (inklusive Gamut Mapping, Farbaufbau), für das Proofen (und die Prozesskonvertierung) die AtoB-Tags. Und jede dieser Tag-Gruppen wird für ihren Anwendungsfall sorgfältig optimiert und sind für Perceptual und Relative zueinander invers.
Um auf die Tiefenkompensierung / Black Point Compensation zurückzukommen: Der Grund, weshalb jeder, der ernsthaft und mit einiger Erfahrung Separationen von RGB/LAB nach CMYK macht sich früher oder später auch mit der Funktion Tiefenkompensierung auseinandersetzt, ist die Art der Umsetzung - eben farbmetrisch. Der Schlüssel zu einer farblich originalgetreuen Wiedergabe liegt nun mal in der Farbmetrik und nicht in einer "optisch ansprechenden" Veränderung aller Farben mit dem Ziel, vor allem Zeichnung zu erhalten bzw. maximale Sättigung zu erzielen.
Die Diskussion der "originalgetreuen Wiedergabe" ist so alt wie die Reproduktionstechnik. Sie ist üblicherweise bei Bildern nur in Ausnahmefällen gewünscht (Faximile-Reproduktion). Ansonsten ist das Ziel die "optisch ansprechende" Reproduktion von Vorlagen (Motiven) auf einem gegebenen Ausgabeprozess (Papier, Farbe). Und das läßt sich nicht mit der Tiefenkompensation und der 1 zu 1 Farbmetrik lösen.
Auf den Umstand, dass in der Regel eine Mehrzahl der Bilder vom "Clipping" oftmals weitgehend nicht negativ beeinflusst werden, möchte ich gar nicht näher eingehen. Ein Zeichnungsverlust in gesättigten Farben ist auch nicht immer vorhanden, da sich Zeichnung auch hier vor allem durch die Helligkeitskomponente definiert. Jede farbmetrische Tabelle hat auch gewisse perzeptive Komponenten an sich - also die Art und Weise, wie out-of-gamut Farben behandelt werden.
Brutales Klipping auf die Oberfläche, wobei wir versuchen den Buntton zu erhalten. Mehr kann man nicht machen.
Ein Nachteil der BPC ist die im moment nur linear funktionierende Abeitsweise (lineares Skalieren der Helligkeit in XYZ).
Also gibt es doch Qualitätsprobleme ?
Die ideale (neutrale) Gamut Mapping Strategie sieht meiner Meinung nach wie folgt aus:
Im Kern farbmetrisch, mit nicht-linearer Behandlung der Helligkeit (die Nicht-Linearität ergibt sich in der Stärke der Anwendung aus dem individuellen Schwarzwert des Devices in Bezug zu L=0) mit leichtem Sättigungs-Ausgleich (resultierend aus dem Verhältnis wahrgenommener Sättigungsverlust durch nicht-linearen Behandlung der Helligkeit). Out-of-gamut-Farben können bis zu einem gewissen Grenzwert "weich" über die Gamut-Border in den farbmetrischen Kern hineinragen, wobei eine grundsätzlicher Zeichnungserhalt durch sensible Behandlung der Helligkeits-Komponente in der Wiedergabefähigkeit gegeben ist (perzeptive Komponente).
Man könnte bei dem farbmetrischen Ansatz auch von einer höheren "Effizienz" sprechen. Tatsächlich ist die Tiefenkompensierung ein kleiner (mini-kleiner) Schritt in eine "Smart CMM-Funktionalität", da hier die tatsächlichen farbmetrischen Eigenschaften Grundlage für ein Mapping sind.
Weiterhin ist es so, dass bei CMYK2CMYK Separationen bzw. Transformationen bei ähnlich großen Quell-Zielfarbraum-Kombinationen der ursprünglich erfolgte Kompressionsfaktor (wenn vorhanden) aufrecht erhalten werden kann. Die Tiefenkompensierung gewährleistet eine Dynamik-Anpassung beider Prozesse aufeinander, ohne eine im Großteil der Fälle nicht gewünschte erneute Farbraumkompression durchzuführen (proprietäres Inverses Gamut Mapping nicht berücksichtigt).
Verwendet man bei der Prozesskonvertierung den Relativen Intent braucht man bei gleich großen Farbraumumfängen keine Tiefenkompensation. Beim Perceptual Intent auch nicht, da hier zuerst das Gamut Mapping rückgängig gemacht wird und dann das des neuen Prozesses verwendet wird.
Als Fazit möchte ich ziehen, dass die Verfügbarkeit einer Black Point Compensation selbstverständlich keine Ideallösung darstellt, eine allgemeine Verfügbarkeit jedoch absolut wünschenswert ist. Adobe stellt nicht zu Unrecht neben der umfassendsten allgemeinen Farbmanagement-Funktionalität auch die BPC zur Verfügung. Ich glaube auch, dass vielen gar nicht bewußt ist, dass jedes CMYK-Bild in Photoshop standardmäßig mit relcolBPC am Monitor gezeigt wird.
Also, die Farbmanagement-Funktionalität unserer Anwendungen SuperColor/Printready/Metadimension ist um einiges größer als die von Adobe.
Weiterhin ist eine konsistente Farbwiedergabe langfristig nur durch eine einheitliche Umwandlungsmethode zu erreichen, (Default "neutrales" Gamut Mapping / Smart CMM Funktionalität) sofern man das möchte. Falls es allgemein genügt und gewünscht ist, verschiedene Ergebnisse aufgrund verschiedener Profil-Software zu erhalten, so be it. Allerdings befürchte ich, dass wir uns langfristig in eine Sackgasse begeben werden, die ein angestrebtes offenes und herstellerunabhängiges Farb- und Workflowmamagement schwer möglich macht und für weitere Unsicherheit bei den Anwendern sorgen wird. Ich würde hierbei gerne Unrecht haben.
Aus meinen Kommentaren geht wohl deutlich hervor, das wir bei den Zielen um einiges auseinander liegen. Die "Einheitswiedergabe" von Vorlagen im Druck kann nur der kleinste gemeinsame Nenner für bestimmte Anwendungsfälle sein. Ansonsten wird man um eine optimierte, vorlagen- und ausgabe- abhängige Farbwiedergabe nicht herumkommen wenn man hochwertige überdurchschnittliche Arbeit machen möchte.
Offenes Farb- und Workflowmanagement uneingeschränkt JA, herstellerunabhängig wird es nie werden. Sie brauchen immer mindestens einen Hersteller.
Gruß Andre Schützenhofer
PRO·CON·CEPT GmbH - production and consulting by concept
–––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––
Standort|Sitz Köln: Ehrenstraße 88 · 50672 Köln
phone|fax: +49 (0) 221 - 255 254 | cell +49 (0) 172 - 21 28 104
j.erpenbach(a)pro-con-cept.com
–––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––
Standort Langenfeld: Kronprinzstraße 54 · 40764 Langenfeld
tele +49 (0) 2173-3993 phone +363 fax +308 | cell +49 (0) 172-208 32 73
a.schuetzenhofer(a)pro-con-cept.com
–––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––
http://www.pro-con-cept.com · info(a)pro-con-cept.com