Hallo Herr Karp!
----- Original Message -----
From: "Peter Karp" <pmailing(a)karpfenteich.net>
To: <eci(a)lists.transmedia.de>
Sent: Monday, September 01, 2003 10:38 AM
Subject: Re[2]: [ECI] Einsatz von Flatscreens // Profilierung +
Kalibrierung
Clemens M. Hürten schrieb am 29.08.2003:
3.) Solange also DVI mit 10 Bit noch nicht
nutzbar ist und der
Monitor digital tatsächlich mit zugesicherten 10 Bit angesteuert
werden kann, sollte man ihn analog ansteuern, auch wenn bei
1600 x 1200 die Schärfe
etwas leidet.
^^^^^
Leider leidet die Schärfe bei vielen Grafikkarten ja recht stark
bei den hohen Auflösungen.
Da ist natürlich das subjektive Empfinden ausschlaggebend. Meine
DVI-Darstellung ist mir z.B. bei der Wiedergabe von Systemschriften zu
spitz / scharf. Beim Arbeiten in Illu 10 mit den lächerlich winzigen
Anfasspunkten an den Knoten ist es dagegen sehr von Vorteil.
Insgesamt mag ich die analoge Darstellung eher, empfinde sie als
angenehmer, weil durch die kleine Unschärfe auch ein gewisser
Kantenglättungseffekt eintritt.
Die Matrox-Karten sind berühmt für ihre hervorragende analoge
Signalqualität!
Nur bei der Analog-Ansteuerung kann man beim
Iiyama bereits D50
und die maximale Helligkeit an der Hardware per OSD-Menü
vor-einstellen, beim DVI nur Helligkeit und Kontrast.
(Info über Herrn Hitzler)
Das ist im Falle des Iiyama dann wohl wirklich ein
Argument den
Monitor doch analog zu betreiben, aber ich würde nicht so
generell die Empfehlung aussprechen, ein TFT nur deswegen analog
anzusteurern, damit man 10 Bit der Grafikkarte nutzen kann.
Weiß
jemand hier ob beim Mac/PC im System überhaupt mehr als
8Bit/Kanal
zur Verfügung stehen können? Beim PC ist das meines Wissens nach nicht
der Fall. Somit kann die Grafikkarte nur ein 8-Bit-Signal bekommen und
wandelt kann dann ggf. diese 8 Bit auf 10 Bit neu aufteilen und an den
Monitor weitergeben. Aber auch wenn der Monitor ein 10-Bit-Panel hat,
heißt das noch nicht, dass der Monitor überhaupt 10-Bit-Signale
akzeptiert. Ist das beim genannten Iiyama denn der Fall?
Das ist richtig: Der PC liefert nur ein 8-Bit-Signal an die Grafikkarte.
Wenn aber in der Karte die LUT abgelegt wird, können die bei Verrechnung
entstehenden Farbwerte einen größeren Wertebereich in Anspruch nehmen.
Matrox wirbt ja gerade damit, dass z.B. die in der Karte abgelegte
Gamma-Korrekturkurve nach ihrer Verrechnung mit den Farbwerten mit
10-Bit Genauigkeit bearbeitet und so auch ausgegeben (!!!) wird. Im
Matrox Datenblatt heißt dies dann so schön: Mit über 1 Billion Farben.
(dreckig Grins! - die Werbebranche schlägt mal wieder zu!)
Zuletzt kann man auch wenn man ein 8-Bit-Signal an einen Monitor gibt
und
dieser intern mit 10 Bit arbeitet noch einen
Qualtitätsgewinn in Form
von
gleichmäßigeren Abstufungen haben, da dann einfach der
Monitor die 8
Bit
feiner über 1024 Stufen verteilen kann.
Nein! 8 Bit kann man nicht "feiner verteilen". Es bleibt bei 8 Bit. Die
beiden unteren Stellen sind dann eben immer Null.
Dies kommt zum Tragen, wenn
der
Monitor das Gamma des Signals anpassen muss/soll.
Aha! Das entspricht dem, was ich gerade oben zur Rechenoperation in der
Grafikkarte gesagt hatte. Hier liefert die Grafikkarte ein analoges
Signal mit 10 Bit Quantisierung raus. Ob der Moni diese feinen
Abstufungen "versteht" oder im Eingang nur ein billiger 8-Bit-ADC
eingebaut ist, das weiß ich natürlich nicht.
Aber genau deshalb ist es ja so wichtig, so viel wie möglich bereits
hardwareseitig zu korrigieren, wie z.B. das Einstellen von D50 und der
max. Helligkeit bzw. Leuchtdichte. Noch schöner wäre, wenn ich das Gamma
gleich richtig hinbiegen könnte.
Und zu allerletzt würde ich vorsichtig sein, zu sagen, dass ein
Display/Grafikkarte mit 10-Bit im Datenblatt immer beser als eines mit
8
Bit sei. Sicher sind die Vorraussetzungen für eine
feinere Abstufung
mit
höherer Bittiefe gegeben, aber ob diese dann wirklich
genutzt wird
hängt
vom jeweiligen Modell ab. Ein Panel arbeitet evtl.
ungenauer additiv
als
ein anderes und "braucht" daher 10-Bit
intern um die gleiche Qualität
zu
erreichen wie ein anderes Panel mit 8 Bit. Welches
Display eine höhere
Qualität liefert sollte daher immer im einzelnen getestet werden. Die
Bittiefe kann nur einen ersten Hinweis geben, dass _evtl_ eine höhere
Qualität mit einem Display/Grafikkarte erreicht wird.
Im konkreten Fall würde ich daher auch unbedingt probieren ob der
Farbraum größer wird, wenn man das Display analog ansteuert und ob
Grauverläufe gleichmäßiger wiedergegeben werden. Wenn das der Fall
ist,
muss man entscheiden, ob das die Nachteile durch die
analoge
Ansteuerung
aufwiegt.
Die Grauverläufe sind bei DVI-Betrieb deutlich unregelmäßiger abgestuft
und sie schillern immer in Farbtönungen, bleiben also nicht neutral.
Der Gamut bei DVI-Ansteuerung ist exakt gleich groß, wie bei
Analog-Ansteuerung. Das macht ja auch Sinn, denn der Gamut wird durch 10
Bit-Ansteuerung nicht größer. Die "Phosphorwerte" bleiben ja schließlich
konstant, weil vom Panel abhängig. Aber die Abstufung zwischen
benachbarten Farbwerten wird feiner.
[Kalibrierung weitgehend über OSM des Displays]
> Das entstehende Profil löst dann hauptsächlich die Aufgabe, das
Gamma
> und die Linearität herzustellen, während D50 und
die max. Helligkeit
im
Moni per
Hardware vor-eingestellt sind. (Info von mir)
Die Möglichkeit soweit wie möglich über die Hardware zu kalibrieren
unterscheidet unter anderem die verschiedenen Kalibrationslösungen für
Monitore und ist ein wichtiges Qualitätskriterium welches sich
letztendlich auf die Größe des zur Verfügung stehenden Farbraumes
auswirkt. Idealerweise kann im Monitor auch schon das Gamma
eingestellt
werden, damit das Profil diese Aufgabe nicht
übernehmen muss. Eine
gute
Kalibrationssoftware erlaubt daher auch die
Prüfung/Einstellung des
Gammas.
BasICColor display macht das. Besser wäre natürlich, wenn das im Iiyama
vorgenommen werden könnte. Der Iiyama AU4831 hat ziemlich genau Gamma =
2,2. Es muss also "nur" auf Gamma 1,8 zurück-gebogen werden.
Viele Grüße
Peter Karp
Einen angenehmen und erfolgreichen Tag
das wünsche ich Ihnen
Clemens M. Hürten
IdeeCreativ - Werbung / Stuttgart
www.ideecreativ.de