> Clemens M. Hürten schrieb am 29.08.2003:
Leider leidet
die Schärfe bei vielen Grafikkarten ja recht stark bei
den hohen Auflösungen.
Da ist natürlich das subjektive Empfinden ausschlaggebend. Meine
DVI-Darstellung ist mir z.B. bei der Wiedergabe von Systemschriften zu
spitz / scharf.
Oh, ich hätte nicht gedacht, dass es da unterschiedliche Geschmäcker gibt.
Ich arbeite nur noch ungern am CRT weil der eben nie so scharf wie ein
digital angesteuertes TFT-Display ist... Interessant zu hören, dass es
jemand "zu scharf" findet.
Weiß jemand
hier ob beim Mac/PC im System überhaupt mehr als
8Bit/Kanal zur Verfügung stehen können? Beim PC ist das meines Wissens
nach nicht der Fall. Somit kann die Grafikkarte nur ein 8-Bit-Signal
bekommen und wandelt kann dann ggf. diese 8 Bit auf 10 Bit neu
aufteilen und an den Monitor weitergeben. Aber auch wenn der Monitor
ein 10-Bit-Panel hat, heißt das noch nicht, dass der Monitor überhaupt
10-Bit-Signale akzeptiert. Ist das beim genannten Iiyama denn der
Fall?
Das ist richtig: Der PC liefert nur ein 8-Bit-Signal an die Grafikkarte.
Wenn aber in der Karte die LUT abgelegt wird, können die bei Verrechnung
entstehenden Farbwerte einen größeren Wertebereich in Anspruch nehmen.
Matrox wirbt ja gerade damit, dass z.B. die in der Karte abgelegte
Gamma-Korrekturkurve nach ihrer Verrechnung mit den Farbwerten mit
10-Bit Genauigkeit bearbeitet und so auch ausgegeben (!!!) wird. Im
Matrox Datenblatt heißt dies dann so schön: Mit über 1 Billion Farben.
Interessant. Jetzt müsste man noch herausfinden ob manche Displays auch
10 Bit am Eingang akzeptieren oder ob die 10 Bit immer nur intern zur
Verfügung stehen.
Prinzipiell ist es sicher sinnvoll 10 Bit für die LUT zu nutzen. Bei einer
Gammaanpassung von 1.8 auf 2.2 oder umgekehrt hat man sonst statt 256
Abstufungen nur noch 237 Stufen übrig.
Zuletzt kann
man auch wenn man ein 8-Bit-Signal an einen Monitor gibt
und dieser intern mit 10 Bit arbeitet noch einen Qualtitätsgewinn in
Form von gleichmäßigeren Abstufungen haben, da dann einfach der
Monitor die 8 Bit feiner über 1024 Stufen verteilen kann.
Nein! 8 Bit kann man nicht "feiner verteilen". Es bleibt bei 8 Bit. Die
beiden unteren Stellen sind dann eben immer Null.
Da hab' ich mich wohl undeutlich ausgedrückt. Natürlich kann man nicht aus
8 Bit mehr Informationen bekommen, aber...
> Dies kommt zum Tragen, wenn
> der Monitor das Gamma des Signals anpassen muss/soll.
... wenn das Signal noch in der Gradation geändert wird, hat man durch die
Ergebnisse der Verrechnung und Quantisierung des Signals einen Verlust von
darstellbaren Stufen. Im Extremfall würde das zu Sprüngen in der
Graustufendarstellung (natürlich entsprechend auch im Farbsignal) führen.
Dies betrifft den Fall, dass das Eingangs- und Ausgangssignal 8 Bit zur
Verfügung stehen. Habe ich aber im Ausgangssignal 10 Bit zur Verfügung, so
habe ich auch nach der Gammaanpassung noch 256 unterschiedliche Stufen,
die _nicht_ durch Rundungs"fehler" beschnitten werden. Bei der
Gammaanpassung von 1.8 auf 2.2 ist der Verlust zwar nicht sooooo groß aber
da, wie Sie schreiben, 256 Stufen ja eh' recht knapp für einen homogenen
Verlauf sind und leicht an anderer Stelle auch Verluste auftreten, ist es
besser wenn für die Gammaanpassung 10 Bit zur Verfügung stehen. Eine LUT
macht ja im Grunde auch nichts anderes, nur kann da ggf. die Anpassung
noch Nichtlinearitäten mit auffangen.
Aha! Das entspricht dem, was ich gerade oben zur
Rechenoperation in der
Grafikkarte gesagt hatte. Hier liefert die Grafikkarte ein analoges
Signal mit 10 Bit Quantisierung raus.
O.K. Da sind wir uns ja doch einig. Das oben war wohl nur ein
Missverständniss.
Ob der Moni diese feinen Abstufungen
"versteht" oder im Eingang nur ein
billiger 8-Bit-ADC eingebaut ist, das weiß ich natürlich nicht. Aber
genau deshalb ist es ja so wichtig, so viel wie möglich bereits
hardwareseitig zu korrigieren, wie z.B. das Einstellen von D50 und der
max. Helligkeit bzw. Leuchtdichte. Noch schöner wäre, wenn ich das Gamma
gleich richtig hinbiegen könnte.
Da stimme ich voll zu.
Die Grauverläufe sind bei DVI-Betrieb deutlich
unregelmäßiger abgestuft
und sie schillern immer in Farbtönungen, bleiben also nicht neutral.
Oh, das ist auch interessant, dass es bei Ihrem Display diesen Effekt
gibt.
Der Gamut bei DVI-Ansteuerung ist exakt gleich groß,
wie bei
Analog-Ansteuerung. Das macht ja auch Sinn, denn der Gamut wird durch 10
Bit-Ansteuerung nicht größer. Die "Phosphorwerte" bleiben ja schließlich
konstant, weil vom Panel abhängig. Aber die Abstufung zwischen
benachbarten Farbwerten wird feiner.
Im Prinzip stimmt das. In der Praxis kann aber der Farbraum kleiner
werden, wenn eben durch Korrekturen am Signal weniger Abstufungen zur
Verfügung stehen. Mein grottenschlechtes TFT-Panel des Notebooks hat
unkalibriert einen etwas größeren Farbraum als nach der Kalibration. In
der "Schuhsohle" rutscht dann auch der "Grün-Phospor" (Hat jemand
einen
besseren Ausdruck? Vielleicht sollte man die "grüne Primärvalenz" sagen.)
zum Weißpunkt hin und man kann also tatsächlich nur etwas weniger
gesättigte Farben darstellen. Kalibriert/profiliert sind natürlich die
Abstufungen viel linearer und die Farbtemperatur ist weitgehend auch in
den Mitten korrekt. Daher kam meine Frage, ob die Kalibrierung sich in
Ihrem Fall auf den Farbraum auswirkt.
> [Kalibrierung weitgehend über OSM des Displays]
Besser wäre natürlich, wenn das im Iiyama vorgenommen
werden könnte. Der
Iiyama AU4831 hat ziemlich genau Gamma = 2,2. Es muss also "nur" auf
Gamma 1,8 zurück-gebogen werden.
Manche aktuellen Displays erlauben die Regelung des Gammas über die
Hardware. Das ist ein (kleiner) Vorteil von TFT's im Vergleich zu CRT's,
bei denen das Gamma systembedingt ist.
Nach Ihrem Beitrag an Herrn Colong scheint aber in Ihrem Fall die analoge
Ansteuerung unterm Strich aber wirklich die für sie besseren Ergebnisse zu
lieferen (LUT-Vergleich...).
Viele Grüße
Peter Karp