am 25.03.2002 17:07 Uhr schrieb Roland Bühler unter
Buehler.Stuttgart(a)t-online.de:
Am Montag den, 25. März 2002, um 15:41, schrieb erwin(a)widmer.net:
In einem andern Mail wurde vorgeschlagen, dass
100
cd/m2 als Leuchtdichte auf Monitoren verwendet werden
soll. Ich weiss, dass das auch in einer ISO-Norm steht.
Ich habe dieser ISO-Gruppe schon damals geraten, das
nicht so zu formulieren. Man wollte aber so helle
Monitore, wie möglich haben. Meine Erfahrung ist, dass
ein neuer Monitor bei D50 kaum 100 cd/m2 leisten kann.
Zumindest wäre ein solcher Monitor nach zwei Jahren
infolge Alterung der Leuchtsoffe nicht mehr dazu in der
Lage.
Diese Erfahrung habe ich auch gemacht. Selbst bei neuen Monitoren
konnten 100 cd/qm nur bei Vollaussteuerung des Rot-Kanals erreicht
werden, was dazu führte, das die Monitore nicht mehr reproduzierbar
arbeiteten. Nach meiner Erfahrung ist 80 cd/qm in der Regel gerade noch
machbar bei D50. Hat jemand ähnliche Erfahrungen?
> Deshalb sollte nach meiner Meinung die Definition
> der Leuchtdichte anders hergeleitet werden. Man sollte
> den kleinsten möglichen Wert standardisieren. Dazu gibt
> es eine Theorie, die auf einer Arbeit von Robert Hunt
> beruht. Er hat herausgefunden, dass sich das
> menschliche Auge unter einer gewissen
> Leuchtdichteschwelle nicht mehr auf weiss adaptieren
> kann. Der Wert für diese Schwelle liegt bei 70 cd/m2.
die Quellenangabe würde
mich sehr interessieren.
liebe Grüße aus München
Andreas Kraushaar