Man muß bei LCDs schon noch vor dem Kauf wählen, ob man es eher schnell oder farbecht und kontrastreich haben möchte, ob man viel oder wenig DPI braucht und ob man Inputlag akzeptiert.
Das war beim Multisync-CRT dann doch einfacher, da haben sich proportional zum Preis alle Eigenschaften verbessert, unabhängig davon, wofür die Kiste später verwendet werden sollte. Die Auflösung paßte sich automatisch an die Fähigkeiten des Rechners an, wobei es da natürlich auch eine Grenze nach unten gab (Scanline-Effekt).
Schau an. Der ist ja wirklich relativ preisgünstig.
Ich hatte damals als vergleichsweise günstiges Modell einen SAmsung S27A850D notiert, der hat seitdem aber auch schon 100 Euronen abgespeckt. Wobei ich da grade einen USB3-Hub sehe, den gab's noch nicht IIRC.
Im Moment sitze ich vor einem FSC-Schnäppchen, der hat leichte dunkle Ränder in den Ecken, aber nicht wirklich störend im Betrieb, und bei Kontrastunterschieden steuert er die Helligkeit oder Kontrast nach. Das macht sich in leichtem "pumpen" des restlichen Bildes bemerkbar, wenn man z.B. ein Videofenster offen hat, worin der Bildinhalt schnell wechselt. Für "schlimme" PDF und umfangreiche Zeichnungen sind
1920x1200 aber ein bischen knapp.
Tatsächlich wäre ich irgenwie scharf auf 2560x1600 ... aber vertikal
1440 sollte genügen. Ich muß doch mal mit ein paar fiesen PDFs und Bildern auf dem USB-Stecker losziehen und das aus der Nähe begucken.
Das ist die Eigenschaft, daß der Monitor die Inhalte etwas später darstellt, daß die Grafikkarte sie liefert. Ist ärgerlich bei Spielen , besonders online oder im LAN gegen andere.
Schreibt auch mal was über den Schwarzwert. Mein Philips wird nicht richtig schwarz. Außer ich schalte ihn aus. Nicht HD Filme sehen aus wie aus der matschigen Schlammschlachtkiste.
Allerdings möchte ich keinen 80-Zöller Braun-Röhre im Wohnzimmer steh en haben.
Wie wird eigentlich ein behaupteter Kontrast von 1 zu 1 Million gemessen ?
Das Bild wird übers Kabel übertragen und zwischengespeichert. Dann werden je nach Monitor verschiedene Bildverbesserungsalgorithmen drüberlaufen gelassen -> Schärfe, Farbsättigung, Helligkeit, Kontrast, ... Bei heutigen Monitoren muss zu jedem Pixel dann noch der entsprechene Overdrive für die Ansteuerung berechnet werden.
Nun kommt es drauf an, wie der Hersteller das umgesetzt hat und wie potent die Hardware ist, die eingesetzt wurde. Es gibt Monitore, die schaffen so eine Berechnung in deutlich weniger als 10ms und es gibt Monitore, die lassen sich 50ms Zeit, was bei 100Hz Framerate zu einer Verzögerung von 5 Frames führt.
Wenn das finale Bild dann berechnet wurde, wird es aufs Display ausgegeben.
Vor Jahren gabs mal einen Bericht in der c't der auch zeigte, das einige Bildschirme oder TVs schneller wurden, wenn man bestimmte Funktionen im Menü deaktiviert.
Er will doch nur trollen - und es sind ihm ja wieder mal etliche auf den Leim gegangen :-( Von ernstzunehmenden Postern hat er sich doch längst verabschiedet (falls er denn mal dazugehörte)
Am Thu, 31 Oct 2013 17:30:19 +0100 schrieb Eric Brücklmeier:
Wozu denn?
Lutz
--
Mit unseren Sensoren ist der Administrator informiert, bevor es Probleme im
Serverraum gibt: preiswerte Monitoring Hard- und Software-kostenloses Plugin
Bei LCDs die eingesetzte Paneltechnologie. Und da muß man sich schon beim Kauf festlegen, später wechseln ist nicht. Genau wie bei der Display- Auflösung.
Postprocessing soll die Nachteile von prinzipbedingt trägen LCDs ausgleichen, erzeugt aber eine mehr oder weniger zeitverzögerte Darstellung (während ein CRT das Bild immer in Echtzeit auf die Röhre schreibt). Je nach Anwendung kann das nerven.
Äh, hast Du Dich da verschrieben? Das sollte doch wohl heißen "_W eniger_ an Aufloesung bei gleicher Groesse...", oder? Wobei die Auflösung bei der Größe schon recht moderat ist.
Ok, aber dann sind halt zwar die Klötzle nicht mehr zu erkennen, aber die Bildfläche ist für sinnvolle Verwendung schon wieder zu klein.
(Naja, ich hab' auch nur einen 1920x1200er, aber nur 24 Zölle gro , und der steht 'nen guten halben Meter vor mir. Ist nicht mehr Platz hier, aber ich hätte gerne mindestens die doppelte Klötzlezahl in jeder Richtung ...)
--
--
(Weitergabe von Adressdaten, Telefonnummern u.ä. ohne Zustimmung
Warum nicht? Ich glaub die 21"-Monitore mit 1280x1024 hab ich das erste mal bei einem MacII mit einer Motorola 68020er-CPU gesehen, in den frühen 90ern. Und seither hat sich bezüglich Bildschirmauflösung kaum was getan. Aber die Rechenleistung vervielfacht.
Schau dir an, wie flüssig ein Tablet mit einer kleinen ARM-CPU von vielleicht 5 Watt Verlustleistung eine Auflösung handelt, die oft über der moderner Desktops liegt.
Es ist gut, daß dieser Stillstand der Bildschirmauflösungen jetzt endlich aufhört, und wir wohl in ein paar Jahren bei sinnvollen 200dpi (oder mehr) angekommen sein werden. Ich schätze in unter 5 Jahren.
Nein. Bzw. so "ausreichend" wie Nadeldrucker fürs Drucken "ausreichend" sind.
Nimm z.B. Fotos her. Bei 90dpi kannst du nicht wirklich sagen, ob ein Foto scharf geworden ist, ohne reinzuzoomen. Bei 200dpi sieht man das auf den ersten Blick.
Oder Buchstaben: Bei 90dpi kannst du Univers und Helvetica am Bildschirm nur mit Mühe unterscheiden, wenn du mit 10 oder
12 Punkt tippst. Bei 200dpi problemlos. Usw.
Das sind reale Arbeitsvereinfachungen für Grafiker, Fotografen, wohl auch jeden anderen der mit komplexen Grafikdarstellungen arbeitet.
Moireebildung hab ich schon seit Ewigkeiten nirgends mehr gesehen (außer bei Kamerasensoren).
ElectronDepot website is not affiliated with any of the manufacturers or service providers discussed here.
All logos and trade names are the property of their respective owners.