Welchen Sinn macht es, wenn „Schärfe“ auf einem Monitor einstellbar ist?

91

Moderne Monitore haben oft eine "Schärfe" -Einstellung.

Aber ich verstehe nicht wirklich, wie sinnvoll es ist, wenn eine solche Umgebung existiert.

Die Software fordert den Monitor auf, ein bestimmtes Muster von 32-Bit-RGB-Werten anzuzeigen, oder?
Das heißt, das Betriebssystem fordert den Monitor möglicherweise auf, in jedem Frame eine bestimmte 1920 × 1080 × 32-Bitmap anzuzeigen.

Das Anpassen der "Schärfe" bedeutet jedoch, dass nahegelegene Pixelwerte sich gegenseitig beeinflussen. Dies scheint zu implizieren, dass die Eingabe nicht mehr korrekt dargestellt wird Sinn. Ich sehe also einfach nicht, wo dies einen logischen Raum für die Anpassung der Schärfe lässt.

Woher kommt genau der Freiheitsgrad für die Einstellung der Schärfe?

Mehrdad
quelle
30
Komisch, das letzte Mal, als ich Schärfe sah, war auf einer CRT. Damals konnten Sie das Timing zwischen roten, grünen und blauen Impulsen steuern, um sie entsprechend auszurichten. Wenn es etwas zu schnell oder zu langsam wäre, würden die drei Leuchtstoffe irgendwie verschmiert sein. Wenn Sie sie genau richtig ausgerichtet haben, war das Bild so scharf wie möglich. Offensichtlich trifft das auf moderne Displays überhaupt nicht zu.
Todd Wilcox
8
Du gibst eine Menge Antworten, die deine Frage nicht beantworten. Es könnte hilfreich sein, wenn du sagst, warum sie die Frage nicht beantworten. Es ist zu beachten, dass der Monitor nicht gesetzlich dazu verpflichtet ist, die von der Software geforderten Informationen anzuzeigen. Es könnte zum Beispiel jedes dritte Pixel auf grün ändern oder sie invertieren. Der Grund, warum der Monitor Bilder "verwirren" kann, ist, dass es genügend Kunden wünschten, es könnte das Bild genauso leicht strecken, aber niemand wollte das, also tun sie es nicht. Es gibt also nur zwei Arten von Antworten: Wie wird das technisch gemacht oder warum wollen die Leute das?
Richard Tingle
3
@RichardTingle: Ich nehme an, die Antwort auf "Warum wollen die Leute das?" Könnte möglicherweise auch meine Frage beantworten, ja. Ich versuche allerdings eher zu verstehen, welchen Sinn dies aus technischer Sicht hat. Um Ihnen ein Beispiel zu geben, ist es für mich tatsächlich sinnvoll , Schärfeparameter für die Anzeige von RAW-Fotos zu haben, da die Zuordnung von Sensordaten zu Pixeln inhärent ein unterbestimmtes Problem darstellt (dh keine eindeutige Lösung hat) Freiheitsgrade wie Schärfe, Rauschpegel usw. Aber Bitmaps sind Pixel. Wo ist also der Raum, um Dinge wie "Schärfe" anzupassen?
Mehrdad
2
@ToddWilcox: HP EliteDisplay-Monitore (LCD) haben zumindest die Einstellung "Schärfe" und funktionieren auch mit einem digitalen Eingang (dh nicht VGA).
sleske
2
Ich könnte hinzufügen, dass ich "Schärfe" anpassen musste, um Benutzer zu kompensieren, die in einigen Fällen Brillen oder Kontakte haben.
PhasedOut

Antworten:

81

Per https://www.cnet.com/uk/how-to/turn-down-your-tv-sharpness-control/ ist "Schärfe" auf einem LCD Teil der Nachbearbeitung.

Selbst wenn Sie die Skalierung / Aufwärtsabtastung weglassen (z. B. wenn Sie versuchen, ein SD-Signal auf einem HD-Monitor anzuzeigen) und die Komplexität der Farbkalibrierung nicht beachten, wird das Bild auf dem Monitor nicht immer wie angegeben angezeigt. Dies ist eine unglückliche Nebenwirkung des Marketings.

Monitorhersteller möchten ihr Produkt von anderen Produkten unterscheiden. Aus ihrer Sicht ist dies schlecht , wenn Sie dasselbe Signal an ihren Monitor und einen billigeren Konkurrenten senden und es identisch aussieht . Sie möchten, dass Sie ihren Monitor bevorzugen. Es gibt also eine Reihe von Tricks; In der Regel werden Helligkeit und Kontrast direkt über das Vernünftige hinaus aufgewickelt. Die "Schärfe" ist ein weiterer Trick. Wie lässt du dein Bild schärfer aussehen als ein Konkurrent, der das Bild genau so anzeigt, wie es gesendet wurde? Betrügen.

Der "Schärfefilter" ist der in Photoshop und ähnlichen Programmen verwendete Filter. Die Kanten werden hervorgehoben, sodass sie ins Auge fallen.

pjc50
quelle
7
+1 danke, ich denke, du kommst der Beantwortung meiner Frage ziemlich nahe! Basierend auf Ihrer Antwort scheint die direkte Antwort zu lauten: "Nein, es ergibt keinen wissenschaftlichen Sinn, aber es ist ihnen egal und sie tun es trotzdem, weil es beim Marketing hilft."
Mehrdad
8
Die meisten LCDs, die ich gesehen habe, erlauben nur das Ändern der Schärfe für analoge Signale, was natürlich durchaus Sinn macht. Schließen Sie das Display über DVI / HDMI an, und Sie erhalten keine Schärfesteuerung (tatsächlich verlieren Sie die meisten Signalsteuerungen, da sie nur für nicht perfekte Signale wirklich sinnvoll sind). Es ist auch bei LCDs üblich, dass es sich um hybride Monitor- / Fernsehbildschirme handelt. Da Fernsehgeräte über diese Funktionen verfügen (zum Guten oder Schlechten), dienen diese Anzeigen nur dazu, die Funktionsparität beizubehalten. Wenn Sie denken, es ist nur sinnloses Marketing, versuchen Sie, eine VHS auf einem Display
anzusehen
3
Es geht nicht nur um Marketing. Die "Pixel" sind keine geraden Linien, und es handelt sich auch nicht um einzelne Einheiten, wie der Name "Pixel" vermuten lässt.
HackSlash
26
Der Monitor kann das Bild niemals als gegeben anzeigen, und es liegt nicht an der Herstellung. Farben, Helligkeit, Schwarz, Auflösungen - alle variieren von Monitor zu Monitor. Ein digitales Signal könnte sagen: "Lichtpixel x bei 50% Helligkeit". Was ist 50% Helligkeit? Oder was ist 100 von 200 Helligkeit? Kommt absolut auf die Monitorhardware und Programmierung an. Was ist blau oder gelb? Deshalb gibt es zunächst Anpassungen. So kann ein Benutzer das Bild so aussehen lassen, wie er es für richtig hält oder genießen möchte. Die Vorstellung, dass ein Signal auf jedem Monitor 100% genau dargestellt wird, ist lächerlich.
Appleoddity
4
Einige der Kommentare sind technisch korrekt (wie "Der Monitor kann das Bild niemals als gegeben anzeigen"), aber die Antwort ist richtig, dass gefiltert wird (und dies aus Gründen der Täuschung geschieht). Darüber hinaus wird mit einigen negativen Koeffizienten gefiltert, wodurch inhärent abscheuliche Artefakte entstehen. Sobald Sie dies bemerken, werden Sie es nie wieder sehen können. :-)
R ..
67

Originalfrage: Woher genau kommt der Freiheitsgrad für die Einstellung der Schärfe?

Die Schärfe hängt direkt von der Art des Signals und dem angezeigten Inhalt ab. Filme sehen in der Regel besser aus, wenn die Schärfe verringert wird und die Pixel etwas verwackeln. Andererseits möchte ein Computerbildschirm eine hohe Schärfe für klaren Text und scharfe Bilder. Videospiele sind ein weiteres Beispiel, bei dem eine höhere Schärfe besser ist. TV-Signale mit geringer Qualität können auch mit Schärferegelungen verbessert werden.

Da Monitore für die Anzeige eines Computerbildschirms, eines Films oder praktisch jeder Videoquelle verwendet werden können, ist die Schärfe immer noch eine nützliche Einstellung.

https://www.crutchfield.com/S-biPv1sIlyXG/learn/learningcenter/home/tv_signalquality.html

EDIT: Das OP hat in Kommentaren angegeben, dass dies die Frage nicht beantwortet.

OP: Wo im Problem gibt es Raum für eine Anpassung? Zum Beispiel, wenn ich dir x = 1 und y = 2 sage und dann "oh, und ich will x - y = 3". Das macht keinen Sinn.

Das Konvertieren eines Livebilds / -videos in elektrische Analog- / Digitalsignale, das Übertragen über ein Medium und das Wiederherstellen dieses Bildes auf einem Anzeigegerät ist NIEMALS ein 1: 1-Prozess.

Signalrauschen, Kompressionsverlust, Herstellungs- und Ausstattungsunterschiede, Verkabelung / Signaltyp und andere Faktoren spielen eine Rolle. Alle Einstellungen auf einem Monitor sind so konzipiert, dass sie zusammenarbeiten, um dem Endbenutzer das bestmögliche Seherlebnis zu bieten - je nach Endbenutzer. Die Interpretation ist völlig subjektiv.

OP: Diese Antwort beantwortet nicht die Frage, warum der Betrachter die Schärfe anpassen soll, wenn dies bereits vom Ersteller des Inhalts festgelegt wurde (sei es Spielberg oder Excel).

Wenn wir dieser Logik folgen wollen, warum müssen Monitore dann überhaupt JEGLICHE Anpassungen vornehmen? Die Antwort ist, dass das, was wir auf dem Bildschirm sehen, keine 100% genaue Darstellung der Originaldaten ist.

Appleoddity
quelle
13
Das beantwortet meine Frage überhaupt nicht ... Ich habe nicht gefragt, was Schärfe ist.
Mehrdad
5
@ Martijn: Das war nicht meine Frage ...
Mehrdad
13
@Mehrdad Können Sie Ihre Frage dann umformulieren? Es scheint, dass mehrere Antwortende (und ihre Wähler) es nicht so verstehen, wie Sie es tun. Ich habe es auch als "Warum unterstützen LCDs Schärfe?" (was von diesem beantwortet wird), oder vielleicht "wie unterstützen LCDs die Schärfe?" (was von Aganju beantwortet wird). Wenn Sie keine dieser Fragen haben, sollten Sie diese klären.
Angew
3
@Mehrdad Ich fand es tatsächlich näher an "wie LCDs Schärfe unterstützen", was von Aganju erklärt, aber immer noch von Ihnen abgelehnt wurde.
Angew
3
Das Kabel und das Signal auf modernen Monitoren sind digital. Entweder erhält es eine perfekte Übertragung oder schlechte Daten. Es gibt keinen möglichen Signalverlust oder eine Verschlechterung wie bei einem analogen Signal. Innerhalb des Monitors wird das digitale Signal in etwas umgewandelt, das das Panel versteht, und das normalerweise auch digital ist. Der einzige analoge Teil sind die Helligkeitspegel jedes Elements und diese werden von einem digitalen Wert gesteuert.
HackSlash
36

Sie haben Recht, dass für eine perfekte Wiedergabe am Eingang der Monitor einfach jedes Pixel im Auslieferungszustand darstellen sollte.

Ihre Augen (und Ihr Gehirn) sehen Pixel jedoch nicht als separate Einheiten, sie sehen ein aus Pixeln gebildetes Bild. Je nachdem, was es darstellt, sieht ein Bild "besser" (attraktiver) aus, wenn Parameter absichtlich "verfälscht" werden.

Schärfe erhöht in der Regel den Kontrast an Farbwechselkanten. Ein Buchstabe in diesem Text wird beispielsweise durch Pixelzeilen dargestellt. Eine Zeile sieht möglicherweise vereinfacht aus. 2-2-2-2-7-7-7-2-2- 2-2 wobei 2 hellgrau und 7 dunkelgrau ist. Durch Erhöhen der Schärfe wird der Helligkeitsabfall am Rand erhöht, sodass die letzten 2 vor den ersten 7 noch heller (= 1) und die ersten 7 nach den letzten 2 noch dunkler (= 8) werden. Wiederholen Sie dies für die andere Kante, und Sie erhalten 2-2-2-1-8-7-8-1-2-2-2. Dies sieht für Ihre Augen viel schärfer aus.
Dies geschieht in beiden Dimensionen und ist etwas raffinierter, aber das sollte Ihnen die Grundidee erklären.

Edit: Ich dachte, ich hätte das in meiner Antwort deutlich gemacht, aber das OP behauptet, er habe es nicht verstanden:
OP Frage: "Welchen Sinn macht es?" -> Antwort: Es erscheint schärfer für Ihr Gehirn.
Viele Leute wollen das; Wenn es dir egal ist, benutze es nicht.

Aganju
quelle
18
@Mehrdad Was ist dann deine Frage? Sie haben eine Antwort von Appleoddity auf die Frage erhalten, "wie sinnvoll es ist, die Schärfe auf einem Monitor einzustellen". Sie haben eine Antwort von Aganju auf die Frage "Welchen Sinn macht es, wenn die Schärfe auf einem Monitor eingestellt werden kann?" Erhalten. Wenn keine von beiden Ihre beabsichtigte Frage ist, müssen Sie sie neu schreiben, damit Ihre gestellte Frage mit Ihrer erwarteten Frage übereinstimmt.
Birjolaxew
6
@Mehrdad Aus Ihren Kommentaren geht hervor, dass Ihre Frage "Warum dürfen Monitore die Schärfe ändern, wenn der Computer ihnen bereits genau sagt, was sie anzeigen sollen" lautet - was von Appleoddity beantwortet wird.
Birjolaxew
Diese Antwort ist funktional die gleiche wie die Antwort von pjc50. Beides ist falsch.
HackSlash
33

Die Antwort ist, dass ein Pixel nicht das ist, was Sie denken. Aufgrund des "Subpixel-Renderings" besteht keine 1: 1-Korrelation zwischen digitalen und physischen Pixeln. Die Art und Weise, wie die Farben angezeigt werden, ist bei jedem Monitor unterschiedlich, aber die meisten LCD-Monitore haben unterschiedliche Elemente in Form eines Dreiecks (rot, grün und blau). Einige haben zusätzlich ein weißes Pixel, das ein Quad von Elementen pro "Pixel" ergibt.

Bildbeschreibung hier eingeben

Daher sind nicht alle Layouts gleich. Jedes Layout kann eine andere "visuelle Auflösung" (MTFL = Modulation Transfer Function Limit) aufweisen, die als die höchste Anzahl von schwarzen und weißen Linien definiert ist, die gleichzeitig ohne sichtbares chromatisches Aliasing gerendert werden können.

Mit Monitor-Treibern können Renderer ihre Geometrietransformationsmatrizen korrekt anpassen, um die Werte jeder Farbebene korrekt zu berechnen und den besten Gewinn aus dem Subpixel-Rendering mit dem niedrigsten chromatischen Aliasing zu ziehen.

Die "Schärfe" auf Ihrem Monitor verringert den natürlichen Mischungsalgorithmus, der verwendet wird, um Linien zusammenhängend erscheinen zu lassen, wenn dies nicht der Fall ist. Durch Erhöhen der Schärfe wird das chromatische Aliasing verstärkt, während sauberere Linien erzeugt werden. Durch Verringern der Schärfe erhalten Sie eine bessere Farbmischung und glätten die Linien, die zwischen dem Subpixel-Punktabstand liegen.

Ausführlichere Informationen finden Sie in diesem Artikel: https://en.wikipedia.org/wiki/Subpixel_rendering

HackSlash
quelle
17

Sie haben absolut Recht, dass die Einstellung der Schärfe auf Ihrem Monitor das Bild von den pixelgenauen Daten, die vom Computer gesendet werden (oder was auch immer am anderen Ende des Videokabels angeschlossen ist), etwas "verzerrt". Der Benutzer kann jedoch sein visuelles Erlebnis verbessern, wenn die Schärfe der gesendeten pixelgenauen Daten nicht der gewünschten Schärfe des angezeigten Bildes entspricht.

Der Monitor tut dies also nicht:

  1. Bitmap vom Kabel empfangen
  2. Bitmap rendern
  3. Gehe zu 1.

aber dieses:

  1. Bitmap vom Kabel empfangen
  2. Ändern Sie die Bitmap entsprechend den Benutzereinstellungen
  3. Bitmap rendern
  4. Gehe zu 1.

Der Freiheitsgrad für die Einstellung der Schärfe wird vom Monitorhersteller ausdrücklich hinzugefügt, um die Benutzerfreundlichkeit zu verbessern.

Angew
quelle
1
Der Kommentar von slebetman zu seiner eigenen Antwort scheint dies zu bestätigen, da ein Benutzer dies verlangt: "Ich habe gerade die Einstellung der LCD-Schärfe gegoogelt, falls es LCD-Bildschirme gab. Was ich fand, waren urkomische Fragen von Leuten, die die Schärfe auf LCD-Bildschirmen einstellen wollten, wenn Sie wurden erstmals vorgestellt "
LVDV
13

Die Software fordert den Monitor auf, ein bestimmtes Muster von 32-Bit-RGB-Werten anzuzeigen, oder? Das heißt, das Betriebssystem fordert den Monitor möglicherweise auf, in jedem Frame eine bestimmte 1920 × 1080 × 32-Bitmap anzuzeigen.

So funktioniert VGA überhaupt nicht. Auf Monitorebene gibt es überhaupt keine Pixel.

Wie Displays vor dem LCD-Zeitalter traditionell funktionierten, ist dies:

  1. Die Software fordert den Gerätetreiber auf, ein Bitmap-Bild anzuzeigen

  2. Der Gerätetreiber teilt das Bild in drei Wellenformen für R, G und B. Richtig, Wellenformen! Genau wie Audio-Wellenformen. Diese Wellenformen haben nun ein bestimmtes Format, da bei 1d-Audio 2d-Bilder sind.

  3. Das analoge Signal für Linien auf dem Bildschirm wird an den Monitor gesendet.

Der Monitor sieht nie ein Pixel, er sieht nur Linien.

  1. Der Monitor spuckt Elektronen aus, die sich mit nahezu Lichtgeschwindigkeit aus drei Elektronenkanonen bewegen, und der Strahl wird durch die Steuerung einer Gruppe von Elektromagneten abgelenkt, so dass diese den gesamten Bildschirm bemalen.

Hier kommt die Schärferegelung ins Spiel.

Aufgrund von Fertigungstoleranzen konvergieren die Elektronenstrahlen so gut wie nie richtig und erzeugen unscharfe Bilder direkt vom Fließband. In der Vergangenheit liegt es an Ihnen, der Person, die den Monitor gekauft hat, die Schärfe zu Hause anzupassen. Später haben modernere dieser alten Displays einen automatischen Einstellprozess in der Fabrik, aber die Schärfeeinstellung muss noch eingebaut werden, damit der Prozess funktioniert.

Die Antwort ist also ganz einfach. Die Schärfeeinstellung soll sicherstellen, dass das Bild auf den Displays scharf ist.

Slebetman
quelle
4
Ich habe gerade die Einstellung der LCD-Schärfe gegoogelt, falls LCD-Bildschirme vorhanden sind. Was ich fand, waren lustige Fragen von Leuten, die die Schärfe auf LCD-Bildschirmen einstellen wollten, als sie zum ersten Mal vorgestellt wurden
Slebetman
Der LCD-Bildschirm, den ich verwende, hat einen Schärfeparameter, weshalb ich diese Frage gestellt habe. Das bisschen über CRT-Displays ist nett, scheint aber leider nicht relevant.
Mehrdad
@Mehrdad Ist es ein VGA-LCD-Bildschirm oder reines DVI / HDMI?
Slebetman
Ich benutze VGA, aber ich glaube, es unterstützt auch DVI. Mir ist nicht klar, was die Verwendung von Wellenformen anstelle von digitalen Signalen damit zu tun hat, dass der Benutzer die Schärfe einstellen kann. (?)
Mehrdad
3
Die Wellenformen enthalten keine Pixel, sondern nur Linien. Ein gewisses Maß an Unschärfe ist unvermeidlich, wenn das Signal übertragen wird. Normalerweise ist es nicht sichtbar, aber bei HD kann ich normalerweise den Unterschied zwischen einem VGA-Signal und einem HDMI / DVI / DP-Signal feststellen.
pjc50
6

Bei einem (digitalen) Fernsehgerät steuert die Schärfe einen Peaking-Filter, der die Kanten verbessert. Das ist auf einem Display nicht so nützlich, wenn es als Computermonitor verwendet wird.

Im vorigen Jahrhundert hat die Schärfe auf einem analogen High-End-CRT-Monitor möglicherweise die Fokusspannung der Elektronenkanone gesteuert. Dies wirkt sich auf die Spotgröße aus, mit der das Bild gezeichnet wird. Stellen Sie die Punktgröße zu klein (zu scharf) ein und die Linienstruktur wird zu sichtbar. Außerdem kann es zu störenden "Moiré" -Störungen in der Struktur der Schattenmaske kommen. Die optimale Einstellung hängt von der Auflösung (Abtastrate) des Bildes ab, da viele CRT-Monitore mehrere Auflösungen ohne Skalierung (Multi-Sync) unterstützen. Stellen Sie es gerade scharf genug ein.

High-End-Röhrenfernseher verfügten über eine Scan-Geschwindigkeitsmodulation, bei der der Scanstrahl um eine vertikale Kante verlangsamt wird, sowie über ein horizontales und vertikales Peaking-Filter und möglicherweise eine horizontale Transientenverbesserungsschaltung. Die Schärfe kann einige oder alle beeinflusst haben.

Durch das allgemeine Schärfen werden die Kanten verbessert, indem die dunkle Seite der Kante dunkler, die helle Seite heller und die Mitte der Kante steiler wird. Ein typisches Peaking-Filter berechnet ein Differential 2. Ordnung bei der digitalen Verarbeitung, z. B. (-1,2, -1). Fügen Sie dem Eingangssignal eine kleine Menge dieser Spitze hinzu. Wenn Sie die Überschwinger abschneiden, reduziert sich dies auf "vorübergehende Verbesserung".

Bei einigen digitalen Geräten kann die Schärfe eines Skalierers gesteuert werden, z. B. bei meinen digitalen Satellitenfernsehgeräten. Hiermit wird die Bandbreite der Mehrphasenfilter eines Skalierers festgelegt, der von einer Quellenauflösung in die Anzeigeauflösung konvertiert. Skalierung kann nicht perfekt sein, sie ist immer ein Kompromiss zwischen Artefakten und Schärfe. Stellen Sie es zu scharf ein und störende Konturen und Aliasing werden sichtbar.

Dies ist möglicherweise die plausibelste Antwort auf Ihre Frage, jedoch nur, wenn der Monitor skaliert. Bei einem nicht skalierten 1: 1-Modus würde dies nichts bewirken.

Quelle: 31 Jahre Erfahrung in der Signalverarbeitung für das Fernsehen.

StessenJ
quelle
Dieser Beitrag ist 100% korrekt für analoge Technik wie CRTs. Das OP fragt nach der Schärfe eines ausschließlich digitalen LCD-Displays. Er denkt, wie Sie, dass "es in einem nicht skalierten 1: 1-Modus nichts tun würde", aber tatsächlich. Siehe meine Antwort zum Subpixel-Rendering in LCD-Displays.
HackSlash
Mir ist kein Monitor mit Subpixel-Rendering bekannt, außer vielleicht einem tragbaren Pentile-Bildschirm. Dies geschieht normalerweise mit der ClearView-Software für die Schriftwiedergabe auf dem PC.
StessenJ
1
Diese Doktorarbeit behandelt das Rendern von Subpixeln sehr gut, in Kapitel 3: pure.tue.nl/ws/files/1861238/200612229.pdf . Im Wesentlichen handelt es sich beim Subpixel-Rendering um einen Farbkonvergenzfehler von +/- 1/3 Pixel. CRTs brauchen es nicht, es wird implizit von der Schattenmaske gemacht (Sampling).
StessenJ
In diesem Artikel wird der Vorgang des Zusammenfügens von Subpixeln zu einem kohärenten "Pixel" als "räumliche Rekonstruktion" bezeichnet. Sie bezeichnen das "Pixel" als "Blende", wenn es um das Zusammenwirken der Subpixel geht. Die Subpixel sind Farbphosphore und werden auf Seite 28 deutlich dargestellt. Diese Phosphore werden nicht immer als eindeutige Einstellung verwendet. Je nach "Schärfe" der Linien können Sie den roten Leuchtstoff eines Satzes oder eines benachbarten Satzes verwenden.
HackSlash
5

Das ergibt keinen Sinn. Oder zumindest nicht bei den meisten LCD-Monitoren. Sie werden fast immer wollen Ihre „Schärfe“ auf 0 gesetzt, je nach Monitor oder TV (einige werden das Signal bei 0 verschwimmen, so dass die tatsächliche ungefilterte Einstellung könnte irgendwo in der Mitte sein), sonst wird es einen Anwendung Kantenverbesserungsfilter , wodurch die dunklere Seite einer Kante dunkler und die hellere Seite heller wird. Dies macht sich insbesondere bei Cartoons und Texten bemerkbar. Ihr Kilometerstand kann variieren, aber ich denke, es sieht in fast jedem Fall schlecht aus.

Dies ist ein verlustbehafteter, irreversibler Filter, den Sie wahrscheinlich nicht aktivieren möchten. Ihr Computer sendet pixelgenaue Daten, daher sind Schärfe- und Unschärfefilter im Allgemeinen unerwünscht.

Beachten Sie auch, dass der Filter / die Einstellung "Schärfe" eine falsche Bezeichnung ist. Es ist unmöglich, ein Bild schärfer (dh detaillierter), nur weniger detailliert zu machen. Die einzige Möglichkeit, ein schärferes Bild zu erhalten, ist die Verwendung eines Quellbilds mit höherer Auflösung.

Beefster
quelle
5

Bei LCD-Bildschirmen gibt es Schärfeeinstellungen, da die Hersteller glauben, dass digitale Effekte mehr Monitore und Fernseher verkaufen werden. Anstatt die Eingaben vom Computer originalgetreu wiederzugeben, gibt der Hersteller dem Benutzer die Möglichkeit, das Bild an den persönlichen Geschmack anzupassen, so schlecht dieser auch sein mag.

"Schärfe" ist relevant für analoge Signale (wie VGA) und für CRT-Anzeigen, bei denen das Signal an einem bestimmten Punkt durch Wellenformen dargestellt wird. Da Analog zu Ungenauigkeiten neigt, ermöglichen die Schärfeeinstellungen die Kalibrierung auf Toleranzen und die Kompensation von Fehlern bei der Ausgabe der Analoganzeige und der Signalübertragung.

Bei LCD-Bildschirmen mit DVI, HDMI und anderen "pixelgenauen" Datenquellen mit einer 1: 1-Auflösung sollte die Schärfe keine Rolle spielen. Ja, in diesem Szenario verzerrt die Schärfe das Bild. Displays in Kistengeschäften sind oft scharf und andere digitale Filter sind extrem scharf eingestellt, um dramatischer zu wirken als die umgebenden Displays. Einige Verbraucher möchten diese Effekte möglicherweise tatsächlich, weil sie sich an die Filter gewöhnt haben oder weil sie versuchen, ein qualitativ minderwertiges LCD-Panel zu kompensieren, das bei der nativen Ausgabe schlecht aussieht. Die Schärfe kann auch relevant sein, wenn ein digitales Signal verwendet wird, dessen Größe geändert werden muss, da die Quelle und das Display unterschiedliche Auflösungen haben.

Insgesamt möchten Sie wahrscheinlich, dass die Schärfe auf einem modernen LCD-Display mit einem 1: 1-Digitalsignal auf Aus oder 0 eingestellt wird.

http://hifi-writer.com/wpblog/?page_id=3517 und https://forums.anandtech.com/threads/why-does-an-lcd-tv-with-hdmi-input-need-a-sharpness -control.2080809 /

Bendodge
quelle
4

Viele Monitore akzeptieren ein Videosignal, das nicht die gleiche Auflösung wie das Panel hat, und versuchen, es entsprechend zu skalieren. Wenn ein Monitor mit einer Breite von 1280 Pixeln ein Bild mit einer Breite von 1024 Pixeln anzeigen soll und das Ausgangsmaterial aus schwarzen und weißen Streifen mit einer Breite von einem Pixel besteht, zeigt die Anzeige wahrscheinlich ein sich wiederholendes 5-Pixel-Muster. Auf einer Skala von 0-4 wäre das Muster wahrscheinlich 03214. Wenn die schwarzen und weißen Streifen im Original "aussagekräftig" sind, kann es hilfreich sein, sie wie oben zu zeigen. Andererseits wäre das sich wiederholende 5-Pixel-Muster eine Ablenkung, die im Original nicht vorhanden ist. Das Hinzufügen von Unschärfe zum Bild würde die Aliasing-Effekte der Skalierung verringern.

Superkatze
quelle
-1

Unterschiedliche Einstellungen sind für unterschiedliche Inhalte gut. Diese Einstellungen können auch an der Quelle geändert werden, aber ich und wahrscheinlich viele andere wissen nicht, wo Sie die Schärfeeinstellung an einem PC ändern können.

So gibt es ein leicht zugängliches Menü auf dem Monitor, in dem die Schärfe geändert werden kann.

Christian
quelle