Quel sens a la "netteté" ajustable sur un moniteur?


91

Les moniteurs modernes ont souvent un paramètre "netteté".

Mais je ne comprends pas vraiment comment il est logique qu'un tel paramètre existe.

Le logiciel demande au moniteur d’afficher un motif particulier de valeurs RVB 32 bits, non?
C'est-à-dire que le système d'exploitation peut demander au moniteur chaque image d'afficher un bitmap particulier de 1920 × 1080 × 32.

Mais ajuster la "netteté" signifie laisser les valeurs de pixels proches s’affecter, ce qui semble impliquer que l’entrée n’est plus fidèlement représentée ... ce qui signifie qu’elle n’affichera plus ce qu’elle doit afficher, ce qui ne fait pas sens. Je ne vois donc pas où cela laisse une marge de manœuvre logique pour le réglage de la netteté.

D'où vient exactement le degré de liberté pour ajuster la netteté?


30
C'est drôle, la dernière fois que j'ai vu que la netteté était sur un tube cathodique. À l'époque, il vous permettait de contrôler le temps entre les impulsions rouges, vertes et bleues pour les aligner correctement. S'il était légèrement trop rapide ou trop lent, les trois luminophores seraient en quelque sorte maculés. Si vous les avez alignés correctement, l’image était aussi nette que possible. Évidemment, cela ne s'applique pas du tout aux écrans modernes.
Todd Wilcox

8
Vous dites souvent qu'ils ne répondent pas à votre question. Cela pourrait vous aider si vous expliquez pourquoi ils ne répondent pas à la question. Il vaut la peine de noter que la loi n’oblige pas le moniteur à afficher ce que le logiciel lui demande. Il pourrait par exemple changer le vert de tous les trois pixels ou les inverser. La raison pour laquelle le moniteur peut «fuzzifier» les images, c'est parce que suffisamment de clients le souhaitent, il peut tout aussi bien agrandir l'image, mais personne ne le souhaite, alors ils ne le font pas. Il n'y a donc que deux types de réponses: comment cela est-il techniquement réalisé ou pourquoi les gens le souhaitent-ils?
Richard Tingle

3
@RichardTingle: Je suppose que la réponse à "pourquoi les gens le veulent-elle" pourrait aussi potentiellement répondre à ma question, oui. Bien que j'essaie davantage de comprendre le sens que cela donne d'un point de vue technique. Pour vous donner un exemple, il est logique pour moi d’avoir des paramètres de netteté pour l’affichage des photos au format RAW, car le mappage des données du capteur sur un pixel est par nature un problème sous-déterminé (c’est-à-dire qu’il n’a pas de solution unique) avec degrés de liberté comme la netteté, le niveau de bruit, etc. Mais les bitmaps sont des pixels, quelle est donc la marge de manœuvre pour régler des choses comme la "netteté"?
Mehrdad

2
@ToddWilcox: Pour ce que cela vaut, au moins les moniteurs HP EliteDisplay (LCD) ont un paramètre «Netteté» et fonctionne même avec une entrée numérique (c'est-à-dire sans VGA).
Sleske

2
J'ajoute que j'ai dû ajuster la "Netteté" pour compenser les utilisateurs qui ont des lunettes ou des contacts dans certains cas.
PhasedOut

Réponses:


81

Selon https://www.cnet.com/uk/how-to/turn-down-your-tv-sharpness-control/ , la "netteté" sur un écran LCD fait partie du post-traitement.

Même en laissant de côté le redimensionnement / suréchantillonnage (par exemple, si vous essayez d'afficher un signal SD sur un moniteur HD) et la complexité de l'étalonnage des couleurs, le moniteur n'affiche pas toujours l'image telle qu'elle est donnée. C'est un effet secondaire malheureux du marketing.

Les fabricants de moniteurs aiment distinguer leurs produits d’autres produits. De leur point de vue, si vous transmettez le même signal à leur moniteur et à un concurrent moins cher, et que cela ait l'air identique, c'est mauvais . Ils veulent que vous préfériez leur moniteur. Donc, il y a un tas de trucs; habituellement, la luminosité et le contraste sont compensés au-delà de ce qui est sensé. La "netteté" est une autre astuce. Comment rendez-vous votre photo plus nette qu'un concurrent qui l'affiche exactement telle qu'elle a été envoyée? Tricher.

Le filtre "netteté" est effectivement celui utilisé dans Photoshop et les programmes similaires. Il améliore les bords afin qu'ils attirent l'œil.


7
+1 merci, je pense que vous êtes sur le point de répondre au cœur de ma question! Sur la base de votre réponse, il semble que la réponse directe serait "non, cela n'a aucun sens scientifique, mais ils s'en moquent et le font de toute façon parce que cela aide au marketing".
Mehrdad

8
La plupart des écrans LCD que j'ai vus permettent uniquement de modifier la netteté des signaux analogiques, ce qui est parfaitement logique, bien entendu. Connectez l'affichage via DVI / HDMI et vous n'obtiendrez pas de commandes de netteté (en fait, vous perdrez la plupart des commandes de signal, car elles n'ont vraiment de sens que pour des signaux non parfaits). C'est également courant dans les écrans LCD qui sont des moniteurs / écrans de télévision hybrides - comme les téléviseurs ont ces fonctionnalités (pour le meilleur ou pour le pire), ces affichages font juste pour maintenir la parité des fonctionnalités. Si vous pensez que c'est juste du marketing inutile, essayez de regarder une VHS sur un écran qui suppose un signal de pixel parfait :)
Luaan

3
Ce n'est pas juste du marketing. Les "pixels" ne sont pas en lignes droites, pas plus qu'ils ne sont des unités uniques comme le suggère le nom de pixel.
HackSlash

26
Le moniteur ne peut jamais afficher l'image telle qu'elle est donnée, et ce n'est pas à cause de la fabrication. Couleurs, luminosité, noirs, résolutions - tout varie d'un moniteur à l'autre. Un signal numérique peut indiquer "pixel x à 50% de luminosité". Qu'est-ce que 50% de luminosité? Ou quelle est la luminosité de 100 sur 200? Cela dépend absolument du matériel et de la programmation du moniteur. C'est quoi le bleu? ou jaune? C'est pourquoi il y a des ajustements pour commencer. Ainsi, un utilisateur peut faire en sorte que la photo ressemble à celle qui lui convient ou qu’elle l’apprécie. L'idée qu'un signal soit représenté à 100% avec précision sur n'importe quel moniteur est ridicule.
Appleoddity

4
Certains commentaires sont techniquement corrects (comme "Le moniteur ne peut jamais afficher l'image telle qu'elle est donnée"), mais la réponse est correcte: ce qui se passe est un filtrage (et cela est fait dans un souci de tromperie). De plus, il filtre avec des coefficients négatifs qui introduisent des artefacts hideux; une fois que vous vous en rendrez compte, vous ne pourrez plus jamais le regarder. :-)
R ..

67

Question originale: D'où vient exactement le degré de liberté de réglage de la netteté?

La netteté est directement liée au type de signal et au contenu visionnés. Les films ont généralement une meilleure apparence lorsque la netteté est réduite et que les pixels sont un peu flous. D'autre part, un écran d'ordinateur voudrait une netteté élevée pour un texte clair et des images nettes. Les jeux vidéo sont un autre exemple où une plus grande netteté est meilleure. Les signaux TV de faible qualité peuvent également être améliorés avec des commandes de netteté.

Les moniteurs pouvant être utilisés pour afficher un écran d'ordinateur, un film ou pratiquement n'importe quelle source vidéo, la netteté reste un paramètre utile.

https://www.crutchfield.com/S-biPv1sIlyXG/learn/learningcenter/home/tv_signalquality.html

EDIT: Le PO a indiqué dans ses commentaires que cela ne répondait pas à la question.

OP: Où dans le problème y a-t-il place pour un ajustement? Comme si je vous disais x = 1 et y = 2, puis dites "oh, et je veux x - y = 3". Ça n'a aucun sens.

Le processus de conversion d'une image / vidéo en direct en signaux électriques / analogiques électriques, la transmission sur un support quelconque et la recréation de cette image sur un périphérique d'affichage n'est JAMAIS un processus 1 pour 1.

Le bruit du signal, la perte de compression, les variations de fabrication et d'équipement, le type de câblage / signal et d'autres facteurs entrent en jeu. Tous les réglages sur un moniteur sont conçus pour fonctionner ensemble afin de donner à l'utilisateur final une expérience de visualisation de la plus haute qualité - selon l'utilisateur final. L'interprétation est entièrement subjective.

OP: Cette réponse ne répond pas à la question de savoir pourquoi le spectateur doit ajuster la netteté alors que celle-ci est déjà définie par le créateur du contenu (qu'il s'agisse de Spielberg ou d'Excel).

Si nous devons suivre cette logique, alors pourquoi les moniteurs ont-ils besoin ou n’ont-ils AUCUN ajustement? La réponse est que ce que nous voyons à l'écran n'est pas une représentation exacte à 100% des données d'origine.


13
Cela ne répond pas du tout à ma question ... Je ne demandais pas ce qu'est la netteté.
Mehrdad

5
@ Martijn: Ce n'était pas ma question ...
Mehrdad

13
@Mehrdad Pouvez-vous reformuler votre question, alors? Il semble que plusieurs répondants (et leurs électeurs) ne comprennent pas cela comme vous le faites. Je l'ai également pris comme "pourquoi les écrans LCD prennent-ils en charge la netteté?" (à laquelle répond celui-ci), ou peut-être "comment les écrans LCD prennent-ils en charge la netteté?" (qui est répondu par Aganju). Si votre question n'est ni l'une ni l'autre, clarifiez-la.
Réintégrer Monica le

3
@ Mehrdad, en fait, je l'ai trouvé plus proche de "comment les écrans LCD prennent-ils en charge la netteté", ce qui a été expliqué par Aganju mais que vous avez quand même rejeté.
Réintégrer Monica le

3
Le câble et le signal sur les moniteurs modernes sont numériques. Il obtient une transmission parfaite ou de mauvaises données. Il n'y a aucune perte ou dégradation de signal possible comme dans un signal analogique. À l'intérieur du moniteur, le signal numérique est converti en quelque chose que le panneau comprend et qui est généralement également numérique. La seule partie analogique concerne les niveaux de luminosité de chaque élément, ceux-ci étant pilotés par une valeur numérique.
HackSlash

36

Vous avez raison de dire que pour une reproduction parfaite de l’entrée, le moniteur doit simplement présenter chaque pixel tel qu’il est livré.

Cependant, vos yeux (et votre cerveau) ne voient pas les pixels comme des entités séparées, ils voient une image formée de pixels. En fonction de ce qu'elle représente, une image aura l'air "meilleure" (plus attrayante) si les paramètres sont intentionnellement "falsifiés".

La netteté augmente généralement le contraste sur les bords de changement de couleur, par exemple, une lettre de ce texte est représentée par des rangées de pixels, une ligne peut sembler (simplifiée) 2-2-2-2-7-7-7-2-2- 2-2 où 2 est gris clair et 7 est gris foncé. L'augmentation de la «netteté» augmente la diminution de la luminosité au niveau du bord. Ainsi, les 2 derniers caractères avant les 7 premiers deviennent encore plus clairs (= 1) et les 7 premiers après les 2 derniers deviennent encore plus sombres (= 8). Répétez l'opération pour l'autre bord, et vous obtenez 2-2-2-1-1-8-7-8-1-2-2-2. Cela semblera beaucoup plus «net» à vos yeux.
Ceci est fait dans les deux dimensions, et un peu plus sophistiqué, mais cela devrait vous expliquer l'idée de base.

Edit: Je pensais que cela était clair dans ma réponse, mais le PO affirme qu'il ne l'a pas compris:
Question du PO: "quel sens cela donne-t-il" -> Réponse: il semble plus net à votre cerveau.
Beaucoup de gens veulent ça. si vous ne l'aimez pas, ne l'utilisez pas.


18
@Mehrdad Alors quelle est votre question? Appleoddity vous a demandé "quel sens [de la convivialité] permet à la netteté de s’ajuster sur un moniteur". Vous avez obtenu une réponse à "quel sens [technologie-sage] fait-elle pour que la netteté soit ajustable sur un moniteur" d'Aganju. Si aucune de ces deux questions ne correspond à votre question, vous devez la reformuler pour que la question posée corresponde à celle attendue.
Birjolaxew

6
@Mehrdad D'après vos commentaires, votre question semble être la suivante: "Pourquoi les moniteurs sont-ils autorisés à modifier la netteté lorsque l'ordinateur leur dit déjà exactement ce qu'ils doivent afficher", à laquelle répond Appleoddity.
Birjolaxew

Cette réponse est fonctionnellement la même que celle donnée par pjc50. Les deux ont tort.
HackSlash

33

La réponse est qu'un pixel n'est pas ce que vous pensez. Il n’existe pas de corrélation de 1 à 1 entre les pixels numériques et les pixels physiques en raison du "rendu sous-pixel". La façon dont les couleurs sont affichées est différente sur chaque moniteur, mais la plupart des moniteurs LCD ont des éléments distincts ROUGE, VERT et BLEU disposés en triangle. Certains ont en outre un pixel blanc formant un quadrilatère par pixel.

entrez la description de l'image ici

Ainsi, toutes les mises en page ne sont pas créées égales. Chaque structure particulière peut avoir une "résolution visuelle" différente, une limite de fonction de transfert de modulation (MTFL), définie comme étant le nombre le plus élevé de lignes noires et blanches pouvant être restituées simultanément sans crénelage chromatique visible.

Les pilotes de moniteur permettent aux moteurs de rendu d'ajuster correctement leurs matrices de transformation géométrique afin de calculer correctement les valeurs de chaque plan de couleur et de tirer le meilleur parti du rendu des sous-pixels avec le repliement du plus petit alias chromatique.

La "netteté" de votre moniteur réduit l'algorithme de fusion naturelle utilisé pour faire en sorte que les lignes semblent contiguës lorsqu'elles ne le sont pas. Augmenter la netteté augmentera le repliement du spectre tout en produisant des lignes plus nettes. Réduire la netteté vous permettra d'obtenir un meilleur mélange de couleurs et d'adoucir les lignes situées entre les pas de pixel inférieurs au pixel.

Pour plus d'informations, consultez cet article: https://en.wikipedia.org/wiki/Subpixel_rendering


17

Vous avez absolument raison de dire que le réglage de la netteté sur votre moniteur "déforme" quelque peu l'image à partir des données au pixel près envoyées par l'ordinateur (ou tout ce qui est connecté à l'autre extrémité du câble vidéo). Toutefois, cela permet à l'utilisateur d'améliorer son expérience visuelle si la netteté des données au pixel près envoyées ne correspond pas à la netteté souhaitée dans l'image visualisée.

Donc, le moniteur ne fait pas ceci:

  1. Recevoir une image bitmap du câble
  2. Rendu bitmap
  3. Aller à 1.

mais ça:

  1. Recevoir une image bitmap du câble
  2. Modifier l'image bitmap en fonction des préférences de l'utilisateur
  3. Rendu bitmap
  4. Aller à 1.

Ainsi, le degré de liberté de réglage de la netteté est explicitement ajouté par le fabricant du moniteur, dans le but d'améliorer l'expérience utilisateur.


1
Le commentaire de slebetman sur sa propre réponse semble confirmer cela en tant que demande de l’utilisateur: "Je viens de googler le réglage de la netteté de l’écran LCD au cas où il en aurait un sur l’écran LCD. Ce que j’ai trouvé était une question hilarante de personnes qui ils ont été introduits pour la première fois "
LVDV

13

Le logiciel demande au moniteur d’afficher un motif particulier de valeurs RVB 32 bits, non? C'est-à-dire que le système d'exploitation peut demander au moniteur chaque image d'afficher un bitmap particulier de 1920 × 1080 × 32.

Ce n'est pas comme ça que fonctionne VGA. Au niveau du moniteur, il n'y a pas de pixels du tout.

Voici comment se présentent les écrans traditionnellement utilisés avant l’âge de l’écran LCD:

  1. Le logiciel demande au pilote de périphérique d’afficher une image bitmap

  2. Le pilote de périphérique divise l'image en trois formes d'onde pour R, G et B. C'est vrai, les formes d'onde! Exactement comme les formes d'onde audio. Maintenant, ces formes d’ondes ont un format spécifique car, lorsque l’audio est 1d, les images sont 2d.

  3. Le signal analogique des lignes à l'écran est envoyé au moniteur.

Le moniteur ne voit jamais un pixel, il ne voit que des lignes.

  1. Le moniteur recrache des électrons se déplaçant presque à la vitesse de la lumière à partir de trois canons à électrons et le faisceau est dévié par un groupe d'électro-aimants de contrôle les forçant à peindre tout l'écran.

Voici où le contrôle de la netteté entre en jeu.

En raison des tolérances de fabrication, les faisceaux d'électrons ne convergent presque jamais correctement et produisent des images floues dès la chaîne de montage. À l’époque, c’est à vous, la personne qui a acheté le moniteur, d’ajuster la netteté à la maison. Plus tard, ces afficheurs anciens plus modernes ont un processus de réglage automatique en usine mais le réglage de la netteté doit toujours être intégré pour que le processus fonctionne.

Donc, la réponse est très simple. Le réglage de la netteté est là pour assurer la netteté de l’image sur les écrans.


4
Je viens de googler réglage de la netteté LCD au cas où il y avait des écrans LCD en avaient. Ce que j'ai trouvé, ce sont des questions hilarantes de personnes qui voulaient régler la netteté sur les écrans LCD lors de leur première utilisation
slebetman

L’écran LCD que j’utilise possède un paramètre de netteté, c’est ce qui m’a fait poser cette question. Le problème des écrans à tube cathodique est agréable mais ne semble malheureusement pas pertinent.
Mehrdad

@ Mehrdad Est-ce un écran LCD VGA ou pur DVI / HDMI?
Slebetman

J'utilise VGA, mais je crois qu'il prend également en charge le format DVI. Ce que je ne sais pas ce que l'utilisation de formes d'onde plutôt que de signaux numériques a à voir avec le fait de laisser l'utilisateur ajuster la netteté. (?)
Mehrdad

3
Il n'y a pas de pixels dans les formes d'onde, seulement des lignes; une certaine quantité de flou est inévitable lorsque le signal est transmis. Généralement, ce n'est pas visible, mais en HD, je peux généralement faire la différence entre un signal VGA et un signal HDMI / DVI / DP.
pjc50

6

Sur un téléviseur (numérique), la netteté contrôle un filtre anti-crête qui améliore les contours. Ce n'est pas très utile sur un écran s'il est utilisé comme moniteur d'ordinateur.

Au siècle dernier, sur un moniteur CRT analogique haut de gamme, la netteté avait peut-être contrôlé la tension de focalisation du canon à électrons. Cela affecte la taille du spot avec lequel l'image est dessinée. Définissez une taille de spot trop petite (trop nette) et la structure de la ligne devient trop visible. Il peut également y avoir une interférence gênante de "moiré" dans la structure du masque perforé. Le réglage optimal dépend de la résolution (fréquence d'échantillonnage) de l'image, car de nombreux moniteurs CRT étaient capables de plusieurs résolutions sans mise à l'échelle (synchro multiple). Réglez-le juste assez fort.

Les téléviseurs à tube cathodique haut de gamme ont une modulation de vitesse de balayage, dans laquelle le faisceau de balayage est ralenti autour d’un bord vertical, ainsi que des filtres de crête horizontaux et verticaux et peut-être un circuit d’amélioration transitoire horizontal. La netteté peut avoir contrôlé tout ou partie.

La netteté en général améliore les bords en rendant le côté sombre du bord plus foncé, le côté clair plus brillant et le milieu du bord plus raide. Un filtre de pointage typique calcule un différentiel du 2e ordre en traitement numérique, par exemple (-1,2, -1). Ajoutez une petite quantité de ce pic au signal d’entrée. Si vous coupez les dépassements, cela se réduit à une "amélioration transitoire".

Sur certains appareils numériques, la netteté d'un détartreur peut être contrôlée, par exemple dans mes récepteurs de télévision numérique par satellite. Ceci définit la bande passante des filtres polyphasés d'un scaler, qui convertit une résolution source en résolution d'affichage. La mise à l'échelle ne peut pas être parfaite, c'est toujours un compromis entre les artefacts et la netteté. Réglez-le trop net et les contournements et aliasing gênants sont visibles.

C'est peut-être la réponse la plus plausible à votre question, mais uniquement si le moniteur est en phase de mise à l'échelle. Cela ne ferait rien pour un mode 1: 1 non mis à l'échelle.

Source: 31 ans d'expérience dans le traitement du signal pour la télévision.


Cet article est correct à 100% pour les technologies analogiques telles que les tubes cathodiques. L’opérateur s’interroge sur la netteté sur un écran LCD entièrement numérique. Il pense, comme vous, que "cela ne ferait rien en mode 1: 1 non mis à l'échelle", mais en fait, il le fait. Voir ma réponse à propos du rendu sous-pixel dans les écrans LCD.
HackSlash

Je ne suis au courant d'aucun moniteur appliquant un rendu sous-pixel, sauf peut-être un écran portable Pentile. Il est généralement effectué par le logiciel de rendu de police ClearView sur le PC.
StessenJ

1
Cette thèse de doctorat traite très bien le rendu des sous-pixels, au chapitre 3: pure.tue.nl/ws/files/1861238/200612229.pdf . Le rendu essentiellement subpixel traite d'une erreur de convergence des couleurs de +/- 1/3 pixel. Les CRT n'en ont pas besoin, cela se fait implicitement par le masque d'ombre (échantillonnage).
StessenJ

Dans cet article, le processus d'assemblage de sous-pixels en un "pixel" cohérent est appelé "reconstruction spatiale". Ils appellent le "pixel" une "ouverture" lorsqu'ils parlent de la combinaison des sous-pixels. Les sous-pixels sont des luminophores de couleur et sont clairement indiqués à la page 28. Ces luminophores ne sont pas toujours utilisés comme un ensemble clair. Vous pouvez utiliser le phosphore rouge d'un jeu ou de tout jeu adjacent en fonction de la "netteté" des lignes.
HackSlash

5

Cela n'a pas de sens. Ou du moins, ce n'est pas le cas sur la plupart des moniteurs LCD. Vous voudrez presque toujours régler votre "netteté" sur 0, en fonction du moniteur ou du téléviseur (certains flouent le signal à 0, le réglage réel non filtré peut donc se situer quelque part au milieu), sinon un filtre de renforcement des contours sera appliqué . , ce qui rend le côté plus sombre d’un bord plus foncé et le côté plus clair plus clair. Ceci est particulièrement visible sur les dessins animés et le texte. Votre kilométrage peut varier, mais je pense que cela semble mauvais dans presque tous les cas.

Il s’agit d’un filtre irréversible avec pertes que vous ne voudrez probablement pas activer. Votre ordinateur envoie des données au pixel près, aussi la "netteté" et les filtres flous sont-ils généralement indésirables.

Notez également que le filtre / réglage de "netteté" est un terme impropre. Il est impossible de rendre une image plus nette (c'est-à-dire plus détaillée), mais moins détaillée. Le seul moyen d'obtenir une image plus nette est d'utiliser une image source de définition supérieure.


5

Les paramètres de netteté existent sur les écrans LCD car les fabricants pensent que les effets numériques vont vendre plus d'écrans et de téléviseurs. Plutôt que de représenter fidèlement les données de l'ordinateur, le fabricant offre à l'utilisateur la possibilité d'ajuster l'image en fonction de ses goûts personnels, même si ces goûts sont médiocres.

La "netteté" est pertinente pour les signaux analogiques (comme VGA) et pour les écrans à tube cathodique, où le signal est représenté par des formes d'onde à un moment donné. Parce que l'analogique a tendance à être imprécis, les réglages de netteté permettent l'étalonnage des tolérances et la compensation des imperfections dans la sortie d'affichage analogique et la transmission du signal.

La netteté doit être sans importance sur les écrans LCD utilisant DVI, HDMI et autres sources de données "parfaitement synchronisées" avec une résolution de résolution 1: 1. Oui, la netteté déforme l'image dans ce scénario. Les écrans des magasins Box ont souvent une netteté et d’autres filtres numériques poussés à l'extrême pour paraître plus dramatiques que les écrans environnants. Certains consommateurs souhaiteront peut-être ces effets, car ils se sont habitués aux effets des filtres ou parce qu'ils tentent de compenser un écran LCD de mauvaise qualité qui ne semble pas attrayant à la sortie. La netteté peut également être utile lors de l’utilisation d’un signal numérique qui doit être redimensionné car la source et l’affichage ont des résolutions différentes.

Dans l’ensemble, vous voudrez probablement que la netteté soit réglée sur Désactivé ou sur 0 sur un écran LCD moderne avec un signal numérique 1: 1.

http://hifi-writer.com/wpblog/?page_id=3517 et https://forums.anandtech.com/threads/why-does-an-lcd-tv-with-hdmi-input-need-a-sharpness -contrôle.2080809 /


4

De nombreux moniteurs peuvent accepter un signal vidéo qui n'a pas la même résolution que le panneau et tenter de le redimensionner comme il convient. Si un moniteur de 1280 pixels de large est invité à afficher une image de 1024 pixels de large et si le matériau source est constitué de bandes noires et blanches d'un pixel, l'écran affichera probablement un motif répétitif de 5 pixels. Sur une échelle de 0 à 4, le motif sera probablement 03214. Si les bandes noires et blanches dans l'original sont "significatives", les afficher comme ci-dessus peut être utile. D'autre part, le motif répétitif de 5 pixels serait une distraction qui n'est pas présente dans l'original. L'ajout de flou à l'image réduirait les effets d'aliasing de la mise à l'échelle.


-1

Différents paramètres conviennent au contenu différent. Ces paramètres peuvent également être modifiés sur la source, mais moi et probablement beaucoup d’autres ne savons pas où vous pouvez modifier le paramètre de netteté sur un PC.

Il existe donc un menu facile d’accès sur le moniteur, où la netteté peut être modifiée.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.