Quel est le rayon optimal de distribution gaussienne pour déterminer la couleur des pixels?


10

En utilisant une distribution gaussienne de points sur un plan d'image pour calculer une valeur de pixel, quel rayon / écart-type donnera le plus d'informations dans l'image finale? Un rayon trop grand donne une image floue, et un rayon trop petit néglige les informations plus petites qu'un pixel pour ne pas contribuer à l'image finale. Où est le compromis optimal? Y a-t-il une réponse unique à cette question ou existe-t-il des circonstances dans lesquelles elle peut varier?

Je pense à cela en relation avec le lancer de rayons, mais j'imagine que cela s'appliquera également à des choses comme la réduction de la taille d'une image. Là où les réponses seraient différentes, je m'intéresse à ce qui s'applique lors de l'échantillonnage d'un plan d'image continu, de sorte que les positions des pixels dans une image plus grande ne puissent pas être utilisées pour déterminer un rayon optimal.

Réponses:


7

Je ne suis pas sûr qu'il y ait un rayon vraiment optimal - ce sera une question subjective basée sur l'apparence de l'image. Comme vous le dites, un rayon trop grand entraîne un flou et un rayon trop petit entraîne un aliasing.

J'aime définir sigma = 0,5 px, de sorte que le rayon global soit d'environ 1,5 px (car le gaussien a la majorité de son poids à ± 3 sigma de sa moyenne). D'après mon expérience, cela donne un bon compromis entre le flou et l'aliasing, mais ce n'est que mon goût, non basé sur des considérations objectives.

Soit dit en passant, dans le cadre d' un article de blog sur l'anticrénelage que j'ai écrit l'année dernière (qui était basé sur une réponse que j'ai publiée sur l'incarnation précédente de ce site!), J'ai testé une variété de noyaux d'anticrénelage contre une image de test synthétique et je suis sorti avec 0,5 px gaussien comme favori subjectif.


Je me souviens de cette réponse la dernière fois :) (j'étais alors githubphagocyte). Intéressant de le voir développé dans un article de blog.
trichoplax

4

Imaginez que l'on rend l'image d'un sol plat avec un motif en damier noir et blanc uniforme qui s'étend jusqu'à l'horizon; les dames sont suffisamment grandes pour être clairement visibles aux points proches de la caméra, mais pas suffisamment grandes pour pouvoir être distinguées près de l'horizon.

Près de l'horizon, le sol doit simplement apparaître comme gris uniforme. Près de la caméra, les dames doivent apparaître distinctes. Entre la caméra et l'horizon, l'apparence du sol doit en quelque sorte faire la transition entre ces deux extrêmes.

Si la scène est rendue un filtre spatial qui a une coupure très mouton, il y aura une certaine distance où le sol passe du damier au gris. Si l'on utilise un filtre moins profond, la transition sera beaucoup plus progressive, mais les choses proches de la distance de coupure d'origine seront moins nettes qu'elles ne l'auraient été autrement.

Si l'on devait ajouter un "mur" ou recadrer la scène pour cacher les parties éloignées du sol, de sorte qu'il n'était pas nécessaire d'avoir des parties du sol à carreaux floutées en gris, les meilleurs résultats seraient obtenus en utilisant le plus raide filtre, donnant l'image la plus nette. L'utilisation d'un filtre moins profond abandonnerait la netteté de l'image dans le but d'empêcher une transition désagréable qui ne serait pas visible de toute façon.

Déterminer le type de filtrage à utiliser nécessite donc de connaître le contenu en fréquence spatiale des informations à afficher. Si l'image ne contient rien d'intéressant qui pourrait s'approcher de Nyquist, l'utilisation d'un filtre raide produira les résultats les plus nets. Si, cependant, le contenu de l'image dépasse Nyquist, l'utilisation d'un filtre progressif évitera les "transitions" laides. Aucune approche unique ne sera optimale dans tous les cas.


2

À mon avis et selon mon expérience, je ne pense pas qu'il existe une réponse univoque ... car, fondamentalement, dans la littérature, vous pouvez facilement trouver des exemples de filtres adaptatifs (c'est-à-dire de taille variable).

Je pense que la réponse réelle devrait être liée au contexte des applications (matériel ou logiciel, en temps réel ou non) et au type de scène que vous allez synthétiser (certaines scènes impliquent généralement différents types d'alias quand elles sont synthétisées (j'utilise ce terme général à dessein)). Fondamentalement, l'infographie est l'étude des algorithmes et de la structure des données pour la synthèse d'images, et une telle définition n'est strictement liée à aucun type d'application.

Bien sûr, un facteur important est même l'objectif à atteindre par un processus de filtrage (c'est-à-dire pas nécessaire un flou excessif pourrait être mauvais ...).

Si vous parlez de "agréable à voir", je pense que vous pourriez être d'accord avec moi quand je dis qu'il n'y a pas de mesure spécifique "d'image agréable".

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.