Augmentation de la résolution d'image


12

Je connais certains oscilloscopes ( DSA8300 ) qui échantillonnent à plusieurs reprises à quelques centaines de kS / s pour reconstruire un signal à quelques GHz. Je me demandais si cela pouvait être étendu aux signaux 2D (photographies). Puis-je prendre une série (disons 4) d'images fixes en utilisant un appareil photo commercial 16MP pour finalement reconstruire une image 32MP? Est-ce que cela supprimera l'alias que j'ai de chaque image?

Si une telle chose était tentée à partir d'une seule image, cela ne fonctionnerait évidemment pas car aucune nouvelle information n'est introduite. Si toutes les photos prises sont absolument identiques, serai-je toujours au même point que d'avoir une seule image? Les variations sont-elles donc essentielles? Le bruit CCD / CMOS est-il une variation suffisante pour qu'une telle chose fonctionne?

Y a-t-il un nom pour une telle technique ou algorithme? Que dois-je rechercher?


Le bruit CCD ne vous aiderait pas, mais le mouvement physique de la caméra le pourrait. Prendre plusieurs photos d'une scène identique avec un appareil photo identique dans une position identique ne vous permettrait que de réduire le bruit, pas le repliement. Vous mesurez toujours les mêmes points. Prendre des photos décalées de moins d'un pixel les unes des autres, cependant, vous donnerait un taux d'échantillonnage effectivement plus élevé, aidant à supprimer l'aliasing.
endolith

J'ai un Nikon DX avec une largeur de 23,6 mm et a 4928 pixels sur cette dimension. Cela représente la largeur de chaque photosite sur le capteur ~ 4,7889 microns. Dois-je donc déplacer ma caméra le long de l'axe de la largeur par des fractions de ce montant? Dites 10 photos en déplaçant mon appareil photo de 0,47 microns à chaque fois? Et la même chose en hauteur? Cela ne ressemble guère à un projet de week-end avec des moteurs pas à pas standard: '- (
Lord Loh.

Après réflexion, je me demandais, puis-je utiliser plusieurs photos à partir d'une seule photo de la caméra à champ lumineux ( Lytro ) avec différents plans focaux pour reconstruire une image en super résolution? Intuitivement, je pense que cela ne fonctionnera pas: - /
Lord Loh.

1
Non, cela dépend de la distance par rapport à la cible, de l'optique, etc. Ce sont les points que chaque pixel de la caméra voit. Si la cible est un mur couvert de bandes et que les bandes alternent plusieurs fois entre chacun de vos points de grille, vous allez avoir un alias.
endolith

Cela a maintenant du sens :-) un mouvement de 0,4 micron dans ce cas n'est pratiquement pas du tout un mouvement!
Lord Loh.

Réponses:


8

Un mot pour cette technique est superrésolution .

Robert Gawron a un article de blog ici et l' implémentation de Python ici .

Habituellement, cette technique repose sur le fait que chaque image est légèrement décalée des autres. Le seul gain que vous obtiendriez en ne bougeant pas entre les prises de vue serait de réduire le niveau de bruit.


Cela supprimera-t-il les parties aliasées de l'image? Vous aimez construire des fenêtres et des filets fins? Si chaque image est aliasée, ces informations perdues peuvent-elles toujours être récupérées?
Lord Loh.


4

N1N×N

En utilisant des méthodes d'estimation, tout mouvement qui n'est pas une multiplication entière (événement avec probabilité nulle) de la résolution du capteur, à savoir le mouvement fractionnaire, peut être utilisé pour recueillir plus de données et améliorer la résolution.

Habituellement, ces méthodes sont appelées Super Résolution, qui est un nom de fantaisie pour la représentation et l'échantillonnage de la phase poly et sont un sous-problème dans la famille des problèmes inverses dans le traitement d'image.

Cependant, faites attention au fait que de nombreux articles traitent de la super résolution mais résolvent en fait un problème différent (déconvolution de l'image unique).
Bien que le problème que vous recherchez soit également dans le domaine des problèmes inverses, vous utilisez néanmoins plusieurs images.

Je pense que la méthode que vous recherchez est principalement utilisée dans l'industrie de la lithographie.


C'est ce que j'avais pensé au départ. Que je devrais me déplacer dans une plage inférieure au micron, mais cela - mathworks.com/matlabcentral/fileexchange/… n'adopte pas une telle approche et donne une amélioration d'image décente - peut-être obtient-il des informations à partir de sites de sous-photos en se déplaçant l'appareil photo légèrement au hasard au lieu d'un mouvement de pas 1 / N systématique.
Lord Loh.

Salut, Comme je l'ai écrit, en utilisant des techniques d'estimation, tout mouvement (sauf s'il s'agit d'une multiplication entière des cellules des capteurs) pourrait être utilisé pour déduire plus de données.
Royi

1

Un autre mot est "empilement". Il est utilisé pour réduire le bruit CCD, pour augmenter la profondeur focale (en empilant des images qui sont focalisées légèrement différemment), pour améliorer les photos astronomiques à très faible luminosité et pour obtenir une plage dynamique élevée (HDR) à partir d'une série d'images à plage normale. Voir

http://en.wikipedia.org/wiki/Focus_stacking

http://www.instructables.com/id/Astrophotography-Star-Photo-Stacking

http://en.wikipedia.org/wiki/High_dynamic_range_imaging

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.