Pourquoi cette image satellite d'un avion en mouvement montre-t-elle des bandes rouges, vertes et bleues avec des objets étranges?


12

Je suis tombé sur cette image satellite ( http://goo.gl/Wv503u ) capturant un avion en vol au-dessus d'une ville. J'ai un peu de mal à expliquer les effets de couleur causés par le mouvement de l'avion.

Ce que j'imagine, c'est que l'image est construite en mélangeant des photos filtrées bleues, vertes et rouges prises à des moments légèrement différents. Cela semble suffisant pour créer une image en couleur et expliquerait certains artefacts chromatiques causés par des objets en mouvement.

Cependant, je remarque qu'il y a 2 bandes de rouge, vert et bleu sur les ailes qui me suggèrent un mélange de plus de 3 photos. De plus, les couleurs ne semblent pas se fondre de la même manière sur la queue. Je vois du rouge, du jaune, du magenta, du cyan et du bleu qui suggèrent soit des vitesses différentes entre les ailes et la queue (ce que je trouve impossible) ou une sorte d'effet d'obturation. De plus, je vois des contours dans le nez de l'avion et le bord d'attaque des ailes. Sont-ils causés par un filtrage imparfait des infrarouges? ou y a-t-il un composant Luma ajouté au mélange?

Que se passe-t-il? Que peut-on apprendre sur l'appareil photo?

Modifier: j'ai ajouté une capture d'écran de ce que mon navigateur affiche lorsque je clique sur ce lien avion en mouvement


2
Je les ai divisés en leurs canaux de couleur: i.stack.imgur.com/ot8VY.jpg i.stack.imgur.com/uZv0B.png i.stack.imgur.com/JFNhb.png i.stack.imgur.com /toADb.png cela ressemble beaucoup au flou de mouvement (bleu, vert, rouge est le meilleur ordre) + moments d'obturation légèrement différents pour un appareil photo 3 ccd. le reste des artefacts pourrait être expliqué avec les calculs effectués pour passer de l'espace colorimétrique XYZ à RVB.
PlasmaHH

Réponses:


9

AJ a raison ici. Ce que vous voyez est le résultat d'un flou de mouvement lorsque le satellite et l'avion sont en mouvement par rapport au sol (la cible souhaitée de la photo). Ces jolies images que vous voyez dans Google Earth et ailleurs sont le résultat d'images filtrées rouges, vertes et bleues combinées dans ce que l'on appelle une image "multispectrale" (MSI), car elle combine des images prises sur différentes bandes du spectre électromagnétique ensemble en une seule image. Habituellement, les bandes filtrées par couleur ont une résolution inférieure (pensez à 1-2 mètres GSD, la distance de l'échantillon au sol, qui est la distance entre deux centres de pixels adjacents), et les coordonnées au sol sont fournies par une échelle de gris d'une résolution inférieure au mètre (0 étant l'obscurité complète à 255 étant totalement blanc) ou image "panchromatique" (PAN). Le PAN fournit les coordonnées et les informations d'intensité relative (contraste). Ajoutez la gestion de l'élévation (habituellement un modèle d'élévation numérique ou un DEM de l'USGS si vous êtes aux États-Unis), l'orthorectification (ajustement de l'image pour qu'elle soit plate même si la Terre ne l'est pas), la projection (la Terre est ronde, essayant de mettre une section de celui-ci dans un carré au lieu d'une courbe introduit des erreurs), et l'interpolation (en raison des différences de résolution entre le PAN et le MSI pour faire l'image finale), et vous avez votre produit final. Pour vraiment vous couper le souffle, nous devons également tenir compte du nadir et de l'angle du capteur (le satellite n'est pas dirigé vers le bas, la caméra est inclinée, tout comme le Soleil par rapport à la Terre). orthorectification (ajustement de l'image pour qu'elle soit plate même si la Terre ne l'est pas), projection (la Terre est ronde, essayer d'en mettre une section dans un carré au lieu d'une courbe introduit des erreurs) et interpolation (en raison des différences de résolution entre les PAN et le MSI pour faire l'image finale), et vous avez votre produit final. Pour vraiment vous couper le souffle, nous devons également tenir compte du nadir et de l'angle du capteur (le satellite n'est pas dirigé vers le bas, la caméra est inclinée, tout comme le Soleil par rapport à la Terre). orthorectification (ajustement de l'image pour qu'elle soit plate même si la Terre ne l'est pas), projection (la Terre est ronde, essayer d'en mettre une section dans un carré au lieu d'une courbe introduit des erreurs) et interpolation (en raison des différences de résolution entre les PAN et le MSI pour faire l'image finale), et vous avez votre produit final. Pour vraiment vous couper le souffle, nous devons également tenir compte du nadir et de l'angle du capteur (le satellite n'est pas dirigé vers le bas, la caméra est inclinée, tout comme le Soleil par rapport à la Terre).

Source: 3 ans et plus d'expérience dans le logiciel d'imagerie géospatiale avec RemoteView (outil Textron Systems) et DigitalGlobe, 4 ans de mathématiques au collège (à peu près tous les cours de calcul collégial de premier cycle).


+1. Grande mise à jour avec des termes techniques et des détails pour les choses que je décrivais.
AJ Henderson

7

Ma meilleure supposition est que cela peut être lié au fonctionnement du satellite. Il peut capturer des images rouges, vertes et bleues séparément, puis les combiner. Si tel est le cas, alors deux choses se produiraient. Tout d'abord, l'avion se déplacerait entre les plans pour chaque couleur.

Deuxièmement, le satellite se déplacerait également un peu. Bien que le mouvement du satellite puisse être corrigé, le degré de correction dépendra de la distance du satellite de l'objet imagé. Étant donné que l'avion peut être jusqu'à 7 miles plus près du satellite que le sol, cette correction pourrait être annulée de manière assez significative.


2
en fait, je pense que c'est une photo aérienne et l'avion n'est pas si haut (quelques milliers de pieds) et la photo prise peut-être à environ 20kft.
PlasmaHH

1
@PlasmaHH - pourrait l'être, le même raisonnement pourrait néanmoins s'appliquer (bien que pour une caméra aérienne, je m'attendrais moins à des prises de vue séquentielles car la caméra est plus facile à entretenir).
AJ Henderson

1
D'accord - c'est probablement une photo aérienne. Jusqu'à récemment, hier, les satellites n'étaient pas autorisés à capturer des images d'une résolution supérieure à 50 cm. Cette image ressemble plus à 20 - 30, peut-être mieux.
Jakub Sisak GeoGraphics

4

En regardant l'imagerie, elle n'était pas fournie exclusivement par un satellite. Je travaille pour l'entreprise qui a construit les capteurs et les caméras pour les capteurs Digital Globe WV3 et WV4 et fait des travaux de capteur, de compensation de mouvement et d'autres travaux de conception ainsi que l'analyse de la qualité d'image pour ces capteurs. La résolution spatiale de l'image que vous avez publiée dépasse la résolution disponible sur le marché pour ces plateformes à ce moment-là. (Géré par licence et traité.)

Je crois que les artefacts que vous voyez sont des artefacts résultant d'un capteur aéroporté. Normalement, les capteurs aéroportés sont compensés en mouvement pour la transition de l'image à travers la zone du capteur et prennent en compte la vitesse au sol relative du capteur, ainsi que la direction et l'altitude au-dessus du sol. Dans ce cas, vous avez un avion sujet, qui ne se déplace pas dans la direction du sol par rapport au capteur. Par conséquent, la compensation de mouvement ne fonctionne pas si bien. Il existe également plusieurs géométries pour les réseaux de capteurs, et ils utilisent différents masques et / ou stratégies de balayage.

Généralement, les capteurs de couverture de grande surface à haute résolution sont des matrices de type balai-poussoir, similaires à certains scanners et copieurs de photos / documents. Lorsque l'objet imagé ne se déplace pas de la même manière que la cible au sol, il est sujet à des erreurs d'échantillonnage et à des artefacts comme vous l'avez observé.

En regardant cet emplacement sur Google Earth, l'imagerie a été mise à jour, je n'ai donc pas pu prendre les données d'image et reculer les artefacts pour vous dire les mouvements relatifs des objets. Cependant, compte tenu de ce que vous avez présenté et de ma connaissance des satellites et de l'imagerie satellitaire disponibles dans le commerce, je doute que les images soient spatiales.

Je travaille dans ce domaine en tant que scientifique de l'image depuis plusieurs décennies et je vous donne mon impression, mais je n'ai pas analysé les données pour effectuer une analyse plus rigoureuse, ce qui impliquerait de faire des hypothèses sur les données des éphémérides et la conception des capteurs. J'ai pris en considération le temps que vous avez publié et appliqué par la connaissance des capteurs disponibles, en particulier dans l'environnement spatial commercial.


-2

Je pense que c'est plus l'effet d'un obturateur «plan focal», un effet commun rencontré sur les appareils photo reflex lors de la photographie de cibles en mouvement. Si le mouvement du sujet est parallèle à la direction de la course de l'obturateur et que l'objet a une vitesse considérable, vous obtenez un «étirement» de l'image - quelque chose de bien visible dans les bords d'attaque de l'aile et de l'empennage.


1
Mais pourquoi les artefacts de couleur?
Veuillez lire mon profil
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.