Estimer la résolution des données vectorielles?


8

J'ai obtenu un ancien jeu de données vectorielles avec des polygones couvrant un continent. Les données ont d'abord été publiées sur papier à l'échelle 1: 5 000 000 et ont ensuite été numérisées. Je n'ai pas les données originales et aucune information sur la vectorisation ou les métadonnées. Je suppose que la distance entre les sommets plutôt que la précision limite la résolution.

Les sommets sont enregistrés avec une haute résolution (par exemple "nnn.nnnnnnnnn", "- nn.nnnnnnnnn"). Le jeu de données contient peu de points pouvant être géoréférencés ni aucun nœud défini comme coordonnées (par exemple à des degrés pairs ou à des coordonnées UTM). Lorsque je compare certaines sections du littoral, l'erreur peut atteindre +/- 20 km.

Je voudrais trouver une formule pour estimer l'erreur maximale en fonction de la distribution des sommets. J'ai accès à n'importe quelle application SIG mais préférerais une référence statistique robuste.

Comment puis-je calculer l'erreur maximale de l'ensemble de données, en supposant que tous les sommets sont corrects? Ou formulé différemment: quelle méthode puis-je utiliser pour trouver la plus grande résolution de l'ensemble de données?

J'ai essayé de pixelliser l'ensemble de données à différentes tailles de cellule, puis de le suréchantillonner à une petite taille de cellule pour détecter la plus petite pixellisation possible sans perte de résolution, mais c'est une approche assez longue et peu mathématique.


Je dirais qu'au moins les sommets ne peuvent être précis qu'à 0,1 mm sur le papier ce qui signifie 500 m à l'échelle 1: 500000. Au-dessus de cela, il peut être très difficile de dire quel est l'effet de la simplification et d'autres facteurs, surtout si la carte d'origine a été dessinée à la main.
user30184

Oui, ce serait le meilleur scénario. Malheureusement, je pense que ma résolution utile est beaucoup plus faible car les polygones ont des sommets plutôt clairsemés et semblent plus anguleux que je ne m'y attendais de données naturelles, par exemple météorologiques. Je n'ai pas non plus accès aux cartes originales, je dois le mentionner.
Tactopoda

1
@ user30184 0,1 mm est assez optimiste, je préfère attendre 0,3 mm
radouxju

Et ce blog considère 1 mm comme la plus petite taille détectable blogs.esri.com/esri/arcgis/2010/12/12/… . Cela signifierait 5000 m à l'échelle 1: 5000000 (j'ai laissé tomber un zéro de mon commentaire ci-dessus lors de l'écriture).
user30184

Réponses:


2

Grande question - J'ai vu ce type de question apparaître plusieurs fois et, malheureusement, de nombreuses personnes effectuant une analyse SIG quantitative ignorent la composante CRITIQUE du calcul de l' incertitude dans les ensembles de données spatiales. Il y a des concepts et une terminologie importants qui doivent être clarifiés avant que ce type de tâche puisse se résumer à des résultats quantitatifs.

Le calcul d'une erreur dans un ensemble de données spatiales suppose une connaissance préalable de la lignée des ensembles de données. Comme les métadonnées ne sont disponibles à aucune étape du processus, ce type de quantification n'est pas possible. La précision des coordonnées dans un ensemble de données vectorielles ne garantit pas que l'ensemble de données est précis à quelque degré que ce soit. La pixellisation d'un ensemble de données héritera de son propre degré d'erreur et d'incertitude dans les données.

Sans les métadonnées et le calcul continu de l'erreur et de l'incertitude, l'ensemble de données peut être considéré comme une jolie image. Bien qu'il puisse sembler un processus simple d'utiliser l'échelle de la carte d'origine et la nature précise des coordonnées du polygone vectoriel, les concepts fondamentaux de la géographie seront violés si l'erreur et l'incertitude ne sont pas calculées à chaque étape de la création de l'ensemble de données à partir de:

  1. capture originale de l'ensemble de données (erreur et incertitude introduites)
  2. création de cartes papier (des généralisations sont faites)
  3. numérisation de la carte papier en fichier vectoriel numérique (plus d'erreur, plus d'incertitude)

Bien que ce ne soit pas la réponse que vous recherchez, c'est un bon point de départ pour toute personne dans une situation similaire:

  • Si vous êtes chargé de calculer une représentation quantitativement précise de l'incertitude d'un modèle spatial, je suggère de rechercher le sujet «Incertitude et propagation des erreurs dans les données spatiales» car le sujet est approfondi, mathématique et statistiquement dense.

  • Si vous utilisez l'ensemble de données comme une jolie image, commencez alors le mappage.


0

Je suis d'accord avec Alex, comme aucune métadonnée n'est disponible et que la lignée de données n'est pas connue, il est difficile d'évaluer l'erreur. L'erreur doit être quantifiée à un emplacement précis et connu s'il existe dans les limites de l'ensemble de données.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.