J'ai obtenu un ancien jeu de données vectorielles avec des polygones couvrant un continent. Les données ont d'abord été publiées sur papier à l'échelle 1: 5 000 000 et ont ensuite été numérisées. Je n'ai pas les données originales et aucune information sur la vectorisation ou les métadonnées. Je suppose que la distance entre les sommets plutôt que la précision limite la résolution.
Les sommets sont enregistrés avec une haute résolution (par exemple "nnn.nnnnnnnnn", "- nn.nnnnnnnnn"). Le jeu de données contient peu de points pouvant être géoréférencés ni aucun nœud défini comme coordonnées (par exemple à des degrés pairs ou à des coordonnées UTM). Lorsque je compare certaines sections du littoral, l'erreur peut atteindre +/- 20 km.
Je voudrais trouver une formule pour estimer l'erreur maximale en fonction de la distribution des sommets. J'ai accès à n'importe quelle application SIG mais préférerais une référence statistique robuste.
Comment puis-je calculer l'erreur maximale de l'ensemble de données, en supposant que tous les sommets sont corrects? Ou formulé différemment: quelle méthode puis-je utiliser pour trouver la plus grande résolution de l'ensemble de données?
J'ai essayé de pixelliser l'ensemble de données à différentes tailles de cellule, puis de le suréchantillonner à une petite taille de cellule pour détecter la plus petite pixellisation possible sans perte de résolution, mais c'est une approche assez longue et peu mathématique.