Qu'est-ce que la profondeur inverse (en odométrie) et pourquoi devrais-je l'utiliser?


14

En lisant certains articles sur l'odométrie visuelle, beaucoup utilisent la profondeur inverse. Est-ce seulement l'inverse mathématique de la profondeur (signifiant 1 / d) ou représente-t-il autre chose. Et quels sont les avantages de l'utiliser?

Réponses:


12

Des caractéristiques comme le soleil et les nuages ​​et d'autres choses très éloignées auraient une estimation de distance inf. Cela peut causer beaucoup de problèmes. Pour le contourner, l'inverse de la distance est estimé. Tous les infs deviennent des zéros qui ont tendance à causer moins de problèmes.


1
ne comprends pas très bien, si j'utilise un appareil kinect, les valeurs de sortie pour une zone non valide sont définies en interne sur 0 , soit en raison de trop près ou trop loin ou de réflexion ou de disparité. Est-ce que ça a quelque chose? à voir avec la profondeur inverse?
zhangxaochen

@zhangxaochen La paramétrisation de la profondeur inverse est largement utilisée dans SLAM monoculaire et elle aide à estimer la profondeur du point 3D. Kinect donne des informations 3D ou la profondeur du point. Je ne pense pas qu'il y aura un grand besoin d'utiliser la profondeur inverse dans Kinect.
nbsrujan

8

Le paramétrage de profondeur inverse représente la distance d'un point de repère, d, de la caméra exactement comme il est dit, proportionnelle à 1 / d dans l'algorithme d'estimation. Le raisonnement derrière l'approche est que les approches de filtrage telles que le filtre de Kalman étendu (EKF) supposent que l'erreur associée aux caractéristiques est gaussienne.

Dans un cadre d'odométrie visuelle, la profondeur d'un point de repère est estimée en suivant les caractéristiques associées sur certaines séries de trames, puis en utilisant la parallaxe induite. Cependant, pour les caractéristiques éloignées (par rapport au déplacement de la caméra), la parallaxe résultante sera petite et, surtout, la distribution d'erreur associée à la profondeur est fortement culminée près de la profondeur minimale avec une longue queue (c'est-à-dire qu'elle n'est pas bien modélisée via un Distribution gaussienne). Pour voir un exemple, veuillez vous référer à la figure 7 de l'article de Civera et al. (Mentionné par @freakpatrol), ou à la figure 4 de Fallon et al. ICRA 2012 .

En représentant la profondeur inverse (ie 1 / d) cette erreur devient gaussienne. De plus, il permet de représenter des points très éloignés, par exemple des points à l'infini.

L'aspect important de la représentation utilisée est le papier de Civera est expliqué dans la section II B de son papier (voir l'équation (3)). Ici, un point de repère est représenté par rapport à la pose (position et orientation) de la première caméra à partir de laquelle il est vu. Cette pose est capturée dans les cinq premiers paramètres de l'équation (3), tandis que le sixième paramètre, , représente la profondeur inverse. L'équation (4) fournit une expression pour récupérer la position mondiale du point (c'est-à-dire celle où la profondeur inverse est convertie en profondeur comme )ρje1/ρje


Le lien ICRA 2012 est rompu.
T ....

3

L'article de Davison présentant la méthode est assez facile à comprendre:

Paramétrage de la profondeur inverse pour SLAM monoculaire par Javier Civera, Andrew J. Davison et JM Martınez Montiel DOI: 10.1109 / TRO.2008.2003276


3
Assurez-vous d'ajouter une sorte de bref résumé à votre réponse. Cela ne répond pas vraiment à la question de l'utilisateur, il se contente de créer un lien vers un document, et ce document peut ne pas être disponible sur ce lien plus tard!
Brian Lynch

En outre, c'est une bonne idée de mentionner le titre du document, et idéalement un DOI, car cela signifie qu'il sera plus facile de le trouver à l'avenir, si cette URL spécifique meurt.
Mark Booth

0

En plus des raisons mentionnées dans d'autres réponses sur le conditionnement numérique de la profondeur inverse, une raison majeure pour que ce terme apparaisse dans la littérature d'odométrie spécifiquement visuelle est dans la façon dont les profondeurs sont calculées à partir de la vision stéréo: après rectification, les informations 3D sont déduites de la distance en X entre l'endroit où un point apparaît dans les images des deux caméras.

ZZ=FBFB

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.