Je me bats avec le concept de matrice de covariance. Maintenant, ma compréhension de , , et qu'ils décrivent l'incertitude. Par exemple, pour , il décrit l'incertitude de la valeur de x. Maintenant, ma question sur le reste des sigmas, que représentent-ils? Qu'est-ce que cela signifie si ce sont des zéros? Je peux interpréter que si est nul, cela signifie que je n'ai pas d'incertitude sur la valeur de x. σ x x σ y y σ θ θ σ x x σ x x
Remarque, je lis les principes du mouvement du robot - Théorie, algorithmes et implémentations par Howie Choset et. al., qui déclare que
Par cette définition, est identique à la variance de . Pour , si , alors et sont indépendants l'un de l'autre. σ 2 i X i i ≠ j σ i j = 0 X i X j
Cela peut répondre à ma question si le reste des sigmas sont des zéros cependant, je suis toujours confus quant à la relation entre ces variables, par exemple et . Quand cela se produit-il? Je veux dire la corrélation entre eux. Ou en d'autres termes, puis-je supposer qu'il s'agit de zéros?
Un autre livre à savoir FastSLAM: A Scalable Method ... de Michael et Sebastian qui déclare
Les éléments hors diagonale de la matrice de covariance de cette gaussienne multivariée codent les corrélations entre les paires de variables d'état.
Ils ne mentionnent pas quand la corrélation pourrait se produire et qu'est-ce que cela signifie?