J'essaie de comprendre les capteurs d'orientation Android depuis un moment. Je pensais l'avoir compris. Puis j'ai réalisé que non. Maintenant, je pense (j'espère) que j'ai à nouveau un meilleur sentiment mais je ne suis toujours pas à 100%. J'essaierai d'expliquer ma compréhension inégale de celui-ci et j'espère que les gens pourront me corriger si je me trompe dans certaines parties ou remplir des blancs.
J'imagine que je me tiens à 0 degrés de longitude (méridien principal) et à 0 degrés de latitude (équateur). Cet endroit est en fait dans la mer au large des côtes de l'Afrique, mais soyez indulgents avec moi. Je tiens mon téléphone devant mon visage de sorte que le bas du téléphone pointe vers mes pieds; Je suis face au nord (regardant vers Greenwich), donc le côté droit du téléphone pointe vers l'est vers l'Afrique. Dans cette orientation (en référence au diagramme ci-dessous), j'ai l'axe X pointant vers l'est, l'axe Z pointe vers le sud et l'axe Y vers le ciel.
Désormais, les capteurs du téléphone vous permettent de déterminer l'orientation (et non l'emplacement) de l'appareil dans cette situation. Cette partie m'a toujours dérouté, probablement parce que je voulais comprendre comment quelque chose fonctionnait avant d'accepter que cela fonctionnait. Il semble que le téléphone détermine son orientation en utilisant une combinaison de deux techniques différentes.
Avant d'en arriver là, imaginez être de retour sur ce terrain imaginaire à 0 degré de latitude et de longitude dans la direction mentionnée ci-dessus. Imaginez aussi que vous avez les yeux bandés et que vos chaussures sont fixées à un rond-point de l'aire de jeux. Si quelqu'un vous pousse dans le dos, vous tomberez en avant (vers le nord) et étirez les deux mains pour interrompre votre chute. De même, si quelqu'un vous pousse l'épaule gauche, vous tomberez sur votre main droite. Votre oreille interne dispose de "capteurs gravitationnels" (clip youtube) qui vous permettent de détecter si vous tombez en avant / arrière, ou si vous tombez à gauche / droite ou si vous tombez (ou vers le haut !!). Par conséquent, les humains peuvent détecter l'alignement et la rotation autour des mêmes axes X et Z que le téléphone.
Imaginez maintenant que quelqu'un vous fasse pivoter de 90 degrés sur le rond-point pour que vous soyez maintenant face à l'Est. Vous faites pivoter autour de l'axe Y. Cet axe est différent car nous ne pouvons pas le détecter biologiquement. Nous savons que nous sommes inclinés d'un certain montant, mais nous ne connaissons pas la direction par rapport au pôle Nord magnétique de la planète. Au lieu de cela, nous devons utiliser un outil externe ... une boussole magnétique. Cela nous permet de déterminer dans quelle direction nous sommes confrontés. La même chose est vraie avec notre téléphone.
Maintenant, le téléphone dispose également d'un accéléromètre à 3 axes. Je n'ai pasidée de la façon dont ils fonctionnent réellement, mais la façon dont je la visualise est d'imaginer la gravité comme une «pluie» constante et uniforme tombant du ciel et d'imaginer les axes de la figure ci-dessus comme des tubes qui peuvent détecter la quantité de pluie qui coule à travers. Lorsque le téléphone est tenu à la verticale, toute la pluie s'écoule à travers le «tube» en Y. Si le téléphone est progressivement tourné de sorte que son écran soit tourné vers le ciel, la quantité de pluie qui coule à travers Y diminuera à zéro tandis que le volume à travers Z augmentera régulièrement jusqu'à ce que la quantité maximale de pluie coule à travers. De même, si nous inclinons maintenant le téléphone sur le côté, le tube X recueillera finalement la quantité maximale de pluie. Par conséquent, en fonction de l'orientation du téléphone en mesurant la quantité de pluie qui coule à travers les 3 tubes, vous pouvez calculer l'orientation.
Le téléphone dispose également d'une boussole électronique qui se comporte comme une boussole normale - son «aiguille virtuelle» pointe vers le nord magnétique. Android fusionne les informations de ces deux capteurs de sorte que chaque fois qu'un SensorEvent
de TYPE_ORIENTATION
est généré, le values[3]
tableau a des
valeurs [0]: Azimut - (le cap de la boussole à l'est du nord magnétique)
valeurs [1]: Pitch, rotation autour de l'axe x (est le téléphone penché en avant ou en arrière)
valeurs [2]: Roulement, rotation autour de l'axe y (le téléphone se penche-t-il sur son côté gauche ou droit)
Je pense donc (c'est-à-dire que je ne sais pas) que la raison pour laquelle Android donne l'azimut (relèvement au compas) plutôt que la lecture du troisième accéléromètre est que le relèvement au compas est simplement plus utile. Je ne sais pas pourquoi ils ont désapprouvé ce type de capteur car il semble maintenant que vous deviez enregistrer un auditeur auprès du système pour les SensorEvent
s de type TYPE_MAGNETIC_FIELD
. Le value[]
tableau de l'événement doit être passé dans la SensorManger.getRotationMatrix(..)
méthode pour obtenir une matrice de rotation (voir ci-dessous) qui est ensuite passée dans la SensorManager.getOrientation(..)
méthode. Quelqu'un sait-il pourquoi l'équipe Android est obsolète Sensor.TYPE_ORIENTATION
? Est-ce une question d'efficacité? C'est ce qu'implique l'un des commentaires d'une question similaire, mais vous devez tout de même enregistrer un type d'auditeur différent dans ledevelopment / samples / Compass / src / com / example / android / compass / CompassActivity.java exemple.
Je voudrais maintenant parler de la matrice de rotation. (C'est là que je suis le plus incertain) Donc, ci-dessus, nous avons les trois chiffres de la documentation Android, nous les appellerons A, B et C.
A = SensorManger.getRotationMatrix (..) figure de la méthode et représente le système de coordonnées du monde
B = système de coordonnées utilisé par l'API SensorEvent.
C = Figure de la méthode SensorManager.getOrientation (..)
Donc, je crois comprendre que A représente le "système de coordonnées du monde" qui, je suppose, se réfère à la façon dont les emplacements sur la planète sont donnés sous forme de couple (latitude, longitude) avec une (altitude) facultative. X est la coordonnée «est» , Y est la coordonnée «nord» . Z pointe vers le ciel et représente l'altitude.
Le système de coordonnées téléphoniques est représenté sur la figure B est fixe. Son axe Y indique toujours le haut. La matrice de rotation est constamment calculée par le téléphone et permet la cartographie entre les deux. Alors ai-je raison de penser que la matrice de rotation transforme le système de coordonnées de B en C? Ainsi, lorsque vous appelez la SensorManager.getOrientation(..)
méthode, vous utilisez le values[]
tableau avec des valeurs qui correspondent à la figure C.Lorsque le téléphone est pointé vers le ciel, la matrice de rotation est une matrice d'identité (l'équivalent mathématique de la matrice de 1), ce qui signifie qu'aucun mappage n'est nécessaire car l'appareil est aligné avec le système de coordonnées du monde.
D'accord. Je pense que je ferais mieux d'arrêter maintenant. Comme je l'ai déjà dit, j'espère que les gens me diront où j'ai gâché ou aidé les gens (ou encore plus confondu les gens!)