(Meta: Je ne connais pas d'endroit approprié pour cela sur Stack Exchange. Il ne semble pas y avoir de groupes liés à la technologie de conduite autonome et aux systèmes de vision / perception 3D par ordinateur.)
Pour les véhicules autonomes utilisant le LIDAR à perception de profondeur 3D sur une autoroute avec des centaines d'autres véhicules utilisant également divers autres scanners d'émission à faisceau de balayage LIDAR ou à champ ponctuel (style kinect), comment est-il capable de distinguer ses propres retours de signaux, du balayage étant fait par les autres systèmes?
Pour une autoroute à plusieurs voies extrêmement grande ou des intersections multivoies complexes, de telles émissions peuvent être vues dans toutes les directions, couvrant toutes les surfaces, et il n'y a aucun moyen d'éviter de détecter les émissions de faisceaux provenant d'autres scanners.
Cela semble être le principal obstacle technique à la mise en œuvre du LIDAR pour les véhicules à conduite autonome. Peu importe qu'il fonctionne parfaitement s'il s'agit du seul véhicule sur la route utilisant le LIDAR.
La vraie question est de savoir comment gérer l'inondation de signaux parasites provenant de systèmes similaires dans un scénario futur où le LIDAR est présent sur chaque véhicule, potentiellement avec plusieurs scanners par véhicule et balayant dans toutes les directions autour de chaque véhicule.
Est-il capable de fonctionner normalement, peut-il en quelque sorte distinguer sa propre analyse et en rejeter d'autres, ou dans le pire des cas peut-il échouer complètement et simplement signaler des données inutiles, et il ne sait pas qu'il rapporte des données inutiles?
Cela semble au moins être un argument solide pour avoir une vision par ordinateur 3D passive qui repose uniquement sur la lumière naturelle et l'intégration de la profondeur de la caméra stéréo, comme cela se fait dans le cerveau humain.