Les écrans d'affichage connectés aux caméras sont très différents des fenêtres ou des miroirs. En regardant à travers une fenêtre ou un miroir, nous pouvons nous concentrer sur l'infini, et nous pouvons déplacer notre point de vue pour voir un peu différent. Avec un écran d'affichage montrant des images de caméra en direct, nous voyons le champ de vision à partir d'un seul point (l'emplacement de la caméra) et nous nous concentrons sur l'écran.
Serait-il possible de développer un écran + caméra dont le comportement serait beaucoup plus proche d'une fenêtre ou d'un miroir? Je pense que l'écran et la caméra devraient avoir la même surface. Les deux seraient sensibles à la direction, et lorsque le pixel de la caméra sur la caméra reçoit un photon avec une fréquence sous des angles , l'écran enverrait un photon correspondant à la fréquence de position vers la direction , où sont calculées à partir de imitant un comportement semblable à une fenêtre ou à un miroir.
Un tel appareil est-il théoriquement possible? Si oui, un tel appareil serait-il techniquement réalisable aujourd'hui? Si oui, y a-t-il eu un travail sérieux sur ces appareils? Si c'est théoriquement possible mais pas faisable aujourd'hui, que faudrait-il développer avant que de tels appareils ne se profilent à l'horizon?
Il devrait avoir un large éventail d'applications dans la téléprésence , la réalité augmentée , l'ingénierie automobile et sûrement beaucoup d'autres domaines.