Quel est le fonctionnement de base de la caméra à champ lumineux Lytro?


22

lytro.com décrit leur nouvelle caméra de champ lumineux comme étant capable de capturer l'intégralité du champ lumineux, plutôt qu'un seul plan de lumière, permettant ainsi un tout nouvel ensemble de possibilités de post-traitement, y compris le réglage de la mise au point et de la perspective.

Quel type de capteur pourrait "capturer chaque faisceau de lumière dans toutes les directions à chaque instant"? Comment une information de quantité essentiellement infinie serait-elle encodée et manipulée? Y aurait-il un objectif à l'avant dans un sens traditionnel?

Voici la thèse de l'inventeur: http://www.lytro.com/renng-thesis.pdf

Quelqu'un peut-il résumer cela pour ceux d'entre nous qui connaissent les technologies traditionnelles?


2
wow la presse de ces gars vient d'être en feu aujourd'hui ...
rfusca

1
En espérant que ce soit plus que des «licornes».
Craig Walker

Après avoir vu la caméra en action il y a environ un an, c'est FREAKING AWESOME ... aucune licorne impliquée.
cabbey

Je ne sais pas comment quelqu'un va pouvoir répondre à cette question, à part l'équipe de 45 personnes qui travaille dans l'entreprise.
dpollitt

1
@dpollitt la thèse dit tout ... on dirait qu'il essaie juste de le comprendre en termes traditionnels.
cabbey

Réponses:


15

La manière la plus simple d'y penser est la suivante:

Imaginez qu'au lieu d'une caméra, vous disposiez d'une grille de 100 caméras dans une matrice 10x10. Lorsque vous tirez un coup, chacun tire en même temps. Ils auront chacun une vision légèrement différente de la chose que vous prenez en photo. Il existe des modèles mathématiques que vous pouvez utiliser pour trier le «reverse engineering» de l'image et la reconstruire de différentes manières. C'est de cela qu'il s'agit, sauf qu'au lieu de 100 caméras, vous en avez des milliers, et elles sont toutes formées par un ensemble d'objectifs juste au-dessus du plan du capteur. Ainsi, l'image qui sort du capteur de la caméra a un tas de cercles d'images partielles qui diffèrent légèrement de celles à côté d'eux. Ils utilisent ensuite les mathématiques pour réassembler une seule image à partir de ces images partielles.


Voilà un bon résumé de leur explication "effet". J'espère en un mot sur la mise en œuvre. Que détecte le capteur, tous les faisceaux / directions / moments? Comment un tel ensemble infini d'attributions serait-il codé numériquement?
Chris Noe

Il y a plusieurs exemples dans sa thèse de ce que le capteur réel capture. Voir les figures 3.3, 3.5, 3.7, 4.11-B, etc.
cabbey

11

Voici ma coquille après avoir lu le papier très accessible de Ren Ng.

Dans un appareil photo numérique traditionnel, la lumière entrante est focalisée sur un plan, le capteur, qui mesure la luminosité à chaque cellule photosensible, pixel. Cela produit une image finale dans le sens où le raster de valeurs résultant peut être tracé comme une image cohérente.

Une caméra à champ lumineux ( Plénoptique ) utilise le même type de capteur, mais place un réseau de microlentilles devant le capteur. Cela devient le plan d'imagerie et définit la résolution en pixels des images post-traitées plutôt que le capteur dans son ensemble. Chaque microlentille capte les rayons lumineux pour les différentes directions, produisant une "image de sous-ouverture" qui est enregistrée sur un groupe de cellules sur le capteur. Un diagramme utile de l'article:

entrez la description de l'image ici

La photographie conventionnelle qui se serait formée peut être dérivée en additionnant le réseau d'images de sous-ouverture pour chaque pixel. Mais le fait est que les dérivations deviennent possibles grâce à l'utilisation de calculs de lancer de rayons. (Leonardo de Vinci serait envieux.) En particulier, la profondeur de champ peut être manipulée, découplant ainsi l'ouverture / la profondeur traditionnelle des manilles de champ. La correction d'aberration de l'objectif peut également être possible.

Le papier caractérise que le champ lumineux "total", et "toutes" les directions de la lumière, peuvent être capturés, alors qu'en réalité cela serait limité par le nombre de microlentilles, le capteur immobilier sous chacune d'elles, etc. sinon, si une résolution suffisante peut être jetée, on pourrait dire «pratiquement tout». Je suppose donc que les caméras Plénoptiques annonceraient le nombre de pixels ET le nombre de rayons.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.