Des applications vidéo iOS enregistrent-elles dans l'espace colorimétrique du journal?


8

Existe-t-il une application pour iPhone ou iPad qui me permettra d'enregistrer la vidéo de l'espace colorimétrique du journal? Il semble qu'avec une telle abondance d'applications de «filtre» instagram-ish, les développeurs ont probablement accès aux données brutes des capteurs. Existe-t-il des applications conçues pour l'enregistrer dans un profil de couleur plat pour la notation de post-production?

Réponses:


3

Cet article d'annonce daté du 11 janvier 2017 indique qu'il y aura une mise à niveau vers l'application FiLMiC Pro qui pourra accueillir ce que vous recherchez. Notez que la page Web du FiLMic Pro App Store indique que la dernière version est le 23/12/2016 - Je ne sais pas quand la mise à jour dont parle l'article sera disponible:

La prochaine mise à jour introduira un nouveau mode d'enregistrement qui permettra aux réalisateurs de filmer des vidéos avec un profil d'image plat contenant des arrêts supplémentaires de plage dynamique.

Consultez également le site Web de FiLMic - je n'ai trouvé aucun détail, mais j'ai été intéressé de lire qu'ils l'ont développé avec le langage Swift d' Apple .

Il est à noter qu'ils ont apparemment publié une version bêta pour les tests et la démonstration de la capture LOG. Comparez en particulier la zone sombre du tableau de bord dans le coin inférieur gauche de cet exemple de vidéo source par rapport au même métrage après le classement avec DaVinci Resolve de BlackMagic Design . Avis de non-responsabilité - ces vidéos sont extraites de l'article et la qualité de l'étalonnage des couleurs par rapport à la compression youtube et celle-ci est relative. De plus, à titre d'exemple de détails supplémentaires, la prise de vue de cette manière peut permettre, notez dans le troisième plan, les détails d'ombre du chapeau avant et après.

Vous n'avez probablement pas besoin de ces informations, mais voici un article récent qui fournit un aperçu décent de ce que signifie prendre des photos dans l'espace colorimétrique du journal ou enregistrer un «profil de couleur plat». En outre, quelques questions et réponses VideoSE relatives aux considérations de prise de vue.


Je savais que ce ne serait qu'une question de temps après qu'Apple ait commencé à pousser "la couleur large". Espérons que plus d'options ne seront pas loin derrière. Merci aussi pour les liens utiles. Il y a des trucs intéressants là-dedans.
Jason Conrad

@JasonConrad quelques informations supplémentaires sur Apple et les profils de couleur dans ce fil récent: apple.stackexchange.com/a/272068/216401
M. Kennedy

0

Comment je comprends de cette question " Quel espace colorimétrique les appareils iOS sont utilisés? " IOS n'a qu'un seul espace colorimétrique accessible.

Selon cela , même les photos RAW d'iOS ne sont pas vraiment RAW.


1
Dans le premier lien, ils parlent de l'espace colorimétrique de l'écran de l'iPhone, pas de l'espace colorimétrique de son appareil photo. Dans la deuxième partie, je ne cherche pas vraiment de RAW, je cherche du log. Je ne suis pas totalement sûr que, simplement parce que les développeurs ne semblent pas être capables de produire des images fixes RAW, qu'ils ne pourraient pas produire de vidéo de journal, s'ils essayaient. Vous avez peut-être raison, mais j'aurais besoin d'un peu plus d'explications dans votre réponse avant de voter.
Jason Conrad

0

L'écran et la caméra de l'iPhone sont déjà dans des espaces colorimétriques logarithmiques. Je pense que vous posez des questions sur l'espace colorimétrique linéaire.

Je doute fort qu'Apple autorise un accès direct au matériel de l'appareil photo. Je n'ai vu aucune application qui en avait besoin.

Mais même si vous le pouviez, vous constateriez que la conversion en sRGB / BT.709 se fait dans le matériel de l'appareil photo, tout comme la compression. Et même si vous pouviez accéder au capteur brut, vous trouveriez les données bruyantes et peu maniables.

Donc non. Désolé.

Ajouté : voir: https://developer.apple.com/library/ios/documentation/AVFoundation/Reference/AVCaptureDevice_Class/index.html#//apple_ref/occ/cl/AVCaptureDevice


1
Non, je pose des questions sur l'espace colorimétrique du journal. Comme Canon C-log, Sony S-log ou BMD Film. Un tiers a-t-il développé sa propre saveur? Je sais qu'Apple ne l'a pas fait, ou je ne demanderais pas. Et vous avez tort que la caméra et l'affichage soient enregistrés. Ils sont plus proches du sRGB. Encore une fois, s'ils étaient enregistrés, je ne demanderais pas.
Jason Conrad

Ce que vous demandez, c'est l'EOTF (gamma, PQ, HLG) et non l'espace colorimétrique. Mais la réponse est la même. Le gamma défini dans BT.709 n'est pas idéal pour les professionnels, mais nous y sommes coincés.
Michael Steinberg

Qu'est-ce que ce lien est censé me montrer exactement? Il n'y a aucune mention d'espace colorimétrique, gamma, EOTF, PQ, HLG, BT.709 ou toute autre terminologie que vous avez utilisée. Je soupçonne que vos informations sont incorrectes. Veuillez citer vos réclamations.
Jason Conrad

@JasonConrad - le lien indique simplement ce que iOS met à la disposition des développeurs pour interagir avec la caméra. C'est extrêmement limité.
AJ Henderson

Je ne suis pas programmeur, mais il semble que certaines de ces variables permettent l'enregistrement vidéo à plage dynamique élevée, en particulier, ajuste automatiquementVideoHDREnabled et videoHDREnabled. Si le capteur peut imager une grande latitude et que l'OS a des variables qui le reconnaissent, il semble que ce soit une simple transformation mathématique des données. Je cherche une réponse faisant autorité. Si la réponse est «non, pas possible», c'est bien, mais une telle réponse devrait inclure suffisamment d'expertise et d'explication pour répondre réellement à la question, pas seulement me diriger vers un site de développeur obscur.
Jason Conrad

0

L'enregistrement True Log n'est pas possible dans iOS jusqu'à la date. Il n'y a pas d'accès aux données brutes du capteur lorsqu'il s'agit de filmer une vidéo sur iOS. RAW n'est possible que lorsque vous cliquez sur une image, pas sur une vidéo. J'espère que l'iPhone a été assez rapide pour traiter 30 images RAW par seconde mais pour l'instant il ne peut pas en gérer plus de 3 par seconde. J'espère que iOS 12.0 offre aux développeurs un meilleur accès au capteur pour filmer de vraies vidéos LOG, c'est-à-dire lorsque les développeurs peuvent appliquer la courbe gamma de leur choix lors de la conversion A2D dans le filtre matriciel Bayer.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.