Quelles sont certaines tactiques pour reconnaître les médias fabriqués artificiellement?


12

Avec la capacité croissante de créer à moindre coût de fausses images, de fausses extraits sonores et de fausses vidéos, il devient de plus en plus difficile de reconnaître ce qui est réel et ce qui ne l'est pas. Même maintenant, nous voyons un certain nombre d'exemples d'applications qui créent de faux médias à peu de frais (voir Deepfake , FaceApp , etc.).

Évidemment, si ces applications sont mal utilisées, elles pourraient être utilisées pour ternir l'image d'une autre personne. Deepfake pourrait être utilisé pour rendre une personne infidèle à son partenaire. Une autre application pourrait être utilisée pour donner l'impression qu'un politicien a dit quelque chose de controversé.

Quelles techniques peuvent être utilisées pour reconnaître et protéger contre les supports fabriqués artificiellement?

Réponses:


2

Le domaine Digital Media Forensics (DMF) vise à développer des technologies pour l'évaluation automatisée de l'intégrité d'une image ou d'une vidéo, donc DMF est le domaine que vous recherchez. Il existe plusieurs approches dans le DMF: par exemple, celles basées sur les techniques d'apprentissage automatique (ML), en particulier les réseaux de neurones convolutifs (CNN).

Par exemple, dans l'article Deepfake Video Detection Using Recurrent Neural Networks (2018), David Güera et Edward J.Delp proposent une analyse en deux étapes composée d'un CNN pour extraire des caractéristiques au niveau de la trame suivie d'un RNN temporellement conscient pour capturer incohérences temporelles entre les trames introduites par l'outil deepfake. Plus précisément, ils utilisent une architecture LSTM convolutive (CNN combinée à un LSTM), qui est formée de bout en bout, afin que le CNN apprenne les fonctionnalités des vidéos, qui sont transmises au RNN, qui tente de prédire la probabilité de ces fonctionnalités appartenant à une fausse vidéo ou non. La section 3 explique la création de vidéos deepfake, ce qui conduit à des incohérences entre les images vidéo (qui sont exploités dans la méthode proposée) en raison de l'utilisation d'images avec différentes conditions de visualisation et d'éclairage.

D'autres travaux similaires ont été proposés. Voir cette liste organisée https://github.com/aerophile/awesome-deepfakes pour plus d'articles connexes.


1

Je pense que le contexte est important ici. Utiliser des tactiques comme celles utilisées par Scotland Yard depuis plus d'un siècle est probablement la meilleure façon. Établir des alibis, des lignes de temps réalistes, des motifs. Pour un cadre juridique, il serait possible de prouver que ces images étaient fausses en utilisant des méthodes comme celle-ci. D'un point de vue informatique, il peut être possible de déterminer l'origine de ces images. Si des milliers d'images en double proviennent d'une seule origine, alors toutes les images de cette origine sont suspectes.

Je pense qu'en général, nous devons nous recycler pour ne pas croire tout ce que nous voyons. Il existe tellement de méthodes pour truquer des images que la photographie ne peut plus être considérée comme la meilleure preuve d'un événement. Nous ne devons pas ignorer toutes les images, mais plutôt rechercher une concordance extérieure des faits avant de tirer des conclusions. Si tous les faits indiquent qu'un événement se produit, alors cette photographie est susceptible d'être réelle.


0

En supposant que les artefacts et les éléments artificiels n'existent pas dans les médias en question et que les médias ne peuvent pas être distingués à l'œil humain, la seule façon de le faire est de remonter à la source des images.

Une analogie peut être établie avec l'attaque DoS (Denial of Service), où un nombre absurde de demandes sont envoyées d'une seule IP à un seul serveur, ce qui provoque son plantage - Une solution courante est un pot de miel, où un grand nombre de demandes provenant d'une seule L'IP est redirigé vers un serveur leurre où, même en cas de panne, la disponibilité n'est pas compromise. Des recherches ont été effectuées sur ces lignes où ce document parlait de vérifier la signature numérique d'une image ou celle-ci où ils proposaient une détection d'image falsifiée et une identification par caméra source.

Une fois remonté à une source, si un nombre absurde d'images potentiellement fausses provient d'une source singulière, il faut le questionner.

La peur commune survient lorsque nous traitons quelque chose, sur la base de l'analogie, comme une attaque DDoS (déni de service distribué) où chaque fausse demande provient d'une source distribuée - Network Security a trouvé des moyens de gérer cela, mais la sécurité et la détection de fraude en termes d'IA n'est tout simplement pas établie.

Essentiellement, pour un média artificiel bien pensé à des fins malveillantes spécifiques, il est aujourd'hui assez difficile d'être détecté - mais des travaux sont en cours sur la sécurité dans l'IA. Si vous prévoyez d'utiliser des supports artificiels à des fins malveillantes, je dirais que c'est probablement le meilleur moment.

Cette sécurité est un sujet de préoccupation depuis un petit moment maintenant. Un article écrit par un data scientist cite

Les Deepfakes ont déjà été utilisés pour tenter de harceler et d'humilier les femmes à travers de fausses vidéos porno. Le terme vient en fait du nom d'utilisateur d'un utilisateur de Reddit qui a créé ces vidéos en créant des réseaux contradictoires génératifs (GAN) à l'aide de TensorFlow. Maintenant, les responsables du renseignement parlent de la possibilité que Vladimir Poutine utilise de fausses vidéos pour influencer les élections présidentielles de 2020. Des recherches supplémentaires sont en cours sur les deepfakes en tant que menace pour la démocratie et la sécurité nationale, ainsi que sur la manière de les détecter.

Remarque - Je n'ai aucune idée de la sécurité du réseau, toutes mes connaissances proviennent d'une conversation avec un ami et j'ai pensé que ce serait une bonne analogie à utiliser ici. Pardonnez toute erreur dans l'analogie et corrigez-la si possible!


Ce serait bien si vous pouviez faire des recherches et fournir un lien vers au moins 1 travail / document de recherche basé sur quelque chose dans ce sens (c'est-à-dire qui exploite la source des vidéos potentiellement fausses).
nbro

Hormis les articles qui parlent des méfaits potentiels et ceux qui tentent généralement de détecter les artefacts, moins d'articles font ce qui est indiqué dans la réponse comme celui-ci ou celui-ci - Comme dit, aucune recherche approfondie n'a été effectuée sur ces lignes, mais c'est en cours d'exploration. J'espère que ces liens vous ont aidé!
ashenoy

-1

Les techniques que vous mentionnez utilisent des GAN. L'idée clé des GAN est que vous avez un générateur et un discriminateur. Le générateur génère un nouveau contenu, le discriminateur doit dire si le contenu provient des données réelles ou s'il a été généré.

Le discriminateur est beaucoup plus puissant. Il ne devrait pas être trop difficile de former un discriminateur pour détecter les contrefaçons. La formation d'un modèle capable d'identifier la manipulation et la compréhension de cela est une preuve de manipulation plus difficile. Il est impossible d'obtenir la preuve que quelque chose n'est pas manipulé.

À propos de la question de savoir comment traiter les images retouchées: vous examinez les différences de niveaux de compression dans l'image. Le mot-clé à rechercher est la criminalistique d'image: http://fotoforensics.com/tutorial-estq.php

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.