J'ai lu des articles sur la création manuelle d'images pour "tromper" un réseau de neurones (voir ci-dessous).
Est-ce parce que les réseaux ne modélisent que la probabilité conditionnelle ?
Si un réseau peut modéliser la probabilité conjointe p ( y , x ) , de tels cas se produiront-ils toujours?
Je suppose que ces images générées artificiellement sont différentes des données d'entraînement, donc elles sont de faible probabilité . Par conséquent, p ( y , x ) doit être faible même si p ( y | x ) peut être élevé pour de telles images.
Mise à jour
J'ai essayé quelques modèles génératifs, il s'est avéré ne pas être utile, donc je suppose que c'est probablement une conséquence de MLE?
Je veux dire dans le cas où la divergence KL est utilisée comme fonction de perte, la valeur de où p d a t a ( x ) est petite n'affecte pas la perte. Donc, pour une image artificielle qui ne correspond pas à p d a t a , la valeur de p θ peut être arbitraire.
Mise à jour
J'ai trouvé un blog d'Andrej Karpathy qui montre
Ces résultats ne sont pas spécifiques aux images, ConvNets, et ils ne sont pas non plus un «défaut» dans le Deep Learning.
EXPLIQUER ET EXPLIQUER DES EXEMPLES ADVERSARIAUX Les réseaux de neurones profonds sont facilement trompés: des prédictions de haute confiance pour des images méconnaissables