Il n'y a aucun moyen, tous les modèles ML ne concernent pas la compréhension des phénomènes, ce sont des méthodes d'interpolation avec l'espoir "que ça marche". Commencez par de telles questions de confiance, robustes au bruit il n'y a pas de réponses.
Donc, pour dériver quelque chose, veuillez utiliser diverses sciences appliquées et fondamentales:
Utilisez le contrôle (et faites des hypothèses sur la dynamique)
Utiliser l'optimisation convexe (avec une condition supplémentaire sur la fonction)
Utiliser des statistiques mathématiques (avec des hypothèses préliminaires sur les distributions)
Utiliser le traitement du signal (avec certaines hypothèses que le signal est limité en bande)
Le scientifique utilise certaines hypothèses préliminaires (appelées axiomes) pour dériver quelque chose.
Il n'y a aucun moyen de donner une confiance sans une hypothèse préliminaire, donc problème dans pas dans le mehtod DL, mais c'est un problème dans n'importe quelle méthode qui essaie d'interpoler sans aucune hypothèse préliminaire - il n'y a aucun moyen de dériver via l'algèbre quelque chose d'intelligent sans hypothèse.
NN et diverses méthodes ML sont pour le prototypage rapide afin de créer "quelque chose" qui semble fonctionner "en quelque sorte" vérifié avec validation croisée.
Encore plus profondément l'ajustement de régression E [Y | X] ou son estimation peut être un problème absolument incorrect à résoudre (peut-être que le pdf au point Y = E [Y | X] a un minimum, pas un maximum), et il y a beaucoup de subtils des choses.
Permettez-moi également de rappeler deux problèmes insolubles dans l'IA / ML, qui peuvent être oubliés pour certaines raisons, derrière des slogans de beauté:
(1) Ce sont des méthodes d'interpolation, pas d'extrapolation - il n'a pas la capacité de faire face à de nouveaux problèmes
(2) personne ne sait comment un modèle se comportera sur des données qui ne sont pas de la même distribution (homme en costume de banane pour la localisation piétonne)