Comme le soulignent les commentaires sur votre question, beaucoup de gens travaillent à trouver quelque chose de mieux. J'aimerais cependant répondre à cette question en développant le commentaire laissé par @josh
Tous les modèles sont faux mais certains sont utiles (Wiki)
L'énoncé ci-dessus est une vérité générale utilisée pour décrire la nature des modèles statistiques. En utilisant les données dont nous disposons, nous pouvons créer des modèles qui nous permettent de faire des choses utiles telles que l'approximation d'une valeur prédite.
Prenons par exemple la régression linéaire
En utilisant un certain nombre d'observations, nous pouvons ajuster un modèle pour nous donner une valeur approximative pour une variable dépendante étant donné toute valeur pour la ou les variables indépendantes.
Burnham, KP; Anderson, DR (2002), Sélection de modèles et multimodèle> Inférence: une approche théorique pratique de l'information (2e éd.):
"Un modèle est une simplification ou une approximation de la réalité et ne reflétera donc pas toute la réalité. ... Box a noté que" tous les modèles sont faux, mais certains sont utiles ". être classé de très utile, utile, quelque peu utile à, enfin, essentiellement inutile.
Les écarts par rapport à notre modèle (comme on peut le voir sur l'image ci-dessus) semblent aléatoires, certaines observations sont en dessous de la ligne et d'autres au-dessus, mais notre ligne de régression montre une corrélation générale. Alors que les écarts dans notre modèle semblent aléatoires, dans des scénarios réalistes, il y aura d'autres facteurs en jeu qui provoquent cet écart. Par exemple, imaginez regarder des voitures pendant qu'elles traversent une intersection où elles doivent tourner à gauche ou à droite pour continuer, les voitures ne tournent pas de façon particulière. Alors que nous pourrions dire que la direction dans laquelle les voitures tournent est complètement aléatoire, chaque conducteur atteint-il la jonction et prend-il à ce moment-là une décision aléatoire de quel sens tourner? En réalité, ils se dirigent probablement vers un endroit spécifique pour une raison spécifique, et sans essayer d'arrêter chaque voiture pour leur demander leur raisonnement, nous ne pouvons que décrire leurs actions comme aléatoires.
Lorsque nous pouvons adapter un modèle avec un écart minimal, dans quelle mesure pouvons-nous être certains qu'une variable inconnue, inaperçue ou incommensurable ne jettera pas à un moment donné notre modèle? Le battement d'ailes d'un papillon au Brésil déclenche-t-il une tornade au Texas?
Le problème avec l'utilisation des modèles linéaires et SVN que vous mentionnez seuls est que nous sommes quelque peu tenus d'observer manuellement nos variables et comment elles s'influencent mutuellement. Nous devons ensuite décider quelles variables sont importantes et écrire un algorithme spécifique à la tâche. Cela peut être simple si nous n'avons que quelques variables, mais qu'en est-il si nous en avions des milliers? Et si nous voulions créer un modèle de reconnaissance d'image généralisé, cela pourrait-il être réalisé de manière réaliste avec cette approche?
L'apprentissage profond et les réseaux de neurones artificiels (RNA) peuvent nous aider à créer des modèles utiles pour d'énormes ensembles de données contenant d'énormes quantités de variables (par exemple des bibliothèques d'images). Comme vous le mentionnez, il existe un nombre incompréhensible de solutions qui pourraient correspondre aux données à l'aide des RNA, mais ce nombre est-il vraiment différent de la quantité de solutions dont nous aurions besoin pour nous développer par essais et erreurs?
L'application des RNA fait une grande partie du travail pour nous, nous pouvons spécifier nos entrées et nos sorties souhaitées (et les ajuster plus tard pour apporter des améliorations) et laisser à l'ANN le soin de trouver la solution. C'est pourquoi les RNA sont souvent décrits comme des "boîtes noires" . À partir d'une entrée donnée, ils produisent une approximation, mais (en termes généraux) ces approximations n'incluent pas de détails sur la façon dont elles ont été approximées.
Et donc, cela revient vraiment au problème que vous essayez de résoudre, car le problème dictera quelle approche de modèle est la plus utile. Les modèles ne sont pas absolument précis et il y a donc toujours un élément d'être «faux», mais plus vos résultats sont précis, plus ils sont utiles. Avoir plus de détails dans les résultats sur la façon dont l'approximation a été faite peut également être utile, selon le problème, il peut même être plus utile qu'une précision accrue.
Si, par exemple, vous calculez le pointage de crédit d'une personne, l'utilisation de la régression et des SVM fournit des calculs qui peuvent être mieux explorés. Il est très utile de pouvoir ajuster le modèle directement et expliquer aux clients l'effet que des variables indépendantes distinctes ont sur leur score global. Un ANN peut aider à traiter de plus grandes quantités de variables pour obtenir un score plus précis, mais cette précision serait-elle plus utile?