Je me demandais, pourquoi est-il si important d'avoir un apprentissage automatique fondé sur des principes / théorique? D'un point de vue personnel en tant qu'humain, je peux comprendre pourquoi l'apprentissage automatique fondé sur des principes serait important:
- les humains aiment comprendre ce qu'ils font, nous trouvons la beauté et la satisfaction de la compréhension.
- d'un point de vue théorique, les mathématiques sont amusantes
- quand il y a des principes qui guident la conception des choses, il y a moins de temps consacré aux devinettes aléatoires, aux essais et erreurs étranges. Si nous comprenions, disons, comment les réseaux neuronaux fonctionnaient vraiment, nous pourrions peut-être passer beaucoup plus de temps à les concevoir plutôt que les énormes quantités d'essais et d'erreurs qui y sont associées en ce moment.
- plus récemment, si les principes sont clairs et que la théorie l'est aussi, il devrait y avoir (espérons-le) plus de transparence dans le système. C'est bien parce que si nous comprenons le fonctionnement du système, l'IA risque que beaucoup de gens qui font du battage médiatique disparaissent à peu près immédiatement.
- les principes semblent être un moyen concis de résumer les structures importantes que le monde pourrait avoir et quand utiliser un outil plutôt qu'un autre.
Cependant, ces raisons sont-elles suffisamment solides pour justifier une étude théorique intense de l'apprentissage automatique? L'une des plus grandes critiques de la théorie est que, parce que c'est si difficile à faire, ils finissent généralement par étudier un cas très restreint ou les hypothèses qui doivent être apportées rendent essentiellement les résultats inutiles. Je pense avoir entendu cela une fois lors d'une conférence au MIT par le créateur de Tor. Le fait que certaines des critiques de Tor qu'il a entendues est l'argument théorique, mais essentiellement, les gens ne sont jamais en mesure de prouver des choses sur les scénarios réels de la vie réelle parce qu'ils sont si compliqués.
Dans cette nouvelle ère avec tant de puissance de calcul et de données, nous pouvons tester nos modèles avec de vrais ensembles de données et de tests. Nous pouvons voir si les choses fonctionnent en utilisant l'empirisme. Si nous pouvons obtenir à la place une AGI ou des systèmes qui fonctionnent avec l'ingénierie et l'empirisme, cela vaut-il encore la peine de poursuivre la justification théorique et théorique de l'apprentissage automatique, en particulier lorsque les limites de quantification sont si difficiles à atteindre, mais les intuitions et les réponses qualitatives sont tellement plus faciles à réaliser avec une approche basée sur les données? Cette approche n'était pas disponible dans les statistiques classiques, c'est pourquoi je pense que la théorie était si importante à cette époque, car les mathématiques étaient le seul moyen de s'assurer que les choses étaient correctes ou qu'elles fonctionnaient réellement comme nous le pensions.
Personnellement, j'ai toujours aimé et pensé la théorie et une approche fondée sur des principes était importante. Mais avec la puissance de pouvoir simplement essayer des choses avec des données réelles et une puissance de calcul, je me demande si l'effort élevé (et les récompenses potentiellement faibles) de la poursuite théorique en vaut la peine.
La poursuite théorique et fondée sur des principes de l'apprentissage automatique est-elle vraiment si importante?