J'ai écouté un discours d'un panel composé de deux scientifiques chinois influents: Wang Gang et Yu Kai et d'autres.
Interrogé sur le plus gros goulot d'étranglement du développement de l'intelligence artificielle dans un avenir proche (3 à 5 ans), Yu Kai, qui a une formation dans l'industrie du matériel, a déclaré que le matériel serait le problème essentiel et que nous devrions payer la plupart des notre attention à cela. Il nous a donné deux exemples:
- Au tout début du développement de l'ordinateur, nous comparons nos machines par ses puces;
- L'intelligence artificielle qui est très populaire ces années serait presque impossible si elle n'était pas autorisée par le GPU de Nvidia.
Les algorithmes fondamentaux existaient déjà dans les années 1980 et 1990, mais l'intelligence artificielle a traversé 3 hivers AI et n'était pas empirique jusqu'à ce que nous puissions former des modèles avec des méga serveurs boostés par GPU.
Ensuite, le Dr Wang a commenté ses opinions selon lesquelles nous devrions également développer des systèmes logiciels, car nous ne pouvons pas construire une voiture automatique même si nous avons combiné tous les GPU et tous les calculs du monde.
Puis, comme d'habitude, mon esprit s'est éloigné et j'ai commencé à penser que si ceux qui pouvaient utiliser des superordinateurs dans les années 1980 et 1990 utilisaient les algorithmes de réseau neuronal alors en place et les formaient avec des tonnes de données scientifiques? Certaines personnes à ce moment-là peuvent évidemment tenter de construire les systèmes d'IA que nous construisons maintenant. Mais pourquoi l'IA est-elle devenue un sujet brûlant et est-elle devenue empirique des décennies plus tard? S'agit-il uniquement de matériel, de logiciels et de données?