En plus de ce qui a déjà été dit sur l'IA, je dois ajouter ce qui suit. "AI" a eu toute une histoire remontant au Perceptron original . Marvin Minsky a claqué le Perceptron en 1969 pour ne pas être en mesure de résoudre le problème XOR et tout ce qui n'était pas séparable linéairement, alors "Intelligence Artifical" est devenu un mot sale pendant un certain temps, seulement pour regagner des intérêts dans les années 1980. Pendant ce temps, les réseaux neuronaux ont été relancés, la rétropropagation utilisée pour les former a été développée, et comme la technologie informatique a continué sa croissance exponentielle, "AI" a fait de même et ce qui est devenu possible.
Aujourd'hui, il y a beaucoup de choses que nous tenons pour acquises qui auraient été considérées comme de l'IA il y a 10 ou 15 ans, comme la reconnaissance vocale, par exemple. J'ai fait mes débuts dans la reconnaissance vocale "AI" à la fin des années 70 où vous deviez former les modèles vocaux pour comprendre un seul locuteur humain. Aujourd'hui, la reconnaissance vocale est une réflexion après coup avec vos applications Google, par exemple, et aucune formation a priori n'est nécessaire. Pourtant, cette technologie n'est plus, du moins en général, considérée comme "IA".
Et alors, quelles seraient les "exigences minimales"? Cela dépendrait de qui vous demandez. Et à quelle heure. Il semblerait que ce terme ne s'applique qu'à la technologie "à la pointe du progrès". Une fois développée et courante, elle n'est plus appelée IA. Cela est vrai même pour les réseaux neuronaux, qui dominent actuellement la science des données, mais sont appelés "apprentissage automatique".
Consultez également la discussion animée sur Quora .