Non , avec un mais . Nous pouvons avoir une résolution créative mais éthique des problèmes si le système a un système d'éthique complet, mais sinon la créativité sera dangereuse par défaut.
On peut classer les approches décisionnelles en matière d'IA en deux types: les penseurs interpolatifs et les penseurs extrapolatifs.
Les penseurs interpolatifs apprennent à classer et à imiter tout ce qu'ils apprennent, et n'essaient pas de donner des résultats raisonnables en dehors de leur domaine de formation. Vous pouvez les considérer comme une interpolation entre des exemples de formation, et bénéficiant de toutes les garanties et conditions mathématiques comme d'autres techniques statistiques.
Les penseurs extrapolatifs apprennent à manipuler les principes sous-jacents, ce qui leur permet de combiner ces principes de manière jusque-là non envisagée. Le champ d'intuition pertinent ici est l'optimisation numérique , dont l'exemple le plus simple et le plus célèbre est la programmation linéaire , plutôt que les domaines statistiques qui ont donné naissance à l'apprentissage automatique. Vous pouvez les considérer comme extrapolant au-delà des exemples de formation (en effet, beaucoup d'entre eux ne nécessitent même pas d'exemples de formation, ou utilisent ces exemples pour déduire des principes sous-jacents).
La promesse des penseurs extrapolatifs est qu'ils peuvent proposer ces solutions «latérales» beaucoup plus rapidement que les gens ne le pourraient. Le problème avec ces penseurs extrapolatifs est qu'ils n'utilisent que les principes parlés, pas des principes tacites qui pourraient sembler trop évidents pour être mentionnés.
Un attribut des solutions aux problèmes d'optimisation est que le vecteur de caractéristiques est souvent «extrême» d'une certaine manière. En programmation linéaire, au moins un sommet de l'espace de solution réalisable sera optimal, et les méthodes de résolution simples trouvent donc un sommet optimal (ce qui est presque impossible par nature d'être un sommet).
Comme autre exemple, la solution de carburant minimum pour déplacer un vaisseau spatial d'une position à une autre est appelée `` bang-bang '', où vous accélérez le vaisseau aussi rapidement que possible au début et à la fin de la trajectoire, en roue libre à vitesse maximale entre les deux. .
Bien qu'une vertu lorsque le système est correctement compris (bang-bang est optimal dans de nombreux cas), cela est catastrophique lorsque le système est mal compris. Mon exemple préféré ici est le problème de régime de Dantzig (la discussion commence à la page 5 du pdf), où il essaie d'optimiser son régime en utilisant les mathématiques. Sous sa première série de contraintes, il est censé boire 500 gallons de vinaigre par jour. Sous son second, 200 cubes de bouillon. Sous son troisième, deux livres de son. Les considérations qui font que ces idées manifestement mauvaises ne sont pas intégrées dans le système, et le système les suggère donc innocemment.
Si vous pouvez encoder complètement les connaissances et les valeurs qu'une personne utilise pour juger ces plans dans l'IA, alors les systèmes extrapolatifs sont aussi sûrs que cette personne. Ils pourront envisager et rejeter le mauvais type de plans extrêmes et vous laisser avec le bon type de plans extrêmes.
Mais si vous ne le pouvez pas, alors il est logique de ne pas créer un décideur extrapolatif, et de créer un interpolateur à la place. Autrement dit, au lieu de se demander "comment puis-je atteindre au mieux l'objectif X?" il se demande "que ferait une personne dans cette situation?". Ce dernier pourrait être bien pire pour atteindre l'objectif X, mais il a beaucoup moins de risque de sacrifier d'autres objectifs pour accomplir X.