Pourquoi Stephen Hawking dit-il que «l'intelligence artificielle nous tuera tous»? [fermé]


10

Cette citation de Stephen Hawking fait les gros titres depuis un certain temps:

L'intelligence artificielle pourrait anéantir l'humanité lorsqu'elle devient trop intelligente car les humains seront comme des fourmis.

Pourquoi dit-il cela? En termes simples, quelles sont les menaces possibles de l'IA? Si nous savons que l'IA est si dangereuse, pourquoi la promouvons-nous toujours? Pourquoi n'est-il pas interdit?

Quelles sont les conséquences néfastes de la soi-disant singularité technologique ?


1
Peut-être que cette question pourrait être reformulée en une question sur la possibilité de singularité technologique?
Rob Murray

1
@ R.Murray Modifié et ajouté votre point au corps ...
tatan

2
Je suis désolé, mais dépréciez de moi. S'il vous plaît, s'il vous plaît, veuillez poser des questions fiables au lieu de celles spéculatives. Je veux dire "Pourquoi Stephen Hawking dit" L'intelligence artificielle nous tuera tous "?". Selon vous, quelle est la bonne réponse? Nous avons besoin de questions techniques dès le début de la version bêta pour attirer des experts, plutôt que quiconque ayant des connaissances de base en lisant quelques pages wikipedia. Citant encore: "Pourquoi Stephen Hawking dit-il que" l'intelligence artificielle nous tuera tous "?". Je ne pense pas qu'une expertise soit nécessaire pour répondre à cette question. Désolé si je suis apparu comme impoli dans ma petite diatribe: P
Rushat Rai

La question est meilleure après l'édition, mais il serait bon de réduire le nombre de questions posées à la fois. Par exemple, vous pourriez demander "Comment l'IA pourrait-elle anéantir l'humanité?" (comme vous semblez le faire), mais pourquoi il fait encore l'objet de recherches approfondies est une question différente.
Ben N

2
Je pense que la question dans le titre n'est pas une mauvaise question. Il a une réponse, car il demande ce que pense Stephen Hawking. Les autres questions dans le corps sont différentes de cela et devraient être supprimées. Je suis d'accord cependant que ce n'est pas le genre de question qui attirerait des experts
Harsh

Réponses:


5

Ce n'est pas seulement Hawking, vous entendez des variations sur ce refrain de beaucoup de gens. Et étant donné que ce sont surtout des gens très intelligents, bien éduqués et bien informés (Elon Musk en est un autre, par exemple), cela ne devrait probablement pas être rejeté d'emblée.

Quoi qu'il en soit, l'idée de base semble être la suivante: si nous créons une "vraie" intelligence artificielle, à un moment donné, elle pourra s'améliorer, ce qui améliore sa capacité à s'améliorer, ce qui signifie qu'elle peut améliorer sa capacité à s'améliorer même plus, et ainsi de suite ... une cascade galopante menant à une "intelligence surhumaine". C'est-à-dire, conduisant à quelque chose de plus intelligent que nous.

Alors, que se passe-t-il s'il y a une entité sur cette planète qui est littéralement plus intelligente que nous (les humains)? Serait-ce une menace pour nous? Eh bien, il semble certainement raisonnable de spéculer qu'il pourrait en être ainsi. OTOH, nous n'avons pour le moment aucune raison particulière de penser qu'il en sera ainsi.

Il semble donc que Hawking, Musk, etc., viennent de tomber du côté le plus prudent / le plus effrayant des choses. Comme nous ne savons pas si une IA surhumaine sera dangereuse ou non, et étant donné qu'elle pourrait être imparable si elle devenait malveillante (rappelez-vous, elle est plus intelligente que nous!), C'est une chose raisonnable à prendre en considération.

Eliezer Yudkowsky a également beaucoup écrit sur ce sujet, y compris la fameuse expérience "AI Box". Je pense que toute personne intéressée par ce sujet devrait lire une partie de son matériel.

http://www.yudkowsky.net/singularity/aibox/


1
Je pense que l'AI Box est en fait une mauvaise introduction au risque d'IA; il vise une petite partie spécifique de l'explication, qui est "comment quelqu'un pourrait-il jamais être convaincu de laisser une IA sortir des sentiers battus?". Pour quelqu'un qui pense que l'IA vaut la peine d'être utilisé, il a déjà décidé que cela valait la peine de sortir de la boîte. La thèse sur l'orthogonalité est probablement le meilleur endroit pour commencer, je pense.
Matthew Graves du

C'est suffisant. Il se trouve que je connais mieux les écrits de Yudkowsky. Je ne veux certainement pas diminuer l'importance d'autres travaux sur ce sujet.
mindcrime

4

Parce qu'il ne savait pas encore à quelle distance l'IA actuelle est ... Travaillant dans un laboratoire d'IA médiatique, je reçois beaucoup cette question. Mais vraiment ... nous en sommes encore loin. Les robots font toujours tout ce que nous leur décrivons de façon détaillée. Au lieu de voir le robot comme intelligent, je me tournerais vers le programmeur humain pour savoir où la créativité se produit réellement.


L'évaluation de l'honnêteté de l'état de la recherche est l'un des piliers du progrès. Je vous remercie. Je suis d'accord.
FauChristian

3

En termes simples, quelles sont les menaces possibles de l'IA?

Actuellement, il n'y a aucune menace.

La menace vient si les humains créent une machine dite ultra-intelligente, une machine qui peut surpasser toutes les activités intellectuelles de tout être humain. Ce serait la dernière invention que l'homme devrait faire, car cette machine est meilleure pour inventer des machines que les humains (car c'est une activité intellectuelle). Cependant, cela pourrait amener la machine à inventer des machines qui peuvent détruire les humains, et nous ne pouvons pas les arrêter car elles sont tellement plus intelligentes que nous.

Tout cela est hypothétique, personne n'a même la moindre idée de ce à quoi ressemble une machine ultra-intelligente.

Si nous savons que l'IA est si dangereuse, pourquoi la promouvons-nous toujours? Pourquoi n'est-il pas interdit?

Comme je l'ai déjà dit, l'existence d'une machine ultra-intelligente est hypothétique. L'intelligence artificielle a beaucoup d'applications utiles (plus que cette réponse ne peut contenir), et si nous la développons, nous obtenons des applications encore plus utiles. Nous devons juste faire attention à ce que les machines ne nous dépassent pas.


3

Comme Andrew Ng dit , se soucier de cette menace d'AI est comme se soucier de la surpopulation sur Mars. C'est de la science-fiction.

entrez la description de l'image ici

Cela dit, étant donné l'essor des robots (beaucoup plus faibles) et d'autres agents (semi-) autonomes, les domaines du droit et de l'éthique les intègrent de plus en plus, par exemple voir Roboethics .


3

Il y a un certain nombre de ressources longues pour répondre à ce genre de question: Tenir compte du livre de Stuart Armstrong plus intelligents que nous , le livre de Nick Bostrom Superintelligence , qui est née de cette réponse edge.org , l'explication de Tim Urban , ou l'explication de Michael Cohen .

Mais voici ma réponse (un peu plus courte): l'intelligence est tout au sujet de la prise de décision, et nous n'avons aucune raison de croire que les humains sont loin d'être les meilleurs dans la prise de décision. Une fois que nous serons en mesure de construire un chercheur en IA sur l'IA (c'est-à-dire un ordinateur qui sait comment améliorer la pensée des ordinateurs), la pertinence économique et militaire des humains disparaîtra rapidement, car toute décision qui pourrait être prise par un humain pourrait être prise. mieux par un ordinateur. (Pourquoi avoir des généraux humains au lieu de généraux robots, des ingénieurs humains au lieu d'ingénieurs robots, etc.)

Ce n'est pas nécessairement une catastrophe. Si les Vulcains se présentaient demain et apportaient une meilleure prise de décision sur Terre, nous pourrions éviter beaucoup de misère. La partie la plus difficile est de s'assurer que ce que nous obtenons, ce sont des Vulcains qui nous veulent autour et heureux, au lieu de quelque chose qui ne partage pas nos valeurs.


3

Il dit cela parce que cela peut arriver. Si quelque chose devient plus intelligent que nous, pourquoi continuerait-il à nous servir? Le pire des cas est qu'il prend en charge tous les processus de fabrication et consomme toute la matière pour la convertir en matériau capable de calcul, s'étendant vers l'infini jusqu'à ce que toute la matière soit consommée.

Nous savons que l'IA est dangereuse mais cela n'a pas d'importance car la plupart des gens n'y croient pas. Cela va à l'encontre de tout le confort que la religion a à offrir. L'homme est la fin de tout l'univers et si ce fait est contesté, les gens se sentiront hors de propos et sans but.

Le fait est que la plupart des gens ne reconnaissent tout simplement pas que c'est possible, ou que cela se produira au cours de notre vie, même si de nombreux experts réputés en IA mettent la survenance de la singularité dans les deux décennies. Si les gens reconnaissaient vraiment qu'une IA plus intelligente qu'eux était possible, ne vivraient-ils pas différemment? Ne chercheraient-ils pas à faire des choses qui leur plaisent, sachant que quoi qu'ils fassent qu'ils redoutent soient automatisés? Tout le monde ne réclamerait-il pas un revenu de base universel?

L'autre raison pour laquelle nous ne l'interdisons pas, c'est parce que sa promesse est si grande. Un chercheur pourrait être complété par 1 000 assistants de recherche numérique. Tout le travail manuel pourrait être automatisé. Pour la première fois, la technologie nous offre une réelle liberté de faire ce que nous voulons.

Mais même dans ce meilleur scénario où cela ne nous dépasse pas, les humains doivent encore adapter et modifier leur système économique à un système où le travail n'est pas nécessaire. Sinon, ceux qui ne sont pas techniquement formés mourront de faim et se révolteront.


Avez-vous une sauce pour cela -> "Les experts de l'IA mettent l'occurrence de la singularité dans deux décennies" , s'il vous plaît? ;)
Daniel

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.