Pourrait-il y avoir des menaces existentielles pour l'humanité dues à l'IA?


9

Nous faisons des recherches et passons des heures à découvrir comment améliorer le fonctionnement des vrais logiciels d'IA (agents intelligents). Nous essayons également de mettre en œuvre certaines applications, par exemple dans les affaires, la santé et l'éducation, en utilisant la technologie de l'IA.

Néanmoins, jusqu'à présent, la plupart d'entre nous ont ignoré le côté "sombre" de l'intelligence artificielle. Par exemple, une personne "contraire à l'éthique" pourrait acheter des milliers de drones bon marché, les armer d'armes et les envoyer tirer sur le public. Ce serait une application "contraire à l'éthique" de l'IA.

Pourrait-il y avoir (à l'avenir) des menaces existentielles pour l'humanité dues à l'IA?


Toute technologie a le potentiel d'être une menace existentielle pour l'humanité.
Ankur

Réponses:


2

Je définirais l'intelligence comme une capacité de prédire l'avenir. Donc, si quelqu'un est intelligent, il peut prédire certains aspects de l'avenir et décider quoi faire en fonction de ses prédictions. Donc, si une personne "intelligente" décide de blesser d'autres personnes, elle pourrait être très efficace à cet égard (par exemple Hitler et son personnel).

L'intelligence artificielle pourrait être extrêmement efficace pour prédire certains aspects d'un avenir incertain. Et cette IMHO conduit à deux scénarios négatifs:

  1. Quelqu'un le programme pour blesser les gens. Soit par erreur, soit exprès.
  2. L'intelligence artificielle sera conçue pour faire quelque chose de sûr, mais à un moment donné, pour être plus efficace, elle se repensera et peut-être supprimera-t-elle des obstacles. Donc, si les humains deviennent des obstacles, ils seront supprimés très rapidement et de manière très efficace.

Bien sûr, il existe également des scénarios positifs, mais vous ne vous posez pas de questions à leur sujet.

Je recommande de lire cet article sympa sur la superintelligence artificielle et les résultats possibles de sa création: http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html


Merci pour votre réponse. Je m'intéresse beaucoup à ce deuxième point. Le côté positif, il y a un hit dans le premier paragraphe, j'espère que vous pouvez voir.
quintumnia

4

Il ne fait aucun doute que l'IA a le potentiel de représenter une menace existentielle pour l'humanité.

La plus grande menace pour l'humanité réside dans l'IA ultra-intelligente.

Une intelligence artificielle qui surpasse l'intelligence humaine sera capable d'augmenter de façon exponentielle sa propre intelligence, résultant en un système d'IA qui, pour les humains, sera complètement imparable.

À ce stade, si le système d'intelligence artificielle décide que l'humanité n'est plus utile, il pourrait nous essuyer de la surface de la terre.

Comme le dit Eliezer Yudkowsky dans l'intelligence artificielle en tant que facteur positif et négatif du risque global ,

"L'IA ne vous déteste pas, elle ne vous aime pas non plus, mais vous êtes fait d'atomes qu'elle peut utiliser pour autre chose."

Une autre menace réside dans l'instruction d'une IA hautement intelligente

Ici, il est utile de considérer l'expérience de pensée d'optimisation du trombone.

Une IA hautement intelligente chargée de maximiser la production de trombones peut prendre les mesures suivantes pour atteindre son objectif.

1) Réaliser une explosion d'intelligence pour se rendre superintelligent (cela augmentera l'efficacité d'optimisation des trombones)

2) Anéantir l'humanité afin qu'elle ne puisse pas être désactivée (cela minimiserait la production et serait inefficace)

3) Utilisez les ressources de la Terre (y compris la planète elle-même) pour construire des robots auto-reproducteurs hébergeant l'IA

4) Répartis de manière exponentielle dans l'univers, récoltant des planètes et des étoiles, les transformant en matériaux pour construire des usines de trombones

De toute évidence, ce n'était pas ce que voulait l'homme qui produisait un trombone, mais c'est le meilleur moyen de suivre les instructions de l'IA.

Cela illustre comment les systèmes d'intelligence artificielle superintelligents et hautement intelligents peuvent être le plus grand risque existentiel auquel l'humanité puisse être confrontée.

Murray Shanahan, dans The Technological Singularity , a même proposé que l'IA soit la solution au paradoxe de Fermi: la raison pour laquelle nous ne voyons pas de vie intelligente dans l'univers est peut-être qu'une fois qu'une civilisation deviendra suffisamment avancée, elle développera une IA qui finira par détruire il. Ceci est connu comme l'idée d'un filtre cosmique .

En conclusion, l'intelligence même qui rend l'IA si utile la rend également extrêmement dangereuse.

Des personnalités influentes comme Elon Musk et Stephen Hawking se sont dites préoccupées par le fait que l'IA superintelligente soit la plus grande menace à laquelle nous aurons jamais à faire face.

J'espère que cela répond à votre question :)

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.