Quel est le problème avec l'idée que l'IA sera capable d'omniscience?


10

Dans le contexte de l'intelligence artificielle, la singularité fait référence à l'avènement d'une intelligence générale artificielle capable d'auto-amélioration récursive, conduisant à l'émergence rapide de la superintelligence artificielle (ASI), dont les limites sont inconnues, peu de temps après la réalisation de la singularité technologique . Par conséquent, ces superintelligences pourraient résoudre des problèmes que nous ne sommes peut-être pas en mesure de résoudre.

Selon un sondage publié dans Future progress in intelligence artificielle: une enquête d'opinion d'experts (2014)

L'estimation médiane des répondants était pour une chance sur deux que l'intelligence artificielle de haut niveau sera développée vers 2040-2050.

ce qui n'est pas très loin.

Quel est le problème avec l'idée que l'IA sera capable d'omniscience, étant donné qu'elle pourrait nous être utile en résolvant de nombreux problèmes?

Réponses:


8

J'aime bien votre point de vue, et sans entrer dans les détails de la façon dont une "singularité" peut être effectuée, qui est couverte dans de nombreuses autres questions, ou comment la conscience et "l'omniscience" entrent en jeu parce que la conscience et l'omniscience ne sont pas des exigences , je le ferai à la place vous diriger vers deux philosophes clés:

Donc, quand les gens deviennent fous, en se concentrant sur le mythe " Skynet " sous lequel les machines se dressent pour nous détruire, je dois me demander si elles ne sont tout simplement pas aussi intelligentes que Nash ou aussi profondes que Dick, ce qui pourrait expliquer leur insistance sur ce que l'on peut appeler le paradigme des " moutons électriques ".


1
Je suis totalement d'accord avec vous. Parfois, je demande ce qui nous amène à créer de nouvelles technologies. Voulons-nous des pouvoirs absolus ou résolvons-nous réellement nos vrais problèmes? C'est pourquoi je préfère voir à travers le prisme de l'amour. Certains pourraient le considérer comme un cliché, mais c'est la façon dont je crois.
Karl Zillner

@KarlZillner Poursuivant sur le front mythologique, dans Accellerando de Stross , il introduit un concept d '"Economie 2.0 *, défini comme un système dans lequel même les humains augmentés ne peuvent plus rivaliser avec des algorithmes purs, et qui semble être complètement inutile. Il semble proposer deux voies principales - l'IA coopérative semi-partisane vs l'IA hyperpartisan (qui se présentent comme les cousins ​​les moins intelligents, mais avec des fonctions d'acquisition de bas niveau hautement optimisées qui leur permettent de submerger et de coopter l'infrastructure du créateur. )
DukeZhou

0

La question est bonne et dans l'esprit de nombreuses personnes. Il y a quelques idées fausses à considérer.

  • La suprématie d'êtres intelligents autres que les humains menace la civilisation - L'imagination de cette menace est-elle logique? Est-ce une conclusion rationnelle lorsque l'intelligence humaine est le phénomène biologique le plus menaçant de la biosphère aujourd'hui. L'intelligence des insectes peut être plus durable. Les civilisations des fourmis et des termites sont certainement plus collaboratives. Les guerres mondiales et le génocide sont l'une des principales caractéristiques de l'histoire humaine.
  • L'intelligence artificielle devient plus intelligente que l'homme - L'intelligence artificielle est déjà plus intelligente que l'homme à certains égards, c'est pourquoi nous utilisons des calculatrices, une commutation automatisée des signaux de communication à la place des opérateurs et des trieurs de courrier automatisés. À d'autres égards, l'IA doit traverser des distances astronomiques pour commencer à se rapprocher de l'intelligence humaine. Nous n'avons rien qui montre même un soupçon de pouvoir simuler ou reproduire à l'avenir les capacités humaines de raisonnement, d'inventivité ou de compassion.
  • La singularité est prévue dans les années 2040 - Il y a plus d'une douzaine d'hypothèses irréalistes dans ces prédictions. Regardez avec un œil critique l'un des arguments derrière eux et vous obtiendrez des trous fins que vous pourriez faire voler un 757 les yeux bandés.
  • Croissance exponentielle des connaissances - Il y a une croissance exponentielle des informations, mais la proportion de ces informations légitimement examinées par les pairs diminue à mesure que la désinformation, les conjectures sauvages et les fausses nouvelles augmentent. Ma conviction est que la quantité d'informations dans le monde peut être approximée par log (n), où n est la population. Si je suis sur la bonne voie avec cette relation, la valeur informationnelle de l'individu moyen est log (n) / n, qui diminue à mesure que la population augmente.
  • L'IA sera capable d'omniscience - L'omniscience est plus que de répondre à n'importe quelle question. L'omniscience exigerait que la réponse soit fiable à 100% et précise à 100%, ce qui peut nécessiter plus de silicium que ce qui existe dans l'univers. Lisez Gleick's Chaos si vous souhaitez comprendre pourquoi. On pourrait également affirmer qu'un être omniscient ne répondrait pas aux questions sur ordre.

Si vous voulez un monde meilleur que celui contrôlé par l'intelligence humaine, alors une direction à prendre est de rechercher le développement d'une nouvelle espèce avec une conception plus avancée de la civilisation pacifique qui peut nous apprivoiser et nous domestiquer comme nous l'avons fait avec les chiens et chats.

La voie la plus facile consiste à mourir pour nous tous. La biosphère était peut-être plus civilisée avant notre arrivée et a commencé à tout tuer et à se tuer. Mais ce n'est pas mon espoir.

Ma recommandation est d'étudier NI (non-intelligence) et de découvrir comment débarrasser ce qui est stupide du comportement humain et des interactions géopolitiques. Cela améliorerait le monde bien plus que des gadgets et des applications d'apprentissage automatique distrayants et sensiblement non pertinents.


0

Voici quelques problèmes que mon esprit de singe a trouvé.

1. intelligent! = Tout savoir

L'explosion d'auto-amélioration de l'IA la rend plus intelligente et plus intelligente. Être plus intelligent ne signifie pas connaître plus de faits. Je suppose que c'est un argument assez pointilleux, mais je pense qu'il vaut la peine d'y réfléchir.

Un médecin très intelligent qui ne connaît pas vos antécédents peut toujours faire un choix pire qu'un médecin moins intelligent avec de meilleures données.

2. Est-ce tout pour les humains? Est-ce pour tous les humains?

L'ASI qui atteint un niveau supérieur ne pouvait pas s'intéresser à notre bien-être.

Un ASI contrôlé pourrait encore fonctionner au profit de quelques-uns seulement, si ces derniers décident de mauvais objectifs, nous pourrions revenir en arrière.

3 ASI dur

Un esprit scientifique pas forcément plein de sympathie ou d'empathie.

4. Être intelligent et ne pas être intelligent

Les grands esprits font encore des erreurs: * en fixant leurs objectifs, et * en exécutant le plan pour y parvenir.

La bonne intelligence ne garantit pas le manque de myopie ou le manque de points aveugles.

5. Limites

S'il existe des limites d'existence (limites de vitesse des types de lumière), l'IA sera également liée par celles-ci. Cela peut signifier qu'il y a des choses que même ASI n'obtiendra pas. De plus, comme notre esprit peut avoir des limites en fonction de sa structure, la prochaine IA peut également avoir des limites - et même si elle s'améliore, uppn peut atteindre des limites auxquelles il ne peut pas trouver de solutions parce que c'est `` trop stupide ''.

6. Nous ne l'obtiendrons pas

La compréhension d'ASI de certains aspects du monde peut ne pas être communicative pour la plupart des humains. Nous ne le comprendrons pas (même si nous sommes capables de tout comprendre, cela ne signifie pas que nous le comprendrons).

7. Comment l'utiliser?

Nous pouvons nous détruire et l'IA avec la technologie qu'elle nous aide à construire. Il n'a pas besoin d'être des bombes. Il peut s'agir de géoingénierie ou de médicaments miracles.

C'est particulièrement intense lorsque l'ASI est déjà puissant mais pas assez fort pour prévoir des conséquences négatives (ou nous l'ignorerons quand même).

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.