Quelle est l'importance de la conscience pour créer une intelligence artificielle avancée?


14

Quelle est l'importance de la conscience et de la conscience de soi pour créer des IA avancées? Dans quelle mesure sommes-nous loin de faire cela?

Lors de la création, par exemple, d'un réseau de neurones, il n'y a (très probablement) aucune conscience à l'intérieur, mais juste des mathématiques derrière, mais avons-nous besoin que les IA deviennent conscientes pour résoudre des tâches plus complexes à l'avenir? De plus, y a-t-il réellement un moyen de savoir avec certitude si quelque chose est conscient, ou s'il est juste en train de truquer? Il est "facile" de créer un programme informatique qui prétend qu'il est conscient, mais cela ne veut pas dire qu'il l'est (par exemple Siri).

Et si les IA ne sont basées que sur des règles prédéfinies sans conscience, peut-on même l'appeler "intelligence"?


3
Nous ne pouvons même pas dire si d'autres humains sont conscients ...
DrMcCleod

Réponses:


11

La conscience artificielle est un objectif théorique et technique difficile. Une fois ce défi majeur relevé, la conscience consciente de l'ordinateur serait probablement un ajout mineur, car l'ordinateur conscient n'est qu'un autre objet dont sa conscience peut être consciente.

Un enfant peut se regarder dans le miroir et reconnaître que bouger ses mains d'avant en arrière ou faire des grimaces produit des changements correspondants dans la réflexion. Ils se reconnaissent. Plus tard, ils se rendent compte qu'il est beaucoup plus facile d'exercer un contrôle physique sur leurs propres mouvements que d'exercer un contrôle sur les mains ou le visage d'une autre personne.

Certains apprennent qu'un contrôle limité des visages et des opérations manuelles des autres est possible si certaines compétences sociales et économiques sont maîtrisées. Ils deviennent employeurs, propriétaires, investisseurs, militants, écrivains, réalisateurs, personnalités publiques ou entrepreneurs.

Quiconque a étudié les sciences cognitives ou expérimenté la frontière entre les types de pensée parce qu'il est un conseiller professionnel ou simplement un auditeur profond sait que les lignes autour de la conscience sont floues. Considérez-les.

  • Écouter le discours
  • Regarder une scène
  • Se concentrer sur un jeu
  • Présenter une idée
  • Se laver pour le travail
  • Conduire une voiture
  • Choisir un achat

N'importe laquelle de ces choses peut se faire avec ou sans certains types de conscience, de subconscience, d'impulsion ou d'habitude.

Subjectivement, les gens rapportent être sortis de la voiture et ne se souviennent pas être rentrés chez eux. On peut écouter quelqu'un parler, hocher la tête affirmativement, répondre par "Ouais, je comprends" et même répéter ce qu'il a dit, et pourtant il semble ne pas avoir de mémoire du contenu du discours si on l'interroge en profondeur. On peut lire un paragraphe et arriver à la fin sans compréhension.

En revanche, une personne peut se laver consciencieusement pour le travail, compte tenu de l'importance de l'hygiène et de l'attention comme un chirurgien se préparant pour une opération, remarquant l'odeur du savon et même la chloration de l'eau de la ville.

Entre ces extrêmes, la conscience partielle est également détectable par l'expérience et par l'expérience personnelle. La conscience nécessite très certainement une fonctionnalité d'attention, qui supervise provisoirement la coordination d'autres sous-systèmes cerveau-corps.

Une fois qu'un système biologique ou artificiel atteint la capacité de se coordonner attentivement, les objets et les tâches vers lesquels ils peuvent être coordonnés peuvent être échangés. Considérez-les.

  • Dialogue
  • Jouer pour gagner
  • Détecter l'honnêteté ou la malhonnêteté

Considérez maintenant à quel point ces activités mentales sont similaires ou différentes lorsque nous comparons l'attention autogérée ou dirigée de l'extérieur.

  • On peut se parler ou parler à un autre
  • On peut jouer des deux côtés d'une partie d'échecs ou jouer contre un autre
  • On peut scruter ses propres motivations ou celles d'un autre

C'est une illustration pour laquelle la partie de soi de la conscience de soi n'est pas le défi de l'IA. C'est la coordination attentive (mais provisoire) qui est difficile. Les premiers microprocesseurs, conçus pour fonctionner dans des systèmes de contrôle en temps réel, incluaient (et incluent toujours) une signalisation d'exception qui modélise de manière simpliste cette tendance. Par exemple, tout en jouant pour gagner dans un jeu, on pourrait essayer d'engager un dialogue avec le sujet. L'attention peut changer lorsque les deux activités nécessitent les mêmes sous-systèmes.

Nous avons également tendance à considérer ce changement de conscience de l'attention. Si nous sommes la personne qui essaie d'engager le dialogue avec la personne qui joue pour gagner, nous pourrions dire "Bonjour?" Le point d'interrogation est que nous nous demandons si le joueur est conscient.

Si l'on devait réduire le sens de la conscience aux critères les plus élémentaires, on pourrait dire cela.

"Mon réseau neuronal est intelligent d'une certaine manière, car il est conscient de la disparité entre mes critères de convergence et le comportement actuel du réseau tel qu'il est paramétré, il s'agit donc vraiment d'un exemple d'intelligence artificielle, bien que primitive."

Il n'y a rien de grossièrement incorrect dans cette déclaration. Certains l'ont appelé "Narrow Intelligence". Il s'agit d'une caractérisation légèrement inexacte, car il peut y avoir un nombre astronomique d'applications possibles d'un réseau artificiel arbitrairement profond qui utilise bon nombre des techniques les plus efficaces disponibles dans sa conception.

L'autre problème avec l'étroitesse comme caractérisation est l'inférence qu'il existe des systèmes intelligents qui ne sont pas étroits. Chaque système intelligent est étroit par rapport à un système plus intelligent. Considérez cette expérience de pensée.

Hannah écrit un article sur l'intelligence générale avec excellence, à la fois en traitement théorique et en écriture. Beaucoup le citent et le référencent. Hannah a maintenant tellement de succès dans sa carrière en IA qu'elle a l'argent et le temps pour construire un système robotique. Elle fonde sa conception sur son papier désormais célèbre et n'épargne aucune dépense.

À sa grande surprise, le robot résultant est si adaptatif que son adaptabilité dépasse même lui-même. Elle l'appelle Georgia Tech pour le plaisir car elle vit près de l'université.

La Géorgie devient un grand ami. Elle apprend à un rythme incroyable et est une colocataire étonnamment grande, nettoyant mieux que Hannah ne le pensait humainement possible, ce qui peut être littéralement vrai.

Georgia applique à Georgia Tech, juste en bas de la ligne de bus de la maison de Hannah et y étudie l'intelligence artificielle. Après avoir obtenu un doctorat après seulement trois ans d'études, la Géorgie s'assoit avec Hannah après une soirée de publication de thèse bien fréquentée que Hannah a gracieusement organisée pour elle.

Après le départ du dernier invité, il y a un moment de silence pendant qu'Hannah réalise le véritable état de sa maison. Elle pense: "La Géorgie va-t-elle maintenant me dépasser dans ses recherches?" Enfin, Hannah demande timidement: "En toute honnêteté, Géorgie, pensez-vous que vous êtes maintenant une intelligence générale comme moi?"

Il y a une pause. Avec un regard forcé d'humilité, la Géorgie répond: "Par votre définition de l'intelligence générale, je le suis. Vous n'êtes plus."

Que cette histoire devienne vraie en 2018, 3018 ou jamais, le principe est clair. La Géorgie est tout aussi capable de s'analyser comparativement à Hannah que Hannah est également capable. Dans l'histoire, la Géorgie applique la définition créée dans l'article de Hannah parce que la Géorgie est maintenant capable de concevoir de nombreuses définitions de l'intelligence et choisit Hannah comme la plus pertinente dans le contexte de la conversation.

Imaginez maintenant cette modification de l'histoire.

... Elle pense, à quel niveau la Géorgie pense-t-elle? Enfin, Hannah demande timidement: "En toute honnêteté, Géorgie, êtes-vous maintenant aussi conscient que moi?"

La Géorgie pense à travers la mémoire de toutes les utilisations du mot conscient dans ses études passées - mille références en sciences cognitives, littérature, droit, neurologie, génétique, chirurgie cérébrale, traitement des lésions cérébrales et recherche sur les toxicomanies. Elle fait une pause de quelques microsecondes pour examiner tout cela en profondeur, tout en détectant la température corporelle de ses colocataires, les équilibres neurochimiques, les tendances motrices des muscles du visage et le langage corporel.

Respectueusement, elle attend 3,941701 secondes supplémentaires, qu'elle a calculées comme le délai qui minimiserait toute humiliation à Hannah, qu'elle aime, et répond: "Consciente de quoi?"

une,b,CsΦcXΦc(CX(s))

Φc(Cune(s))b,ϵ>0Φc(Cb(s))+ϵ>Φc(Cune(s))

Il s'agit d'une façon mathématique de dire qu'il peut toujours y avoir quelqu'un ou quelque chose de plus conscient d'un scénario donné, que ce soit lui, lui ou lui, qui soit réalisé. Changer les critères d'évaluation de la conscience à l'intelligence, nous l'avons ainsi.

Φje(Cune(s))b,ϵ>0Φje(Cb(s))+ϵ>Φje(Cune(s))

On ne peut que supposer que l'article d'Hannah définit l'intelligence générale par rapport à ce qui est le plus intelligent, ce qui était autrefois des êtres humains bien éduqués. La définition de l'intelligence par Hannah est donc dynamique. La Géorgie applique la même formule à la nouvelle situation où elle est désormais la norme par rapport à laquelle le moindre renseignement est étroit.

En ce qui concerne la capacité de confirmer la conscience, il est en fait plus facile à confirmer que l'intelligence. Considérez cette expérience de pensée.

Jack joue aux échecs avec Dylan en utilisant le nouveau jeu d'échecs que Jack a acheté. Malgré la beauté esthétique de ce nouvel ensemble, avec ses pièces en onyx blanc et en agate noire, Dylan déplace chaque pièce avec prouesse et camarades Jack. Jack se demande si Dylan est plus intelligent que lui et demande quelle serait une question normale dans ces conditions.

"Dylan, mon pote, depuis combien de temps jouez-vous aux échecs?"

Quelle que soit la réponse et que Dylan soit un robot doté d'un processeur quantique d'IA avancée ou d'un être humain, l'intelligence de Dylan ne peut pas être évaluée de manière fiable. Cependant, il n'y a AUCUN DOUTE que Dylan était conscient du jeu.

Dans les exemples dans les listes en haut de cette réponse, il y a un ensemble particulier d'exigences pour être qualifié de conscience. Pour le cas de Jack et Dylan jouant, quelques choses DOIVENT fonctionner de concert.

  1. Reconnaissance visuelle de l'état de la planche
  2. Contrôle moteur du bras et de la main pour déplacer les pièces
  3. Détection tactile au bout des doigts et du pouce
  4. Cordination œil-main
  5. Saisir la coordination
  6. Un modèle sur la façon de déplacer physiquement des morceaux de planche
  7. Un modèle des règles des échecs en mémoire
  8. Un modèle de la façon de gagner en le jouant (ou une puissance de calcul astronomique pour essayer tout ce qui est possible de permutation qui a du sens)
  9. Une représentation interne de l'état du conseil d'administration
  10. Attention à l'exécution, visuellement et en fonction de l'objectif de gagner
  11. Hiérarchisation qui décide, sans rapport avec les chances de survie ou l'accumulation d'actifs, de battre Jack aux échecs, de faire autre chose ou de rien (non déterministe si la notion ancienne et banale de l'autonomie causale de l'âme est correcte)

La topologie des connexions est la suivante, et il peut y en avoir plus.

1 ⇄ 4 ⇄ 2

3 ⇄ 5 ⇄ 2

4 ⇄ 6 ⇄ 5

7 ⇄ 8 ⇄ 9

6 ⇄ 10 ⇄ 8

10 ⇄ 11

C'est l'une des nombreuses topologies d'intégration qui prennent en charge l'un des nombreux types de choses auxquels la conscience pourrait s'appliquer.

Que ce soit en se regardant dans le miroir juste pour se préparer au travail ou en regardant profondément, compte tenu de la question ontologique «Qui suis-je? chaque mélange de conscience, de subconscience, d'impulsion et d'habitude nécessite une topologie spécifique des caractéristiques mentales. Chaque topologie doit être coordonnée pour former son incarnation spécifique de la conscience.

Pour répondre à certaines autres sous-questions, il est facile de fabriquer une machine qui se dit consciente qu'un enregistreur vocal numérique peut être programmé pour le faire en cinq secondes en vous enregistrant en le disant.

Faire en sorte qu'un robot lise cette réponse ou une autre conception, l'examine attentivement, puis construit la phrase à partir de la connaissance du vocabulaire et des conventions de la parole humaine pour vous dire sa conclusion est une tâche entièrement différente. Le développement d'un tel robot peut nécessiter 1 000 années de recherche supplémentaires en IA. Peut-être dix. Peut-être jamais.

La dernière question, passée du pluriel au singulier est: "Si [un appareil artificiellement intelligent] ne [fonctionne] que sur des règles prédéfinies, sans conscience, peut-on même l'appeler intelligent?" La réponse dépend nécessairement de la définitionΦje ci-dessus, et, comme ni Φc ni Φjeavoir une définition standard au sein de la communauté de l'IA, on ne peut pas déterminer l'entropie croisée ou la corrélation. C'est indéterminable.

Peut-être des définitions formelles de Φc et Φje peut maintenant être écrit et soumis à l'IEEE ou à un organisme de normalisation.


ma compréhension de la nouvelle utilisation de "l'étroitesse" est qu'elle implique une performance solide dans une tâche spécifique, distincte de l'utilisation traditionnelle de "stong AI" comme AGI.
DukeZhou

1
Connaissez-vous ce qu'on appelle un "problème difficile de la conscience" ( en.wikipedia.org/wiki/Hard_problem_of_consciousness )? Je pense que décrire une description fonctionnelle de la conscience, sans demander des choses comme "pourquoi les qualia existent-ils?" sorte de banalise toute la question.
Steven Sagona

2
Réponse intéressante, même si elle pèche énormément, comme dire - "En ce qui concerne la capacité de confirmer la conscience, il est en fait plus facile à confirmer que l'intelligence." C'est au-delà de "gras", pour le moins. Je suis conscient - ça, je sais. Je ne pouvais pas vraiment garantir un autre être vivant, vraiment. Et je ne pouvais même pas concevoir "quand / comment" suis-je devenu conscient. À un moment donné, je ne l'étais pas - avant la naissance et la conception. Aujourd'hui je suis. Comment et quand exactement cela s'est-il produit? Comme l'a dit @StevenSagona - La conscience est un problème vraiment difficile. Le traitement est aussi simple sape (et s'écarte) de la question.
Vinícius M

Je crois que vous mélangez deux concepts éventuellement distincts: l'attention et la conscience.
nbro

0

Les IA conscientes de soi sont importantes parce que la conscience est ce qui nous rend humains. Et les scientifiques tentent de développer des IA plus proches des humains et du comportement humain. Le processus de pensée des humains est très compliqué et le faire développer dans les IA pourrait vraiment nous remplacer par des robots qui ont la conscience. La seule raison pour laquelle les IA ne prennent pas un travail qui implique la prise de décision parce qu'elles n'ont pas conscience.


2
Je pense que cela nécessite quelques citations et définitions. Je serais personnellement en désaccord avec "la conscience est ce qui nous rend humains", parce que mes définitions de la conscience permettent des degrés de conscience et je suppose que des animaux plus complexes - par exemple la plupart des mammifères - sont conscients. Je crois aussi que la conscience est modérément séparée du raisonnement - par exemple, il est possible d'être conscient et dans un état mental entièrement contrôlé par des réponses émotionnelles et non par une prise de décision rationnelle. Cependant, vous travaillez peut-être avec différentes définitions - c'est pourquoi vous devez les ajouter à la réponse.
Neil Slater
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.