La conscience artificielle est un objectif théorique et technique difficile. Une fois ce défi majeur relevé, la conscience consciente de l'ordinateur serait probablement un ajout mineur, car l'ordinateur conscient n'est qu'un autre objet dont sa conscience peut être consciente.
Un enfant peut se regarder dans le miroir et reconnaître que bouger ses mains d'avant en arrière ou faire des grimaces produit des changements correspondants dans la réflexion. Ils se reconnaissent. Plus tard, ils se rendent compte qu'il est beaucoup plus facile d'exercer un contrôle physique sur leurs propres mouvements que d'exercer un contrôle sur les mains ou le visage d'une autre personne.
Certains apprennent qu'un contrôle limité des visages et des opérations manuelles des autres est possible si certaines compétences sociales et économiques sont maîtrisées. Ils deviennent employeurs, propriétaires, investisseurs, militants, écrivains, réalisateurs, personnalités publiques ou entrepreneurs.
Quiconque a étudié les sciences cognitives ou expérimenté la frontière entre les types de pensée parce qu'il est un conseiller professionnel ou simplement un auditeur profond sait que les lignes autour de la conscience sont floues. Considérez-les.
- Écouter le discours
- Regarder une scène
- Se concentrer sur un jeu
- Présenter une idée
- Se laver pour le travail
- Conduire une voiture
- Choisir un achat
N'importe laquelle de ces choses peut se faire avec ou sans certains types de conscience, de subconscience, d'impulsion ou d'habitude.
Subjectivement, les gens rapportent être sortis de la voiture et ne se souviennent pas être rentrés chez eux. On peut écouter quelqu'un parler, hocher la tête affirmativement, répondre par "Ouais, je comprends" et même répéter ce qu'il a dit, et pourtant il semble ne pas avoir de mémoire du contenu du discours si on l'interroge en profondeur. On peut lire un paragraphe et arriver à la fin sans compréhension.
En revanche, une personne peut se laver consciencieusement pour le travail, compte tenu de l'importance de l'hygiène et de l'attention comme un chirurgien se préparant pour une opération, remarquant l'odeur du savon et même la chloration de l'eau de la ville.
Entre ces extrêmes, la conscience partielle est également détectable par l'expérience et par l'expérience personnelle. La conscience nécessite très certainement une fonctionnalité d'attention, qui supervise provisoirement la coordination d'autres sous-systèmes cerveau-corps.
Une fois qu'un système biologique ou artificiel atteint la capacité de se coordonner attentivement, les objets et les tâches vers lesquels ils peuvent être coordonnés peuvent être échangés. Considérez-les.
- Dialogue
- Jouer pour gagner
- Détecter l'honnêteté ou la malhonnêteté
Considérez maintenant à quel point ces activités mentales sont similaires ou différentes lorsque nous comparons l'attention autogérée ou dirigée de l'extérieur.
- On peut se parler ou parler à un autre
- On peut jouer des deux côtés d'une partie d'échecs ou jouer contre un autre
- On peut scruter ses propres motivations ou celles d'un autre
C'est une illustration pour laquelle la partie de soi de la conscience de soi n'est pas le défi de l'IA. C'est la coordination attentive (mais provisoire) qui est difficile. Les premiers microprocesseurs, conçus pour fonctionner dans des systèmes de contrôle en temps réel, incluaient (et incluent toujours) une signalisation d'exception qui modélise de manière simpliste cette tendance. Par exemple, tout en jouant pour gagner dans un jeu, on pourrait essayer d'engager un dialogue avec le sujet. L'attention peut changer lorsque les deux activités nécessitent les mêmes sous-systèmes.
Nous avons également tendance à considérer ce changement de conscience de l'attention. Si nous sommes la personne qui essaie d'engager le dialogue avec la personne qui joue pour gagner, nous pourrions dire "Bonjour?" Le point d'interrogation est que nous nous demandons si le joueur est conscient.
Si l'on devait réduire le sens de la conscience aux critères les plus élémentaires, on pourrait dire cela.
"Mon réseau neuronal est intelligent d'une certaine manière, car il est conscient de la disparité entre mes critères de convergence et le comportement actuel du réseau tel qu'il est paramétré, il s'agit donc vraiment d'un exemple d'intelligence artificielle, bien que primitive."
Il n'y a rien de grossièrement incorrect dans cette déclaration. Certains l'ont appelé "Narrow Intelligence". Il s'agit d'une caractérisation légèrement inexacte, car il peut y avoir un nombre astronomique d'applications possibles d'un réseau artificiel arbitrairement profond qui utilise bon nombre des techniques les plus efficaces disponibles dans sa conception.
L'autre problème avec l'étroitesse comme caractérisation est l'inférence qu'il existe des systèmes intelligents qui ne sont pas étroits. Chaque système intelligent est étroit par rapport à un système plus intelligent. Considérez cette expérience de pensée.
Hannah écrit un article sur l'intelligence générale avec excellence, à la fois en traitement théorique et en écriture. Beaucoup le citent et le référencent. Hannah a maintenant tellement de succès dans sa carrière en IA qu'elle a l'argent et le temps pour construire un système robotique. Elle fonde sa conception sur son papier désormais célèbre et n'épargne aucune dépense.
À sa grande surprise, le robot résultant est si adaptatif que son adaptabilité dépasse même lui-même. Elle l'appelle Georgia Tech pour le plaisir car elle vit près de l'université.
La Géorgie devient un grand ami. Elle apprend à un rythme incroyable et est une colocataire étonnamment grande, nettoyant mieux que Hannah ne le pensait humainement possible, ce qui peut être littéralement vrai.
Georgia applique à Georgia Tech, juste en bas de la ligne de bus de la maison de Hannah et y étudie l'intelligence artificielle. Après avoir obtenu un doctorat après seulement trois ans d'études, la Géorgie s'assoit avec Hannah après une soirée de publication de thèse bien fréquentée que Hannah a gracieusement organisée pour elle.
Après le départ du dernier invité, il y a un moment de silence pendant qu'Hannah réalise le véritable état de sa maison. Elle pense: "La Géorgie va-t-elle maintenant me dépasser dans ses recherches?" Enfin, Hannah demande timidement: "En toute honnêteté, Géorgie, pensez-vous que vous êtes maintenant une intelligence générale comme moi?"
Il y a une pause. Avec un regard forcé d'humilité, la Géorgie répond: "Par votre définition de l'intelligence générale, je le suis. Vous n'êtes plus."
Que cette histoire devienne vraie en 2018, 3018 ou jamais, le principe est clair. La Géorgie est tout aussi capable de s'analyser comparativement à Hannah que Hannah est également capable. Dans l'histoire, la Géorgie applique la définition créée dans l'article de Hannah parce que la Géorgie est maintenant capable de concevoir de nombreuses définitions de l'intelligence et choisit Hannah comme la plus pertinente dans le contexte de la conversation.
Imaginez maintenant cette modification de l'histoire.
... Elle pense, à quel niveau la Géorgie pense-t-elle? Enfin, Hannah demande timidement: "En toute honnêteté, Géorgie, êtes-vous maintenant aussi conscient que moi?"
La Géorgie pense à travers la mémoire de toutes les utilisations du mot conscient dans ses études passées - mille références en sciences cognitives, littérature, droit, neurologie, génétique, chirurgie cérébrale, traitement des lésions cérébrales et recherche sur les toxicomanies. Elle fait une pause de quelques microsecondes pour examiner tout cela en profondeur, tout en détectant la température corporelle de ses colocataires, les équilibres neurochimiques, les tendances motrices des muscles du visage et le langage corporel.
Respectueusement, elle attend 3,941701 secondes supplémentaires, qu'elle a calculées comme le délai qui minimiserait toute humiliation à Hannah, qu'elle aime, et répond: "Consciente de quoi?"
a , b , …CsΦcXΦc( CX( s ) )
∀ Φc(Cune( s) )∃b ,ϵ >0∋Φc(Cb( s ) ) + ϵ >Φc(Cune( s ) )
Il s'agit d'une façon mathématique de dire qu'il peut toujours y avoir quelqu'un ou quelque chose de plus conscient d'un scénario donné, que ce soit lui, lui ou lui, qui soit réalisé. Changer les critères d'évaluation de la conscience à l'intelligence, nous l'avons ainsi.
∀ Φje( Cune( s ) )∃b ,ϵ > 0∋Φje( Cb( s ) ) + ϵ > Φje( Cune( s ) )
On ne peut que supposer que l'article d'Hannah définit l'intelligence générale par rapport à ce qui est le plus intelligent, ce qui était autrefois des êtres humains bien éduqués. La définition de l'intelligence par Hannah est donc dynamique. La Géorgie applique la même formule à la nouvelle situation où elle est désormais la norme par rapport à laquelle le moindre renseignement est étroit.
En ce qui concerne la capacité de confirmer la conscience, il est en fait plus facile à confirmer que l'intelligence. Considérez cette expérience de pensée.
Jack joue aux échecs avec Dylan en utilisant le nouveau jeu d'échecs que Jack a acheté. Malgré la beauté esthétique de ce nouvel ensemble, avec ses pièces en onyx blanc et en agate noire, Dylan déplace chaque pièce avec prouesse et camarades Jack. Jack se demande si Dylan est plus intelligent que lui et demande quelle serait une question normale dans ces conditions.
"Dylan, mon pote, depuis combien de temps jouez-vous aux échecs?"
Quelle que soit la réponse et que Dylan soit un robot doté d'un processeur quantique d'IA avancée ou d'un être humain, l'intelligence de Dylan ne peut pas être évaluée de manière fiable. Cependant, il n'y a AUCUN DOUTE que Dylan était conscient du jeu.
Dans les exemples dans les listes en haut de cette réponse, il y a un ensemble particulier d'exigences pour être qualifié de conscience. Pour le cas de Jack et Dylan jouant, quelques choses DOIVENT fonctionner de concert.
- Reconnaissance visuelle de l'état de la planche
- Contrôle moteur du bras et de la main pour déplacer les pièces
- Détection tactile au bout des doigts et du pouce
- Cordination œil-main
- Saisir la coordination
- Un modèle sur la façon de déplacer physiquement des morceaux de planche
- Un modèle des règles des échecs en mémoire
- Un modèle de la façon de gagner en le jouant (ou une puissance de calcul astronomique pour essayer tout ce qui est possible de permutation qui a du sens)
- Une représentation interne de l'état du conseil d'administration
- Attention à l'exécution, visuellement et en fonction de l'objectif de gagner
- Hiérarchisation qui décide, sans rapport avec les chances de survie ou l'accumulation d'actifs, de battre Jack aux échecs, de faire autre chose ou de rien (non déterministe si la notion ancienne et banale de l'autonomie causale de l'âme est correcte)
La topologie des connexions est la suivante, et il peut y en avoir plus.
1 ⇄ 4 ⇄ 2
3 ⇄ 5 ⇄ 2
4 ⇄ 6 ⇄ 5
7 ⇄ 8 ⇄ 9
6 ⇄ 10 ⇄ 8
10 ⇄ 11
C'est l'une des nombreuses topologies d'intégration qui prennent en charge l'un des nombreux types de choses auxquels la conscience pourrait s'appliquer.
Que ce soit en se regardant dans le miroir juste pour se préparer au travail ou en regardant profondément, compte tenu de la question ontologique «Qui suis-je? chaque mélange de conscience, de subconscience, d'impulsion et d'habitude nécessite une topologie spécifique des caractéristiques mentales. Chaque topologie doit être coordonnée pour former son incarnation spécifique de la conscience.
Pour répondre à certaines autres sous-questions, il est facile de fabriquer une machine qui se dit consciente qu'un enregistreur vocal numérique peut être programmé pour le faire en cinq secondes en vous enregistrant en le disant.
Faire en sorte qu'un robot lise cette réponse ou une autre conception, l'examine attentivement, puis construit la phrase à partir de la connaissance du vocabulaire et des conventions de la parole humaine pour vous dire sa conclusion est une tâche entièrement différente. Le développement d'un tel robot peut nécessiter 1 000 années de recherche supplémentaires en IA. Peut-être dix. Peut-être jamais.
La dernière question, passée du pluriel au singulier est: "Si [un appareil artificiellement intelligent] ne [fonctionne] que sur des règles prédéfinies, sans conscience, peut-on même l'appeler intelligent?" La réponse dépend nécessairement de la définitionΦje ci-dessus, et, comme ni Φc ni Φjeavoir une définition standard au sein de la communauté de l'IA, on ne peut pas déterminer l'entropie croisée ou la corrélation. C'est indéterminable.
Peut-être des définitions formelles de Φc et Φje peut maintenant être écrit et soumis à l'IEEE ou à un organisme de normalisation.