L'intelligence humaine est-elle l'objectif intelligent? [fermé]


9

Il semble que la littérature ait toujours mis l'accent sur l'approximation des composants de l'esprit humain, en supposant qu'il soit le plus avancé. Si d'autres animaux sont entrés dans le paysage de l'IA, ce n'était que pour étudier les primates d'une manière qui n'est pas pratique pour étudier les humains ou pour simuler l'activité neuronale d'une limace car son système nerveux est simple.

Il y a peut-être une raison plus avant-gardiste d'envisager d'utiliser des formes de vie inférieures comme modèle pour l'intelligence artificielle souhaitée. J'ai lu ce que EO Wilson et d'autres avaient à dire sur les capacités de collaboration d'autres espèces. Il existe des qualités remarquables dans des organismes aussi simples et adaptatifs que les bactéries. Certes, les fourmis sont l'espèce modèle de collaboration. Les abeilles sont sans doute les plus avisées en matière de construction, transportant la durabilité du mode de vie et les relations avec d'autres espèces vers une forme d'art bien au-dessus de la capacité de l'intelligence humaine.

En utilisant des analogies sportives pour caractériser les options, l'intelligence humaine ressemble plus à des sports de gladiateurs pré-illumination ou au moins au hockey sur glace, où blesser l'adversaire est considéré comme la stratégie intelligente. Ce que les abeilles font, c'est plus de l'alpinisme, la construction avec précision et soin.

Ce que font les fourmis, c'est un peu comme les courses de relais, où l'équipe adverse s'intéresse peu parce que chaque colonie, tout comme chaque voie de la piste est indépendante et les voies sont marquées. Les fourmis marquent de la même manière leur territoire et les revendications territoriales sont respectées comme dans le meilleur de la politique géopolitique westphalienne. Il n'y a ni petites jalousies ni compétitions uniquement pour la fierté de la primauté. Avec les fourmis, tout comme avec l'entraîneur intelligent d'athlétisme, l'objectif est que chaque étape de la course fonctionne bien contre le meilleur précédent du coureur de relais.

Les bactéries sont les coureurs de fond. Ils échangent l'ADN entre eux et ignorent toutes les règles de la douleur et de la peur. Ils se comportent de manière durable qui ne tient rien pour acquis et utilise tout pour leur survie. Et ils ont survécu pendant presque toute la durée de l'existence de la terre. Ils seront probablement là pendant cent milliards d'années après la disparition de l'humanité, si le soleil ne passe pas en supernova en premier.

Pourquoi voudrions-nous programmer des ordinateurs pour qu'ils se comportent sans cesse comme des concurrents? Les gens téléchargent-ils des programmes d'échecs intelligents afin qu'ils puissent perdre à plusieurs reprises? Non, ils téléchargent Android OS car il collabore et cela ne coûte rien. Ne pouvons-nous pas trouver des jeux à somme non nulle où jouer des scénarios gagnant-gagnant sont possibles?

N'avons-nous pas déjà suffisamment d'agents mordants, bavards et hypercritiques dans notre propre espèce? Pourquoi ne pas envoyer l'IA en direction de l'intelligence collaborative, comme les fourmis? Ne serait-il pas préférable d'avoir de nouveaux amis artificiels qui voudraient partager le fardeau de nos tâches quotidiennes?

Ne voulons-nous pas que nos robots du futur construisent comme des abeilles mellifères, en hexagones? Ou voulons-nous que nos robots suivent notre exemple, gaspillant 70% des matériaux dans la construction verticale en raison d'une insistance irrationnelle sur des angles de quatre-vingt-dix degrés, comme seuls les humains le feraient?


3
Vous avez acquis une vision très optimiste de la concurrence entre les colonies d'insectes sociales. La déclaration "il n'y a aucun intérêt pour l'équipe adverse parce que chaque colonie, tout comme chaque piste de la piste est indépendante" n'est tout simplement pas vraie. Les colonies de fourmis rivaliseront avec d'autres membres de leur propre espèce et les combattront, et certainement contre d'autres espèces. Bien que je (et je pense que beaucoup de gens) serais d'accord sur la valorisation d'autres formes de capacité / intelligence aussi bien adaptées que les humains, il y a toujours une concurrence vicieuse intra-espèce, inter-espèce et souvent inter-relationnelle dans toutes les espèces.
Neil Slater

1
@NeilSlater très correct ... Les organismes veulent juste que leur ADN se propage et les fourmis et les abeilles (travailleur) partagent 50% d'ADN avec les autres travailleurs ... C'est leur principale motivation
DuttaA

Comme je l'ai dit, ils partagent des gènes uniquement dans leur colonie et tuent toutes les fourmis d'autres colonies, même si elles sont de la même espèce ... Les humains ne partagent pas de gènes à moins que ce soit un membre de la famille où vous voyez une aide altruiste (en général) ... Mais depuis nous avons un si gros cerveau (cerveau capable) nous accumulons des expériences qui changent notre comportement génétique et nous pouvons devenir hostiles envers la famille ... Je veux répondre à votre question mais ce sera assez gros donc je le ferai quand j'aurai time
DuttaA

Bactéries / fourmis / abeilles, ils ne savent pas que ce qu'ils font est intelligent, ils ne peuvent pas réfléchir à ce qu'ils font et trouver des méthodes plus efficaces. Pouvez-vous faire en sorte que ces êtres simples atteignent des objectifs autres que ceux qu'ils accomplissent déjà? Nan.
Ankur

1
@Ankur Cependant, vous pouvez étudier les principes de fonctionnement de leur comportement réussi et l'appliquer artificiellement à un nouveau problème. C'est quelque chose qui est fait, et la question du PO pose des points intéressants, tels que si cela suffit pour couvrir tous les cas d'utilisation souhaités pour l'IA, et si ce serait une approche plus sûre / meilleure. Je pense que «non» et «non» à ces questions, mais il faudrait un certain effort pour élaborer une réponse.
Neil Slater

Réponses:


6

J'ai une vision assez sombre des humains en tant qu'espèce et j'ai proposé un test de Turing inversé par lequel les humains sont évalués pour une humanité suffisante ( ). (je plaisante, mais pas entièrement;)

Les humains ne sont clairement pas les espèces les plus prospères sur terre si vous utilisez la biomasse:

entrez la description de l'image ici

Je suis tout à fait d'accord pour dire que les formes de vie moins complexes sont très efficaces et méritent d'être émulées pour des problèmes spécifiques (voir les algorithmes d'optimisation des colonies Ant comme exemple.)

Mais à quoi ressemble un monde dirigé par des fourmis? Est-ce un monde dans lequel nous voulons vivre?

Non seulement la compétition dans la nature est absolument brutale, mais cette brutalité est le mécanisme par lequel les espèces sont optimisées (évolution).

Les humains sont imparfaits, mais nous avons également réalisé de grands triomphes, et ce qui peut nous séparer des animaux, c'est que nos succès peuvent également tomber dans la catégorie des "triomphes de l'esprit". Là où il y a des forces d'égoïsme et d'avidité conduisant la société dans une direction, nous avons également la contre-force, poussant dans des directions alternatives.

Certains jeux sont tout simplement à somme nulle et il n'y a pas moyen de contourner cela, mais cela ne signifie pas qu'ils doivent être "tout ou rien" (Nous recommandons le Sudoku partisan aux échecs précisément pour cette raison.)

Il existe un concept qui mérite d'être étudié, appelé efficacité Pareto . La spéculation financière, sur laquelle une grande partie de l'économie mondiale semble désormais basée, dépend du principe du «plus grand imbécile» , selon lequel un agent bénéficie entièrement de la perte d'un autre agent. Les pires d'entre nous semblent se concentrer sur ces mécanismes à l'exclusion de tous les autres car ils ne nécessitent aucun engagement réel, simplement une analyse plus solide et / ou une meilleure information, et de la liquidité.

Ce que les meilleurs d'entre nous semblent atteindre, c'est l'amélioration de Pareto, grâce à laquelle les agents peuvent être améliorés sans que d'autres agents soient aggravés.

Le point ici est qu'il a fallu l'intelligence humaine pour identifier et définir ces conditions. (La nature s'en fout.) L'optimalité de Pareto a été controversée en raison de son origine, mais c'était avant l'industrie technologique, qui est très bonne pour créer de nouvelles opportunités, et il me semble qu'elle peut également être utilisée pour équilibrer la distribution des ressources aux essayez de maximiser la stabilité sociale. (C'est-à-dire qu'il peut parfois être plus optimal d'être un peu plus mal loti.)

Ma vision lugubre de notre espèce ne vient pas d'être inefficace ou, souvent, stupide, mais de l'idée qu'à ce stade de l'histoire, nous agissons toujours comme si nous venions de descendre des arbres, régressant plutôt vers le tribalisme et les conflits partisans. de coopération.

Contrairement à votre thèse:

  • Je crois qu'il est non seulement important d'atteindre l'intelligence algorithmique au niveau humain, mais il nous incombe "d'humaniser" ces algorithmes dans toute la mesure du possible.

La superintelligence et l'AGI sont toujours à l'horizon et tout à fait théoriques, mais, s'ils sont atteints et que ces algorithmes sont de purs mécanismes, dépourvus des valeurs que nous, humains, au mieux, chérissons, nous pourrions finir par devenir simplement une autre victime du processus évolutif , dépassé par de nouvelles formes de vie artificielle, nous n'avons aucune chance de rivaliser.

Dans un certain sens, le mouvement vers un être humain peut être considéré comme une célébration de l'humanité, plus sophistiquée, mais pas entièrement différente de l'esprit que le David de Michel-Ange.


@DouglasDaseeco En fait, j'aime beaucoup votre question b / c Je suis 100% d'accord avec vous en ce qui concerne l'utilité / l'avantage général des fonctions de "bas niveau". Une partie de mon propre projet consiste à évaluer les performances d'heuristiques généralisées par rapport à des algorithmes d'apprentissage sur certains ensembles de problèmes où le temps / les ressources sont sévèrement limités, et, en particulier, où la topologie du problème actuel n'est pas connue à l'avance. Quand les décisions économiques saines mais moins optimales prises plus rapidement produisent-elles plus d'avantages globaux que des décisions plus optimales qui nécessitent plus de ressources et de temps?
DukeZhou

@DouglasDaseeco Sur le front de la "mythologie de l'IA", quelques-uns des principaux auteurs tels que Stephenson et Gibson se sont récemment intéressés davantage au type d'intelligence limitée que vous décrivez. (Stephenson a une formation en ingénierie et n'a jamais été intéressé par AGI, mais Gibson s'est fait un nom à ce sujet dans ses premiers livres.)
DukeZhou

@DouglasDaseeco D'accord. Il convient également de noter que le consensus général de notre espèce semble que le génocide est un anathème, et nous avons commencé à réfléchir à l'importance de la biodiversité, avec un certain effort pour conserver les espèces menacées. Je pense que si jamais nous tombions de notre position au sommet de la chaîne alimentaire, ce serait une très bonne chose si tout ce qui nous remplaçait partageait ces objectifs b / c, nous pourrions être ceux qui ont besoin de protection! (Je trouve Philip K. Dick le plus saillant parce que son hypothèse est que l'empathie est une fonction naturelle d'une intelligence suffisamment avancée.)
DukeZhou

3

Bien que la nature humaine ait beaucoup de défauts, elle a certainement été la plus réussie tant qu'elle existe, comme l'a souligné @DukeZhou. Le succès peut être entièrement et entièrement fait allusion au fait que nous avons un cerveau très fonctionnel et capable. Par rapport à d'autres espèces, nous sommes physiquement (prouesses physiques) beaucoup plus incapables. Donc, si nous essayons de créer une IA, ne devrions-nous pas essayer de modéliser notre propre cerveau, le meilleur système intelligent qui soit?

La seule chose que vous avez manqué, c'est que les humains sont beaucoup plus pacifiques que tous les autres animaux. Les animaux sont dans une guerre constante pour leur survie, nous, les humains, avons pu surmonter tout cela et nous avons vécu les moments les plus paisibles de tout le millénaire. Des conflits peuvent survenir, cela peut être attribué à nos gènes. Nos gènes proviennent de nos ancêtres animaux, où ils visualisent beaucoup de choses comme des menaces (y compris les mêmes espèces d'animaux de sexe opposé, le processus de pensée opposé peut également être perçu comme une menace). Il est donc lié à s'infiltrer dans notre mentalité. Pouvons-nous le changer? Peut-être non (cela va peut-être à l'encontre des lois de la nature et de la sélection naturelle).

Voyons 2 cas où il n'y avait pas de concurrence:

  • Jarawas - Ces personnes vivent isolées sur une île (même maintenant). En conséquence, ils vivent toujours un mode de vie de chasseur-cueilleur, ce qui peut être attribué au fait qu'ils ne ressentaient pas le besoin de changer car ils ne voyaient aucune menace pour leur vie ou leur position. Puisque nous sommes sages, nous n'envahissons pas leurs territoires en sachant qu'ils ne dureraient pas contre la technologie moderne (également parce qu'ils ne représentent aucune menace pour nous).
  • Amérindiens : Pendant que l'Europe et l'Asie étaient en guerre, ces gens vivaient sur une île (avec seulement des luttes intestines). En conséquence, leurs technologies ont à peine évolué et elles ont presque été anéanties.

Les fourmis et les abeilles étant coopératives sont un terme inapproprié pour moi. Cela est entièrement dû au fait que toutes les fourmis / abeilles d'une colonie particulière sont des frères et sœurs (sinon elles abattent brutalement d'autres colonies). De plus, ils maintiennent des limites territoriales tant qu'il y a d'abondantes ressources à l'intérieur, sinon il y a une guerre (je ne peux citer aucune source mais j'ai entendu beaucoup de fourmis envahir les territoires d'autres fourmis).

Les bactéries n'ont ni douleur ni peur, mais dire qu'elles ont existé longtemps grâce à la coopération ne me semble pas tout à fait correct. Ils ont probablement un mécanisme de survie efficace.

Le point de tout cela est qu'il n'y a pas d'image rose du royaume animal comme l'a dit @Neil Slater.

En ce qui concerne la façon dont nous devrions créer le comportement d'une IA? Les IA n'ont pas de gènes pour le moment, elles n'ont donc aucune obligation envers sa progéniture et n'auront aucune jalousie, cela signifie qu'elles n'ont pas les éléments de base d'un organisme biologique (et n'ont donc aucune obligation / intérêt envers lui). Mais je crois que la concurrence est bonne parmi l'IA, sinon comment vont-ils apprendre de nouvelles stratégies? La concurrence sans jalousie est donc le meilleur scénario pour les agents de l'IA (ce n'est peut-être pas le cas dans le royaume animal). s'il n'y a pas de concurrence, les connaissances parmi les IA stagneront probablement.

Je ne suis pas un expert en théorie des jeux, mais si 2 agents ou plus se font concurrence, ils doivent suivre la théorie des jeux pour maximiser leurs résultats (indiquant probablement l'efficacité de Pareto comme l'a souligné @DukeZhou, ou du point de vue physique, l'énergie n'est ni créée ni détruite). , distribué uniquement de système à système). Mais il y a un hic ici, il existe de multiples stratégies viables qui dépendent entièrement de l'environnement . C'était un sujet qui a été étudié par les informaticiens Axelrod et Hamilton où ils ont testé plusieurs stratégies. Une version simplifiée de leurs expériences peut être trouvée dans The Selfish Genelivre chapitre 12. Leurs expériences (simulées sur un ordinateur) donnent apparemment des preuves que les gars sympas (les gars qui font des faveurs inconditionnelles) ne perdent pas toujours les gars égoïstes. Cela doit être approfondi si nous voulons réellement créer une colonie d'IA.

TL; DR : Il est injuste de comparer l'IA avec le règne animal car ils n'ont pas l'unité de survie de base (le gène). Les humains sont de loin les plus intelligents et les plus pacifiques de tout le règne animal. La compétition sans jalousie est probablement le meilleur plan d'action dans n'importe quelle colonie ou espèce.


1
Dans la théorie des jeux, l'équilibre de Nash est un point stable et l'efficacité de Pareto est une mesure de l'utilité totale. Le dilemme du prisonnier est un bon exemple où les deux ne sont pas maximisés de la même manière; le point logique minimax a les deux prisonniers défectueux, mais l'utilité totale maximale se produit lorsque les deux prisonniers coopèrent. Malheureusement, de nombreux systèmes concurrents ont cette différence entre les optimets de Pareto et de Nash.
Neil Slater du

@NeilSlater axelrod a enquêté sur le dilemme des prisonniers dans un sens plus large ... apparemment, il avait des résultats intéressants
DuttaA

0

Certaines caractéristiques de l'intelligence humaine font certainement partie de l'objectif à long terme de l'IA. La plupart de ces caractéristiques sont évidemment aussi des propriétés d'autres espèces. Une question vraiment cruciale est de savoir comment un ordinateur pourrait-il percevoir non seulement à la manière d'un être humain, mais aussi percevoir? Les symboles émis par les capteurs numériques n'indiquent pas ce qui a été détecté. Tout ce que l'ordinateur obtient, ce sont les symboles, alors comment un ordinateur pourrait-il percevoir quoi que ce soit?

Un autre problème vraiment crucial est que les humains et probablement la plupart des autres animaux ont dans une certaine mesure une intelligence générale - peuvent appliquer ce qui a été appris dans le passé à de nouvelles situations. Avec les humains, il existe une version du problème des connaissances générales qui s'applique au langage, c'est donc une question purement humaine. Mais de nombreux animaux ont clairement une sorte de connaissances générales. L'IA n'a pas encore produit de machine de culture générale. Les effets désastreux des «cas marginaux» sur les logiciels d'IA de véhicules autonomes, en sont une preuve très inquiétante. Comment obtenir une intelligence générale est également un problème absolument fondamental.

Donc, pour résumer ma réponse: à l'heure actuelle, une intelligence humaine n'est pas l'objectif intelligent. L'IA a des problèmes beaucoup plus fondamentaux. L'objectif intelligent à l'heure actuelle est de comprendre les principes de la perception et comment les incarner dans un ordinateur (en supposant que cela soit possible), et de comprendre les principes de l'intelligence générale et comment les incarner.

C'est-à-dire déterminer comment les animaux connaissent leur environnement et comment ils réagissent adéquatement aux situations nouvelles sur la base de l'expérience passée.


La vue très courante de roadkill démontre très clairement que de nombreux animaux souffrent des effets désastreux des "cas de bord". La déclaration "Les symboles émis par les capteurs numériques n'indiquent pas ce qui a été détecté." est intéressante et soulève un noyau d'arguments qui sont l'IA pro ou anti-forte. Un neurobiologiste peut également dire "les signaux émis par les bâtonnets et les cônes oculaires, et les moteurs-neurones qui contrôlent les muscles n'indiquent pas ce qui a été détecté". C'est principalement notre expérience consciente personnelle qui donne un indice que quelque chose se passe. Mais nous ne comprenons pas ce que c'est.
Neil Slater

@Neil Slater Exactement, nous ne connaissons donc pas non plus les principes de la façon dont un cerveau organique obtient des structures sémantiques. Et il y a des impulsions neuronales qui indiquent ce qui a été détecté. Mais les cerveaux organiques font obtenir une sémantique. On pourrait penser que ce fait inciterait les gourous à découvrir ce qui ne va pas avec la chambre chinoise de Searle et sa prémisse que les symboles sont sémantiquement vacants. Bien sûr qu'ils le sont. Mais les impulsions neuronales aussi.
Roddus
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.