cliquer ici pour le résumé de 1000 mots --> L'argument de la chambre chinoise de Searle
Searle, J. R., & Duyckaerts, É. (1987). Document: Esprits, cerveaux et programmes. Quaderni, 1(1), 65-96.
Résumé : Cet article est une tentative d'explorer les conséquences de deux propositions. (1) L'intentionnalité chez les êtres humains (et les animaux) est le produit de caractéristiques causales du cerveau: certains processus cérébraux suffisent à l'intentionnalité. (2) Un programme d'ordinateur n'est jamais en soi une condition suffisante d'intentionnalité. L'argument principal de cet article vise à établir cette affirmation. La forme de l'argument est de montrer comment un agent humain pourrait implémenter le programme sans avoir toujours l'intentionnalité appropriée. Ces deux propositions ont les conséquences suivantes (3) L'explication de la façon dont le cerveau produit l'intentionnalité ne peut pas être qu'il le fait en mettant en œuvre un programme informatique. C'est une conséquence logique stricte de 1 et 2. (4) Tout mécanisme capable de produire une intentionnalité doit avoir des pouvoirs causaux égaux à ceux du cerveau. Ceci est censé être une conséquence insignifiante de 1. (5) Toute tentative de créer artificiellement une intentionnalité (IA forte) ne pourrait pas réussir simplement en concevant des programmes mais devrait dupliquer les pouvoirs causaux du cerveau humain. Cela découle de 2 et 4.
Harnad, S. (2001) What's Wrong and Right About Searle's Chinese RoomArgument? In: M. Bishop & J. Preston (eds.) Essays on Searle's Chinese Room Argument. Oxford University Press.
Lorsqu'en 1979, Zenon Pylyshyn, rédacteur en chef adjoint de The Behavioral and Brain Sciences (BBS, une revue de commentaires par les pairs que j'édite) m'a informé qu'il avait obtenu un article de John Searle (avec un titre peu engageant que Zenon, John et moi avons tous depuis oublié !), je ne peux pas dire que j'ai été particulièrement impressionné ; et une lecture rapide du bref manuscrit - qui semblait être une autre "objection de grand-mère" fastidieuse sur le pourquoi/comment nous ne sommes pas des ordinateurs - n'a rien fait pour améliorer cette impression.
L'article soulignait qu'un programme informatique « compréhension du chinois » ne comprendrait pas vraiment le chinois parce que quelqu'un qui ne comprendrait pas le chinois (par exemple, Searle lui-même) pourrait exécuter le même programme tout en ne comprenant pas le chinois ; par conséquent, l'ordinateur exécutant le programme ne comprendrait pas non plus le chinois. L'article a réfuté divers contre-arguments prima facie contre cela (principalement des variantes sur le thème que ce ne serait pas Searle mais "le système", dont Searle ne serait qu'une partie, ce serait en effet comprendre le chinois lorsque le programme était exécuté), mais tout cela me semblait trivial : oui, bien sûr, un programme inerte seul ne pouvait rien comprendre (donc Searle avait raison à ce sujet), mais sûrement un programme d'exécution pourrait faire partie de ce qu'un « système » compréhensif comme nous fait vraiment et est (donc la "réponse du système" avait également raison).
L'article a été évalué (favorablement) et accepté sous le titre révisé "Minds, Brains, and Programs", distribué à une centaine de commentateurs potentiels dans toutes les disciplines et dans le monde, puis copublié en 1980 dans BBS avec vingt-sept commentaires et la réponse de Searle. Au cours des années qui ont suivi, d'autres commentaires et réponses ont continué d'affluer car, à ma grande surprise, l'article de Searle est devenu l'article cible le plus influent du BBS (et l'est toujours à ce jour) ainsi qu'un classique des sciences cognitives. (Lors de la Conférence de Rochester sur les programmes cognitifs (Lucas & Hayes 1982), Pat Hayes est allé jusqu'à définir les sciences cognitives comme "le programme de recherche en cours visant à montrer que l'argument de la salle chinoise de Searle est faux" -- "et idiot", je crois avait-il ajouté à l'époque).
Alors que les arguments et les contre-arguments n'arrêtaient pas d'augmenter au fil des ans, je me suis irrité d'être le seul sur la planète à ne pas avoir le droit (d'office, étant l'arbitre) d'essayer, même si je sentais que je pouvais régler le wagon de Searle si j'en avais l'occasion. , et mettre un terme à la polémique plutôt répétitive et non résolue. À la fin des années 80, je préparais ma propre critique, intitulée "Minds, Machines and Searle" (d'après "Minds, Machines, and Gödel", de Lucas [1961], un autre philosophe affirmant que nous ne sommes pas des ordinateurs), mais pas sûr où le publier (le BBS étant hors de question). L'une des accusations portées contre Searle par ses détracteurs était que sa critique erronée avait étouffé le financement de l'intelligence artificielle (IA), de sorte que le nouveau Journal of Experimental and Theoretical Artificial Intelligence (JETAI) semblait un lieu raisonnable pour ma propre critique de Searle, qui y parut donc en 1989.
Je n'ai jamais rien entendu de Searle au sujet de ma critique de JETAI, même si nous interagissions encore régulièrement en relation avec le Commentaire continu incessant sur son argument de chambre chinois (CRA) dans BBS, ainsi qu'un tout nouvel article cible de BBS (Searle 1990a) qui il a écrit spécifiquement pour souligner le 10e anniversaire de la SCR. Cette incapacité à entrer dans la mêlée aurait été beaucoup plus frustrante pour moi si un média radicalement nouveau pour Open Peer Commentary ne s'était pas ouvert en même temps : on m'avait attiré l'attention sur le fait que depuis le début des années 80, l'ARC avait été un sujet principal sur "comp.ai", un groupe de discussion sur Usenet. (Ce Global Graffiti Board for Trivial Pursuit devait avoir de multiples influences sur moi et BBS, et sur le futur cours de Learned Inquiry et Learned Publication, mais c'est une autre histoire [Harnad 1990a, 1991b; Hayes et al., 1992] nous ne nous intéressons ici qu'à son influence sur la saga Searle).
Se connecter à comp.ai au milieu des années 80 avec l'intention d'essayer de résoudre le débat avec ma propre critique quelque peu œcuménique de Searle (Searle a raison de dire qu'un programme d'exécution ne peut pas être tout ce qu'il y a à être un système de compréhension, mais à tort que un programme d'exécution ne peut pas faire partie d'un système de compréhension), à ma grande surprise, j'ai trouvé comp.ai étouffé par une telle litanie d'arguments anti-Searle incroyablement mauvais que j'ai trouvé que je devais passer tout mon temps d'antenne à défendre Searle contre ces non -starters au lieu de l'enterrer, comme j'avais l'intention de le faire. (Searle l'a remarqué cette fois, car apparemment il s'est également connecté à comp.ai à l'époque, m'encourageant [hors ligne] à continuer à mener le bon combat - ce qui m'a intrigué, car j'étais convaincu que nous étions sur des côtés opposés ).
Je n'ai jamais eu le temps d'enterrer Searle, car quand, après des mois à ne jamais essayer de clarifier les choses en réfutant les mauvaises réfutations à l'ARC, j'ai supplié Searle [hors ligne] de lire mon 'Minds, Machines and Searle' et sachez que nous étions des adversaires plutôt que des compagnons d'armes, malgré les apparences contraires sur comp.ai. Il m'a répondu que bien que mon article contienne des points sur lesquels des hommes raisonnables pourraient accepter de ne pas être d'accord, sur le point essentiel, celui que tout le monde était occupé à contester, je suis en fait d'accord avec lui -- alors pourquoi ne pas simplement sortir et le dire?
C'est alors que le jeton est tombé. Car il y avait quelque chose dans l'argument de la salle chinoise qui m'avait été évidemment juste depuis le début, et j'avais donc tout à fait pris cette partie pour acquise, me concentrant plutôt sur ce que je pensais que Searle avait tort; pourtant ce point d'accord essentiel était celui-là même que tout le monde contestait ! Et ne vous y trompez pas, si vous avez répondu à un sondage - dans le premier tour du commentaire BBS, dans le commentaire continu, sur comp.ai ou dans la littérature secondaire sur l'argument de la salle chinoise qui s'est accumulée au cours des deux décennies pour aujourd'hui (et culminant dans le présent livre) - l'écrasante majorité pense toujours que l'argument de la chambre chinoise est tout à fait faux, même parmi ceux qui conviennent que les ordinateurs ne peuvent pas comprendre ! En fait (je suis ouvert à la correction sur ce point), j'ai l'impression que, à part moi, les seuls qui professent accepter la validité du CRA semblent être ceux qui sont également persuadés par ce que j'ai appelé plus tôt les "objections de grand-mère". " -- le genre d'amis à la tête douce qui font encore plus de mal à son cas que ses ennemis.
Alors, qu'est-ce que cette ARC, et qu'y a-t-il de bien et de mal à ce sujet ? Searle est certainement en partie responsable des deux décennies de malentendus concernant son argumentation sur la compréhension. Il n'a pas toujours dit les choses de la façon la plus claire. Pour commencer, il a baptisé comme cible une position que personne n'était tout à fait prêt à posséder pour être la sienne : "Strong AI".
Qu'est-ce que "l'IA forte" ? Comme distillé des différentes incarnations successives du CRA (oral et écrit : Searle 1980b, 1982, 1987, 1990b), les partisans de Strong AI sont ceux qui croient en trois propositions :
(1*) L'esprit est un programme informatique.
(2*) Le cerveau n'est pas pertinent.
(3*) Le test de Turing est décisif.
C'est ce trio de principes que l'ARC entendait réfuter. (Mais bien sûr, tout ce qu'il pouvait réfuter était leur conjonction. Certains d'entre eux pourraient encore être vrais même si le CRA était valide). Je vais maintenant reformuler (1*) - (3*) afin qu'ils soient les principes reconnaissables du computationalisme, une position (contrairement à "Strong AI") qui est en fait défendue par de nombreux penseurs, et donc qui mérite d'être réfutée, si elle est fausse (Newell 1980; Pylyshyn 1984; Dietrich 1990).
Le calculalisme est la théorie selon laquelle la cognition est un calcul, que les états mentaux ne sont que des états computationnels. En fait, c'est ce que le principe (1) aurait dû être :
(1) Les états mentaux ne sont que des implémentations du (des bon) programme(s) informatique(s). (Autrement dit : les états mentaux ne sont que des états computationnels).
Si (1*) avait été formulé de cette manière en premier lieu, il aurait devancé les objections selon lesquelles le code inerte n'est pas un esprit : bien sûr, les symboles sur une feuille de papier ou sur un disque ne sont pas des états mentaux. Le code - le bon code (en supposant qu'il existe) - doit être exécuté sous la forme d'un système dynamique s'il doit s'agir d'un état mental.
Le deuxième principe a conduit à encore plus de malentendus. Comment le cerveau peut-il être sans rapport avec les états mentaux (surtout les siens !) ? Doit-on croire que si l'on enlève le cerveau, ses états mentaux perdurent quelque part, comme le sourire du chat du Cheshire ? Ce que Searle voulait dire, bien sûr, n'était que la distinction matériel/logiciel standard : un état computationnel est indépendant de l'implémentation. Venons-nous de contredire le principe (1) ?
(2) Les états computationnels sont indépendants de l'implémentation. (Le logiciel est indépendant du matériel).
Si nous combinons (1) et (2), nous obtenons : les états mentaux ne sont que des implémentations indépendantes de la mise en œuvre des programmes informatiques. Ce n'est pas contradictoire. Le programme informatique doit être physiquement implémenté en tant que système dynamique afin de devenir l'état computationnel correspondant, mais les détails physiques de l'implémentation ne sont pas pertinents pour l'état computationnel qu'ils implémentent - sauf qu'il doit y avoir une certaine forme d'implémentation physique . Des systèmes physiques radicalement différents peuvent tous implémenter un seul et même système de calcul.
L'indépendance de la mise en œuvre fait en effet partie à la fois de la lettre et de l'esprit du calculalisme. Il fut même un temps où les informaticiens pensaient que la distinction matériel/logiciel éclairait (si elle ne résolvait pas carrément) le problème esprit/corps : la raison pour laquelle nous avons ce problème de longue date pour comprendre comment les états mentaux pouvaient être juste des états physiques, c'est qu'ils ne le sont pas ! Les états mentaux ne sont que des états computationnels, et les états computationnels sont indépendants de l'implémentation. Ils doivent être physiquement mis en œuvre, bien sûr, mais ne cherchez pas la mentalité en la matière (le matériel) : c'est le logiciel (le programme informatique) qui compte.
Si Searle avait formulé le deuxième principe du computationalisme de cette manière explicite, non seulement la plupart des informaticiens de l'époque auraient dû se reconnaître comme sa cible légitime, non seulement cela aurait repoussé les faux-fuyants quant à la non-pertinence des cerveaux pour leur propre mental. états, ou sur le fait qu'il n'y avait aucun besoin d'une implémentation physique, mais cela aurait clairement exposé le ventre mou du calculalisme, et donc la véritable cible du CRA de Searle : car c'est précisément sur la force de l'indépendance de la mise en œuvre que le calculalisme rester debout ou tomber.
La propriété critique est la transitivité : si toutes les implémentations physiques d'un seul et même système de calcul sont effectivement équivalentes, alors lorsque l'une d'entre elles a (ou manque) une propriété de calcul donnée, il s'ensuit qu'elles le font toutes (et, selon le principe (1 ), être un état mental n'est qu'une propriété de calcul). Nous y reviendrons. C'est ce que j'ai appelé « le périscope de Searle » sur la barrière normalement impénétrable des « autres esprits » (Harnad 1991a) ; c'est aussi ce ventre mou du computationalisme. Mais d'abord, nous devons fixer le principe (3 *).
En fait, textuellement, le principe (3*) n'est pas tant trompeur (dans le sens où (1*) et (2*) étaient trompeurs) qu'il est incomplet. Il aurait dû se lire :
(3) Il n'y a pas de test empirique plus fort pour la présence d'états mentaux que l'indiscernabilité de Turing ; par conséquent, le test de Turing est le test décisif pour une théorie computationnelle des états mentaux.
Cela n'implique pas que réussir le test de Turing (TT) soit un garant d'avoir un esprit ou que l'échouer soit un garant d'en manquer. Cela signifie simplement que nous ne pouvons pas faire mieux que le TT, empiriquement parlant. Quelle que soit la réalité de la cognition - qu'il s'agisse simplement de calcul, ou quelque chose de plus, ou autre chose - la science cognitive ne peut jamais être qu'une forme de "rétro-ingénierie" (Harnad 1994a) et la rétro-ingénierie n'a que deux types de données empiriques en passant : structure et fonction (cette dernière incluant toutes les capacités de performance). En raison du principe (2), le computationalisme a évité la structure ; cela ne laisse que la fonction. Et le TT demande simplement une équivalence fonctionnelle (en fait, une indiscernabilité fonctionnelle totale) entre le candidat rétro-conçu et la chose réelle.
Considérez la rétro-ingénierie d'un canard : un canard rétro-ingénierie devrait être impossible à distinguer d'un vrai canard à la fois structurellement et fonctionnellement : il devrait non seulement marcher, nager et cancaner (etc.) exactement comme un canard, mais il devrait aussi doivent ressembler exactement à un canard, tant à l'extérieur qu'à l'intérieur. Personne ne pouvait se quereller avec un candidat rétro-conçu avec succès comme ça; personne ne peut nier qu'une compréhension complète du fonctionnement de ce candidat équivaudrait également à une compréhension complète du fonctionnement d'un vrai canard. En effet, personne ne pouvait demander plus.
Mais on pourrait demander moins, et un fonctionnaliste pourrait se contenter de la marche, de la nage et du charlatanisme (etc., y compris tout ce qu'un canard peut faire d'autre), mais en ignorant la structure, c'est-à-dire à quoi elle ressemble, sur le à l'intérieur ou à l'extérieur, de quel matériau il est fait, etc. Appelons le premier type de canard rétro-conçu, celui qui est totalement indiscernable d'un vrai canard, à la fois structurellement et fonctionnellement, D4, et celui qui est indiscernable seulement fonctionnellement, D3.
Notez, cependant, que même pour D3, tous les détails structurels ne seraient pas sans importance : pour marcher comme un canard, quelque chose comme deux appendices en peluche sont nécessaires, et pour nager comme un seul, ils feraient mieux d'être quelque chose comme des palmés aussi. Mais même avec ces contraintes de couplage structure/fonction, viser la seule équivalence fonctionnelle laisse encore de nombreux degrés de liberté structurels ouverts. (Ces degrés de liberté se réduiraient encore plus si nous devenions plus minutieux au sujet de la fonction - mue, accouplement, digestion, immunité, reproduction - d'autant plus que nous approchions du niveau de la fonction cellulaire et subcellulaire. Il y a donc vraiment un continuum microfonctionnel entre D3 et D4 ; mais laissons cela de côté pour l'instant et restons-en à la macrofonction D3, principalement sous la forme de capacités de performance).
Le test de Turing est-il juste l'équivalent humain du D3 ? En fait, la version "correspondant" du TT, telle que Turing (1950) l'a formulée à l'origine, était encore plus macrofonctionnelle que cela - c'était l'équivalent de D2, nécessitant que le canard cancane. Mais dans le cas humain, le "charlatanisme" est une capacité de performance plutôt plus puissante et générale, et certains considèrent que son plein pouvoir expressif équivaut à, ou du moins qu'il s'appuie sur, notre pleine capacité cognitive (Fodor 1975 ; Harnad 1996a).
Appelons donc la version correspondante du test de Turing T2. Pour réussir le T2, un candidat rétro-conçu doit être Turing-indiscernable d'un vrai correspondant. Le principe de Searle (3) pour le calculalisme est à nouveau un peu équivoque ici, car il stipule que TT est le test décisif, mais cela signifie-t-il T2 ?
C'est le point où des hommes raisonnables pourraient commencer à être en désaccord. Mais supposons que ce soit T2 pour l'instant, en partie parce que c'est la version que Turing a décrite, et en partie parce que c'est celle que les informaticiens se sont montrés prêts à défendre. A noter que T2 couvre toutes les capacités cognitives qui peuvent être testées par des tests papier/crayon (raisonnement, résolution de problèmes, etc.) ; seules les capacités sensorimotrices (c'est-à-dire robotiques) (T3) sont omises. Et les capacités du correspondant sont à la fois grandeur nature et permanentes : le candidat doit pouvoir les déployer avec n'importe qui, indéfiniment, comme le ferait un vrai correspondant ; il ne s'agit pas ici de tours de passe-passe d'un soir (Harnad 1992) mais d'une réelle capacité de performance à taille humaine, indiscernable de la nôtre (Harnad 2000a).
Nous reformulons maintenant l'argument de la chambre chinoise de Searle en ces nouveaux termes : supposons que le calculalisme est vrai, c'est-à-dire que les états mentaux, tels que la compréhension, ne sont en réalité que des implémentations indépendantes de la mise en œuvre des états computationnels, et donc qu'un ordinateur passant par T2 serait ( entre autres) comprendre.
Notez qu'il existe de nombreuses façons de rejeter cette prémisse, mais recourir à l'une d'entre elles revient à accepter la conclusion de Searle, à savoir qu'un ordinateur passant par T2 ne comprendrait pas. (Sa conclusion est en fait plus forte que cela - trop forte, en fait - mais nous y reviendrons comme un autre des points sur lesquels des hommes raisonnables peuvent être en désaccord). Donc, si l'on rejette la prémisse qu'un ordinateur pourrait jamais passer T2, on fait le jeu de Searle, comme on le fait si l'on soutient que T2 n'est pas un test assez fort, ou que les détails de mise en œuvre ont de l'importance.
Alors acceptons la prémisse et voyons comment Searle arrive à sa conclusion. C'est là, après tout, que la plus grande partie de la chaleur des vingt dernières années a été générée. Searle va directement au ventre mou du computationalisme : l'indépendance de la mise en œuvre (principe (2)). En raison de (2), toute mise en œuvre de ce programme de passage en T2 doit avoir les états mentaux en question, s'il ne s'agit vraiment que d'états computationnels. En particulier, chacun d'eux doit comprendre. Assez juste. Mais maintenant, Searle fait ressortir sa pompe à intuition, ajoutant que nous devons imaginer cet ordinateur comme passant T2 en chinois ; et on nous demande de croire (parce que c'est vrai) que Searle lui-même ne comprend pas le chinois. Il ne reste plus qu'à noter que si Searle lui-même exécutait le programme informatique, il ne comprendrait toujours pas le chinois. Par conséquent (par (2)) l'ordinateur non plus, exécutant le même programme. Q.E.D. Le computationalisme est faux.
Maintenant, tout comme ce n'est pas une réfutation (mais plutôt une affirmation) de l'ARC que de nier que T2 est un test suffisamment fort, ou de nier qu'un ordinateur puisse jamais le réussir, c'est simplement un plaidoyer spécial pour essayer de sauver le calcul en stipulant ad hoc (face à l'ARC) que les détails de mise en œuvre comptent après tout, et que celui de l'ordinateur est le « bon » type de mise en œuvre, tandis que celui de Searle est le « mauvais » type. Cela revient à admettre que le principe (2) est faux après tout.
De la même manière, il ne sert à rien d'essayer de sauver le calcul en soutenant que Searle serait trop lent ou incompétent pour mettre en œuvre le programme de passage T2. Ce n'est pas un problème en principe, donc ce n'est pas une clause échappatoire pour le calculalisme. Certains ont fait un culte de la vitesse et du timing, estimant que, lorsqu'il est accéléré à la bonne vitesse, le calcul peut faire une transition de phase vers le mental (Churchland 1990). Il devrait être clair qu'il ne s'agit pas d'un contre-argument, mais simplement d'une spéculation ad hoc (tout comme l'opinion selon laquelle tout n'est qu'une question d'augmenter jusqu'au bon degré de "complexité").
Sur comp.ai (et même dans le commentaire original de 1980 sur Searle), certains de ces contre-arguments ad hoc ont été faiblement exprimés, mais de loin les plus tenaces des réfutations potentielles étaient des variantes de la réponse systémique, à l'effet qu'elle était déraisonnable de supposer que Searle devait être compréhensif dans ces conditions ; il ne serait qu'une partie du système de mise en œuvre, alors que ce serait le système dans son ensemble qui ferait la compréhension.
Encore une fois, il est regrettable que dans la formulation originale de l'ARC, Searle ait décrit la mise en œuvre du programme de passage T2 dans une pièce à l'aide de symboles et de règles de manipulation de symboles écrits partout sur les murs, car cela a ouvert la porte à la réponse des systèmes. Il a offert une réfutation préventive, dans laquelle il a suggéré aux systématistes que s'ils étaient vraiment prêts à croire que, alors que lui seul ne serait pas compréhensif dans ces conditions, la "salle" dans son ensemble, composée de lui et du symbole -des murs jonchés, seraient compréhensifs, alors ils devraient simplement supposer qu'il avait mémorisé tous les symboles sur les murs ; alors Searle lui-même serait tout ce qu'il y avait dans le système.
Cette variante décisive n'a pas empêché certains systématistes de recourir au contre-argument encore plus ad hoc selon lequel même à l'intérieur de Searle il y aurait un système, consistant en une configuration différente des parties de Searle, et que ce système serait en effet compréhensif. Cela revenait à conjecturer qu'à la suite de la mémorisation et de la manipulation de très nombreux symboles dénués de sens, la compréhension du chinois serait induite soit consciemment chez Searle, soit, à la manière d'une personnalité multiple, dans une autre entité consciente de compréhension du chinois à l'intérieur de sa tête. que Searle ignorait.
Je ne m'attarderai sur aucun de ces actes héroïques ; qu'il suffise de dire que même le créationnisme pourrait être sauvé par des spéculations ad hoc de cet ordre. (Ils montrent seulement que le CRA n'est pas une preuve ; pourtant, il reste la seule prédiction plausible basée sur ce que nous savons). Un pari plus intéressant consistait à concéder qu'aucune compréhension consciente ne se produirait dans ces conditions, mais que la compréhension inconsciente le serait, en vertu des calculs.
Ce dernier n'est pas une spéculation arbitraire, mais une notion révisée de la compréhension. Searle n'a vraiment aucune défense contre cela, car, comme nous le verrons (bien qu'il ne l'admette pas explicitement), la force de son ARC dépend entièrement du fait que la compréhension est un état mental conscient, dont on peut consciemment la présence ou l'absence (et donc honnêtement) vérifier et attester (le périscope de Searle). Mais Searle n'a pas non plus besoin de défense contre cette notion révisée de compréhension, car cela n'a de sens que de parler d'états mentaux inconscients (si cela a du sens) dans une entité autrement consciente. (Searle se dirigeait vers cette position dix ans plus tard en 1990a).
Les états inconscients dans les entités non conscientes (comme les grille-pain) ne sont pas du tout une sorte d'état mental. Et même dans les entités conscientes, les états mentaux inconscients feraient mieux d'être brefs ! Nous sommes prêts à croire que nous « connaissons » un numéro de téléphone lorsque, incapables de nous en souvenir consciemment, nous constatons que nous pouvons néanmoins le composer lorsque nous laissons nos doigts faire le tour. Mais se trouver capable d'échanger des lettres impénétrables toute sa vie avec un correspondant de cette manière ressemblerait plutôt à du somnambulisme ou au parler en langues (même le syndrome neurologique de "l'écriture automatique" n'a rien à voir avec cela ; Luria 1972) . Ce n'est certainement pas ce que nous entendons par "comprendre une langue", ce qui signifie sûrement une compréhension consciente.
La synonymie du "conscient" et du "mental" est au cœur du CRA (même si Searle n'en est pas encore pleinement conscient -- et même s'il l'a obscurcie en utilisant constamment le mot fouine "intentionnel" dans son lieu !) : Normalement, si quelqu'un prétend qu'une entité -- n'importe quelle entité -- est dans un état mental (a un esprit), il n'y a aucun moyen que je puisse le confirmer ou l'infirmer. C'est le problème des "autres esprits". Nous le « résolvons » les uns avec les autres et avec des espèces animales qui nous ressemblent suffisamment grâce à ce que l'on appelle la « lecture de l'esprit » (Heyes 1998) dans la littérature depuis qu'elle a été introduite pour la première fois dans le BBS deux ans avant l'article de Searle (Premack & Woodruff 1978). Mais bien sûr, la lecture de l'esprit n'est pas vraiment de la télépathie, mais du Turing-Testing - des inférences préparées biologiquement et de l'empathie basée sur des similitudes avec notre propre apparence, nos performances et nos expériences. Mais le TT n'est bien sûr pas une garantie ; elle ne donne rien de comparable à la certitude cartésienne que nous avons de nos propres états mentaux.
Pouvons-nous jamais expérimenter directement les états mentaux d'une autre entité ? Pas à moins que nous ayons un moyen de devenir réellement cette autre entité, et cela semble être impossible - à une exception très spéciale, à savoir, ce ventre mou du calcul : car bien que nous ne puissions jamais devenir une autre entité physique que nous-mêmes, s'il y a sont en effet des états mentaux qui se produisent uniquement en vertu d'être dans le bon état computationnel, alors si nous pouvons entrer dans le même état computationnel que l'entité en question, nous pouvons vérifier si oui ou non elle a les états mentaux qui lui sont imputés. C'est le périscope de Searle, et un système ne peut s'en protéger qu'en ne prétendant pas être dans un état mental uniquement parce qu'il est dans un état computationnel -- ou en renonçant à la nature mentale de l'état computationnel, en concédant que c'est juste un autre état inconscient (ou plutôt non conscient) - rien à voir avec l'esprit.
Le calculalisme était très réticent à abandonner l'un ou l'autre de ces éléments; le premier serait passé à la conversion du calculalisme au "mise en œuvre" pour sauver le mental - et ce serait simplement de rejoindre le monde matériel des systèmes dynamiques, dont le calcul avait espéré faire abstraction. Le second serait allé jusqu'à renoncer complètement au mental.
Mais il y a aussi un sens dans lequel la réponse des systèmes a raison, car bien que l'ARC montre que la cognition ne peut pas être uniquement computationnelle, elle ne montre certainement pas qu'elle ne peut pas être computationnelle du tout. Ici, Searle semble avoir tiré des conclusions plus solides que ne le justifiait l'ARC. (Ce n'était pas nécessaire : montrer que les états mentaux ne peuvent pas être simplement computationnels était assez fort !) Mais il pensait avoir montré plus :
Searle pensait que l'ARC avait invalidé le test de Turing en tant qu'indicateur des états mentaux. Mais nous avons toujours su que le TT était faillible ; comme l'ARC, ce n'est pas une preuve. De plus, c'est seulement T2 (et non T3 ou T4 REFS) qui est vulnérable à l'ARC, et même cela uniquement pour le cas particulier d'un candidat purement informatique indépendant de la mise en œuvre. L'ARC ne s'opposerait pas à un système de transmission T2 non informatique; cela ne fonctionnerait pas non plus contre un système hybride, informatique / non informatique (REFS), pour la simple raison que dans aucun des cas Searle ne pourrait être le système entier; Le périscope de Searle échouerait. Non pas que les systématiciens devraient s'en réjouir, car si la cognition est hybride, le calculalisme est toujours faux.
Searle allait également trop loin en concluant que l'ARC redirige notre champ d'enquête du calcul vers la fonction cérébrale : il existe encore de nombreux degrés de liberté dans les approches hybrides et non computationnelles de la cognition par rétro-ingénierie sans nous contraindre à rétro-concevoir le cerveau. (T4). Les neurosciences cognitives ne peuvent donc pas non plus se fier au CRA. C'est seulement une approche très étroite qui a été discréditée : le computationalisme pur.
La contribution de Searle n'a-t-elle été que négative ? En montrant que la route purement computationnelle ne mènerait pas à Londres, nous a-t-il laissé aussi incertains qu'auparavant quant à la bonne route vers Londres ? Je ne pense pas, car sa critique a contribué à ouvrir les perspectives que l'on appelle maintenant la "cognition incarnée" et la "robotique située", et elles m'ont certainement poussé vers la voie hybride des systèmes de symboles ancrés dans le monde sensorimoteur (T3) avec les neurones. filets.
Et Granny s'est vue donner une raison beaucoup plus dure de croire ce qu'elle savait depuis le début : que nous ne sommes pas (seulement) des ordinateurs (Harnad 2000b, 2001).
Références (sont dans la version anglaise)
La chambre chinoise consiste qu’on donne un script chinois à un personne qui n’y comprends rien, puis on lui donne un livre de règles dans sa langue maternelle (l’anglais) qui lui permet d’associer ce qu’il comprend avec les symboles chinois, donc la personne peut transcrire le script sans avoir appris le chinois. On cherche à comprendre si l’IA forte (l'IA qu'on pense qui peut avoir une cognition humaine) peut avoir le même principe sans avoir été programmée. De ce que je comprends, on cherche à savoir si l’IA peut faire ses déductions par lui-même comme un humain.
ReplyDeleteLes différentes réponses données reviennent toutes au même argument que l’IA forte ne pourrait pas être autonome par lui-même sans les commandes d’un humain derrière chaque résultat qu’elle donne. L’IA va déchiffrer des symboles donnés par l’humain, mais ne comprendra pas la signification derrière chacun, donc cela revient un peu, mais pas complètement, à la machine de Turing. Je n’ai pas tout compris le sens en profondeur, mais c’est ce que j’ai surtout relevé de la lecture du premier article.
CORA-LEE, Avant d'afficher une ciélo, lire au moins le résumé de L'argument de la chambre chinoise de Searle
ReplyDeleteAvant d'afficher ta ciélo, il faut toujours lire les ciélos des autres (et surtout mes répliques) pour ne pas répéter ce qui a dèjà été dit.
DeleteCommencer chaque semaine en lisant le résumé (c. 1000 mots) au haut de sa page dans ce blogue. Préciser toujours sur quoi ta ciélo est basée: quelle lecture, ou quelle vidéo du cours?
Je viens de lire le résumé et je crois avoir compris la partie a propos qu'une IA forte ne peut pas avoir le même processus de pensé qu'un humain, mais je ne comprends pas les réfutations de Searl par rapport à la machine de turing
ReplyDeleteKORA-LEE, si tu ne comprends pas le résumé, lis les autres ciélos. Et tu peux aussi copier le texte du résumé à ChatGPT pour lui poser des questions à propos de l'Argument de Searle.
DeleteCe texte explique l’argument de la « chambre chinoise » de John Searle. Selon lui, suivre un programme informatique ne suffit pas pour comprendre ou penser. Une personne pourrait appliquer toutes les règles d’un programme sans comprendre le sens de ce qu’elle fait, donc l’ordinateur non plus ne comprendrait pas. L’auteur reconnaît que Searle a raison de dire que la pensée n’est pas seulement du calcul, mais il pense aussi que le calcul peut quand même faire partie de la pensée. L’article conclut que pour créer une vraie intelligence, il faudrait plus qu’un programme : il faudrait des capacités proches de celles du cerveau et du corps humains.
ReplyDeleteSARAH, c'est quel article que tu résumes ici? Et est-ce que tu as lu cliquer ici pour le résumé de 1000 mots --> L'argument de la chambre chinoise de Searle ?
DeleteJ'ai fait un résumé de tout en 100 mots
DeleteSelon Searle, un ordinateur qui exécute un programme peut seulement simuler l’intelligence, sans réellement comprendre ou avoir une intentionnalité. Cela correspond à l’IA faible, qui affirme que les machines peuvent imiter le comportement intelligent sans avoir d’esprit. Le texte montre que pour atteindre l’IA forte, il ne suffirait pas d’écrire de meilleurs programmes : il faudrait reproduire les pouvoirs causaux du cerveau, ce que les ordinateurs actuels ne font pas. Cela suggère que l’IA forte est, pour l’instant, impossible.
ReplyDeleteSARAH, Relis le résumé cliquer ici pour le résumé de 1000 mots --> L'argument de la chambre chinoise de Searle qui explique ce qui est l'IA faible et forte. l'IA forte est le computationnalisme: C=C, pas le cerveau.
DeleteAvec l’argument de la chambre chinoise, il montre qu’un système peut manipuler correctement des symboles (syntaxe) et produire des réponses intelligentes sans comprendre leur sens (sémantique). Même si un humain exécute lui-même le programme, il ne fait que suivre des règles formelles : il devient le programme, pas un esprit qui comprend. Pour Searle, l’intentionnalité vient des pouvoirs causaux du cerveau biologique, pas du calcul abstrait.
DeleteLe cerveau n’est pas simplement un ordinateur, et une véritable IA consciente ne pourrait pas être créée seulement avec des programmes ; elle devrait reproduire les capacités causales du cerveau humain.
C'est tout ce que je comprend
DeleteSARAH, c'est très bien, mais ça serait gagnant de réfléchir sur le Périscope de Searle, et pourquoi il pénètre la frontière du problème des autres esprits.
DeleteAvant d'afficher ta ciélo, il faut toujours lire les ciélos des autres (et surtout mes répliques) pour ne pas répéter ce qui a dèjà été dit.
ReplyDeleteCommencer chaque semaine en lisant le résumé (c. 1000 mots) au haut de sa page dans ce blogue. Préciser toujours sur quoi ta ciélo est basée: quelle lecture, ou quelle vidéo du cours?
Même si j’ai déjà lu les commentaires publiés sur le blogue et que nos compréhensions se ressemblent, je souhaite partager ma propre interprétation du texte sur l’argument de la chambre chinoise de Searle. J’ai remarqué qu’il présente plusieurs points de vue
ReplyDeletedifférents.
Cet argument met en évidence une différence importante entre suivre des règles pour manipuler des symboles et réellement comprendre leur signification. Searle montre qu’une personne peut exécuter parfaitement un programme censé « comprendre le chinois » sans, pour autant, comprendre cette langue. Cela remet en question l’idée que penser ou comprendre se résume simplement à faire des calculs ou à appliquer des règles, peu importe le support matériel utilisé.
De plus, la réflexion de Harnad précise que la critique de Searle ne vise pas l’intelligence artificielle en général, mais plutôt l’idée que les états mentaux seraient uniquement des états de calcul. En d’autres mots, comprendre ne serait pas seulement une question de traitement de symboles, mais impliquerait davantage que le simple calcul.
Si comprendre ne se limite pas au simple traitement de symboles ni à l’application de calculs, alors cela nous amène à revoir notre conception de la cognition. Si la compréhension ne peut pas provenir uniquement d’un programme informatique, le rôle du corps, des sens, des actions et du fonctionnement du cerveau devient essentiel. Penser ne consiste donc pas seulement à manipuler des symboles, mais à les relier à une expérience concrète du monde.
DeleteAinsi, l’argument de la chambre chinoise ne rejette pas l’intelligence artificielle. Il propose plutôt que, pour mieux expliquer la pensée, il faut associer le calcul à l’incarnation et à l’interaction avec l’environnement.
NAOMIE, oui Searle démontre que le calcul seul ne suffit pas. C'est quoi le rôle le rôle du corps, des sens, des actions?
DeleteLe corps, les sens et les actions jouent un rôle essentiel pour donner un vrai sens aux mots et aux idées. Le corps nous permet d’agir dans le monde, les sens nous donnent des informations concrètes (voir, entendre, toucher), et les actions nous aident à vérifier et ajuster ce que l’on comprend. Ensemble, ils relient les mots à des expériences réelles. Par exemple, comprendre le mot « chaud », ce n’est pas seulement connaître sa définition, c’est aussi l’avoir ressenti. Donc, penser ne consiste pas seulement à faire des calculs, mais à être en contact avec le monde et à vivre des expériences qui donnent du sens à ce que l’on comprend.
DeleteSelon moi, je trouve que la cible de Searle n’est pas “l’IA en général”, mais le computationnalisme pur : l’idée que comprendre = exécuter le bon programme, peu importe le support. La Chambre chinoise sert alors de contre-exemple : on peut produire une performance linguistique parfaite en suivant des règles syntaxiques sans accéder au sens. J’ai retenu surtout que l’argument ne “détruit” pas le test de Turing : il montre seulement que T2 ne garantit pas la compréhension si on l’interprète comme preuve que “le programme comprend”. Le vrai enjeu devient méthodologique : qu’est-ce qui ancre des symboles dans le monde pour qu’ils aient une signification intrinsèque, plutôt qu’une interprétation externe ?
ReplyDeletePHILIP, excellent; la réponse à ta question en Semaine 5 et 6. Les symboles sont ancrés dans leur référent pas l'apprentissage des catégories. Peux-tu anticiper de quoi il s'agira?
DeleteJe pense que ça va être ceci : les symboles deviennent “ancrés” quand ils sont reliés à des catégories apprises à partir du monde (perception/interaction), pas seulement à d’autres mots. Autrement dit, comprendre un mot, c’est aussi savoir reconnaître et classer ce qu’il désigne, pas juste manipuler des symboles.
DeletePHILIP, oui ça sera ça, mais les semaines 5 et 6 vont concrétiser ça. Tu peux anticiper en posant la question à ChatGPT ou Claude, mais leurs répliques seront incomplètes et contiendront probablement des erreurs importantes. Affiche brièvement en ciélo ce qu'ils t'ont raconté, et je les corrigerai. Ce sera une bon exercice pour la partie 3 (correction des erreurs de ChatGPT) dans le petit examen ainsi que l'examen final..
DeleteVoici ce que ChatGPT ma répondu:
DeleteÇa veut dire : qu’est-ce qui fait qu’un mot a du sens “pour le système lui-même”, au lieu d’avoir du sens seulement parce que nous, de l’extérieur, décidons de l’interpréter ainsi.
Interprétation externe : le système manipule des symboles correctement, mais les symboles “signifient” quelque chose seulement dans la tête de l’observateur. Comme un dictionnaire qui ne fait que renvoyer à d’autres mots.
Signification intrinsèque : le système a des raisons internes d’utiliser le symbole : il peut reconnaître, distinguer, apprendre, se corriger, et relier ce symbole à ce qu’il perçoit et fait dans le monde.
Donc “ancrer” un symbole, c’est le relier à des capacités acquises (catégories, perception, action, feedback d’erreur) qui fixent quand le symbole s’applique vraiment, plutôt que de laisser le sens dépendre uniquement de notre interprétation.
Concernant la vision de Searle au sujet du TT, on constate que l'ARC ne prétend invalider que T2, reprochant à l'individu dans la machine de ne pas être dans un état de compréhension consciente. Avec l'avènement récent des chatbots et le fait qu'ils réussissent T2 en ayant la capacité de dialoguer de manière indiscernable d'un humain, de la même manière que sans "comprendre" elle réussit T2, peut on imaginer que, sans "ressentir", le T3 - avec l'usage d'un corps artificiel, permettant de voir, d'entendre, de toucher, d’interagir avec le monde - soit aussi à la portée de l'Intelligence artificielle?
ReplyDeleteILIÈS, c'est la computation seule C=C que Searle a démontrée incapable de comprendre. Comment est-ce que Searle était en mesure de « devenir le système » quand il s'agissait de juste C=C, mais avec T3 (robot) il n'est plus en mesure de « devenir le système » ?
DeleteSearle pouvait “devenir le système” dans C=C parce que le système se réduit entièrement à un algorithme de manipulation de symboles. En l’exécutant lui-même, il instancie exactement le même état computationnel.
DeleteAvec T3, le système n’est plus seulement un programme qui manipule des symboles : il inclut des capteurs et il interagit en temps réel avec le monde. Cette partie sensorimotrice n’est pas quelque chose qu’on peut “implémenter” juste en suivant des règles. Donc Searle ne peut plus “devenir le système”, il ne peut pas instancier cet état. Si un T3 (robot) comprenait, ce serait grâce à un système hybride ancré, pas grâce à la computation seule.
ADAM, excellent. On apprendra ce que c'est que l'ancrage en Semaine 5 et 6. Peux-tu l'anticiper?
DeleteLa chambre chinoise de Searle remet en question les principes de l’IA forte qui est un autre terme pour référer le computationnalisme. Les principes du computationnalisme pur sont que la cognition est uniquement de la computation, que le moyen d’implémentation de la computation n’a pas d’importance et que le Test de Turing peut dévoiler de manière définitive si le candidat possède un esprit. Searle propose de réussir le T2 de manière purement computationnelle en devenant lui-même la machine qui exécuterais une série de règles afin de passer le T2 en chinois. Malgré qu’il réussisse le T2 ainsi il ne comprend pas un mot de chinois. Donc s’il ne comprend rien, la machine non plus. Ainsi le T2 ne garantit pas l’entendement. Cela conduit Searle à émettre deux postulats qui s’avèrent faux selon Harnad. Tout d’abords, Searle conclu que la cognition n’est absolument pas de la computation. Mais le CRA n’exclut pas la possibilité que la cognition soit l’hybride de quelque chose qui est aussi en partie computationnelle. Finalement, Searle affirme que la seule manière de comprendre la pensée serait de comprendre le cerveau. Cependant, un robot qui passe le T3 serait largement suffisant pour être immunisé face à cet argument car Searle n’aurait aucun moyen de prouver si le robot comprend le chinois car il serait impossible répliquer l’expérience de ce robot.
ReplyDeleteBENJAMIN, c'est exacte. J'espère que les autres vont. lire ta synthèse.
DeleteDe ce que j’ai compris du résume de la chambre chinoise de Searle présente que manipuler des symboles et suivre des règles comme l’ordinateur n’aide pas à la compréhension de leur sens. Donc, selon Searle la cognition n’est pas égale a juste des calculs.
ReplyDeleteEDUARDO, oui, mais comment est-ce que Searle démontre ça?
DeleteJ’ai lu l’article Document : Esprits, cerveaux et programmes et j’ai compris entre autres que l’argument de Searle sur la pièce chinoise sert à démontrer si C = C. Les analyses de Searle ont démontré que ce n’était pas le cas. En effet, dans la pièce enfermée, tout ce qu’il a besoin de faire est de manipuler des symboles de la langue chinoise avec sa langue (l’anglais) afin de les corréler les unes aux autres, tout en respectant les règles qui indiquent quels symboles chinois fournir à l’aide de la machine avec trois liasses différentes, soit le « script », l’« histoire » et les « questions ». Pour analyser les symboles chinois, il faut se comporter comme un ordinateur (‘computational’) sur des éléments spécifiés du programme (instantiation). L’argument de Searle est que le locuteur manipulant les symboles de la langue chinoise sur l’ordinateur ne le comprend pas, c’est l’ordinateur qui le comprend.
ReplyDeleteYASMEEN, mais c'est Searle, l'ordinateur, puisque c'est lui qui manipule les symboles. Qu'est-ce que la computation? Qu'est ce qu'un ordinateur? Je te conseille fortement de lire le résumé à la tête de cette page ou ça dit « cliquer ici pour le résumé de 1000 mots --> L'argument de la chambre chinoise de Searle » et d'intervenir oralement durant le cours pour me demander une explication.
DeleteDans cette présente ciélo, je vais exprimer ma compréhension portant sur le text de Harnad.
ReplyDeleteHarnad revient sur l’argument de la chambre chinoise afin d’en déterminer précisément la cible et la portée. Il soutient que cet argument a été largement mal interprété, en partie parce que ses critiques, mais aussi Searle lui-même, lui ont attribué des implications qu’il ne permet pas de soutenir. Selon Harnad, l’enjeu central n’est pas de trancher la nature de la cognition, mais de déterminer avec précision ce que l’argument de la chambre chinoise permet réellement d’établir. Son objectif est donc de clarifier ce que l’argument autorise et ce qu’il n’autorise pas comme conclusion. Pour ce faire, Harnad introduit le « périscope de Searle », qui sert à tester les limites d’une explication strictement computationnelle de l’esprit. Il montre ainsi que l’argument affirme seulement que l’exécution correcte de règles formelles ne suffit pas à produire une compréhension, sans dire ce qu’est la cognition en elle-même.
ALEXANDRA, mais c'est quoi l'argument, c'est quoi le périscope? Frère cadet devrait pouvoir savoir ça à partir de ta ciélo.
DeleteL’argument de la chambre chinoise, proposé par Searle, affirme que la cognition n’est pas du tout computationnelle. Pour le montrer, Searle s’imagine dans une pièce où il manipule des symboles chinois en appliquant des règles, comme le ferait un ordinateur. Même s’il produit toujours les bonnes réponses, il constate qu’il ne comprend pas le chinois. Il en conclut que l’exécution correcte de règles ou de calculs ne suffit pas pour comprendre, et que la cognition n’est donc aucunement computationnelle.
DeletePour nuancer cette conclusion, Harnad introduit le « périscope de Searle ». Comme Searle est lui-même celui qui exécute le calcul, il constitue un cas exceptionnel où l’on peut vérifier directement, de l’intérieur, s’il y a compréhension. Le fait qu’il n’en trouve aucune montre que le calcul seul ne suffit pas à produire la compréhension, sans toutefois prouver que la cognition n’implique aucune composante computationnelle.
Plus clairement dit, le périscope de Searle est une exception au problème des autres esprits.
DeleteLe problème des autres esprits : on ne peut normalement pas savoir directement si une autre entité comprend ou a des états mentaux.
Le périscope de Searle : dans la chambre chinoise, Searle est lui-même celui qui exécute le calcul. Il devient donc le seul cas particulier où l’on peut vérifier de l’intérieur s’il y a compréhension.
ALEXANDRA, ça c'est plus informatif. (En passant. c'est quoi « l'information ?) La seule composante que tu as omise c'est ce qui donne au périscope de Searle le pouvoir exceptionnel de pénétrer la barrière des autres esprits: ça s'applique uniquement à ce qui est (ou ce qui prétend être) purement computationnelle -- ce qui aurait été le cas, si le computationnalisme était vrai: si C n'était que C. Mais puisque Searle est le système, ayant mémorisé, et exécuté, les règles de manipulation, et puisque, pour autant, il ne comprend pas le chinois, alors C ≠ C, car l'indépendance de la computation de son implémentation matérielle est une propriété essentielle de la computation; sans ça il ne s'agit pas de la computation. Et c'est cette propriété qui aurait donné à Searle le pouvoir de pénétrer la barrière des autres esprits et comprendre le chinois (son « périscope »). Mais puisqu'il ne le comprend pas, il a juste le pouvoir de témoigner que C = C est faux.
DeleteEn me basant principalement sur la lecture de Searle (1980), l’originalité principale de l’argument de la chambre chinoise repose sur le fait que Searle devient lui-même l’exécutant du programme. En exécutant personnellement toutes les règles censées suffire à la compréhension du chinois, il peut observer directement son propre état mental et constater qu’aucune compréhension n’émerge. Normalement, la présence ou l’absence de compréhension chez autrui demeure inaccessible. Le fait qu’il puisse constater honnêtement son absence constitue alors un contre-exemple direct au computationnalisme pur.
ReplyDeleteAinsi, Searle démontre que seul le calcul ne suffit pas à engendrer la compréhension, l’ancrage sensorimoteur (T3) est nécessaire. En effet, les sens inscrivent les symboles dans des structures perceptives issues de l’expérience du monde. Ensuite, le corps assure une inscription causale du système dans son environnement. Finalement, l’action permet l’apprentissage du sens par l’interaction et ses conséquences pratiques. Sans cet ancrage sensorimoteur, les symboles demeurent purement formels et dépourvus de signification pour le système lui-même. En bref, les sens donnent un contenu aux symboles, le corps les inscrit dans le monde, et l’action transforme la manipulation formelle en compréhension située.
MURIELLE, ton premier paragraphe est correct. Le deuxième paragraphe concerne l'ancrage des symboles, ce qui n'est pas mentionné dans l'article de Searle. Ça va s'expliquer dans les semaine 5 et 6.
DeleteJe pense avoir compris que la thèse concerne le computationnalisme et la cognitivité. La question posée est si les ordinateurs sont capables de comprendre un langage, par exemple, ou si ils ne font que manipuler des symboles. D’après moi, nous ne pouvons pas comparer la compréhension à la computation, car cette première concerne un processus de déchiffrage complexe demandant la capacité de réfléchir alors que la computation fonctionne plutôt en suivant des systèmes basés sur la logique ainsi que sur des comparaisons de symboles. Dire qu’un ordinateur comprend un langage serait, à mon avis, comme dire qu’une horloge comprend le concept du temps. L’ordinateur fait des calcules, de l’association d’un symboles à un autre, certes, mais je ne pense pas que cela puisse démontrer qu’il en serait pour autant capable de comprendre. Bref, je pense qu’il s’agit d’automatismes plutôt que de pensées.
ReplyDeleteLÉANNE, c'est quoi l'argument chambre-chinoise de Searle concernant le computationnalisme?
DeleteLes ordinateurs ne comprennent pas en tant que tel le langage, bien qu'ils puissent manipuler les symboles.
DeleteSi l’on se penche sur ce que c’est l’argument de la Chambre de Searle est qu’elle ne réduit pas la cognition que à la computation. L’expérience est la suivante : on place une personne qui ne comprend pas la langue chinoise et il suit une suite de règles qu’il applique en répondant aux questions tout en manipulant les symboles de la langue chinoise. En dehors on penserait que la personne comprend la langue chinoise alors que c’est faux, il ne fait que manipuler des symboles mais ne comprend pas le sens. Et c’est ainsi que l’argument interfère en disant que la cognition n’est pas que la computation (une manipulation de symboles) mais aussi il faut comprendre le sens.
ReplyDeleteCHÈRIF, l'argument est que Searle ne comprend pas le chinois en exécutant l'algorithme qui réussit T2, donc aucune réalisation de cet algorithme ne comprendrait non plus. On ressent qu'on comprend (ou au moins qu'on crois qu'on comprend) et Searle ne ressent pas la compréhension du chinois en exécutant l'algorithme. Et ça, à son tour, grâce à son périscope: c'est quoi?
DeleteEn me basant sur le résumé de Minds, Brains, and Programs de John Searle, je comprends que l’argument de la chambre chinoise vise le computationnalisme pur (C=C), et non la simple capacité de modéliser des phénomènes. Searle exploite l’indépendance de l’implémentation : si la compréhension n’est qu’un état computationnel, alors peu importe le matériel qui l’instancie. En mémorisant toutes les règles et en exécutant lui-même le programme, il devient le système. Le périscope apparaît ici : contrairement au problème des autres esprits, il peut vérifier de l’intérieur l’absence de compréhension. Ainsi, le calcul peut modéliser, mais il ne suffit pas à constituer un esprit.
ReplyDeleteSALSABIL, excellent résumé. Searle en tire quelles conclusions de son Argument? Lesquelles sont correctes et lesquelles pas (et pourquoi)?
DeleteEn poursuivant cette réflexion, le point décisif du résumé est que le computationnalisme repose sur l’indépendance de l’implémentation : un même programme devrait produire les mêmes états mentaux, peu importe le matériel qui l’exécute. Si comprendre n’est qu’instancier le bon calcul, alors un cerveau, un ordinateur ou même Searle appliquant les règles devraient être mentalement équivalents. Or, en devenant lui-même l’exécutant du programme chinois, Searle constate qu’aucune compréhension n’émerge. Ce contre-exemple interne montre que la manipulation formelle de symboles ne suffit pas à produire du sens. Reste alors la question suivante : qu’est-ce qui doit s’ajouter au calcul pour qu’un système puisse véritablement comprendre ?
ReplyDeleteSALSABIL, encore une fois exacte! Puis qu'est-ce que serait ta réponse à ta question? Comment est-ce lié aux T2/T3/T4?
DeleteSemaine III – L’argument de la chambre chinoise
ReplyDeleteSelon ma lecture, l’argument de la chambre chinoise de John Searle soutient que l’intentionnalité dépend des propriétés causales du cerveau et qu’un programme informatique, à lui seul, ne peut pas la produire. Cet argument montre qu’un agent peut manipuler des symboles correctement, en suivant des règles formelles, sans pour autant en comprendre le sens.
Pourquoi montre-t-il qu’un agent peut manipuler des symboles correctement sans en comprendre le sens ?
JOCELYNE, c'est parce que Searle peut faire exactement la même chose que tout autre système qui exécute l'algo qui réussit T2, et pourra témoigner ne comprendra pas le chinois. Ainsi pour toute autre implemention de l'algo. C'est quoi le «périscope de » Searle et le lien avec le computationnalisme (C=C) ainsi que la définition de la computation.
ReplyDelete(« L'intentionalité » n'est qu'un mot creux. Ce qui est vraiment en jeu c'est le ressenti)