Sunday, January 18, 2026

2. Le test de Turing



cliquer ici pour le résumé de 1000 mots -->   « Le test de Turing et la rétro-ingénierie de la capacité cognitive » 

LECTURES:

 CETTE SEMAINE, LISEZ, EXCEPTIONNELLENT L'ARTICLE DE TURING  (1950/1990) (en français) AINSI QUE LA TRADCTION DE MON CHAPITRE DE CRITIQUE (2008)

1. --> Turing, A. M. (1950/1990). Machines informatiques et intelligence. Mind49, 433-460.

Intro : Je propose de considérer la question, “Les machines peuvent-elles penser ?”. On devrait commencer par définir les termes “machine” et “pensée.” Les définitions devraient être choisies de manière à refléter aussi bien que possible l’usage courant de ces mots, mais cette attitude est dangereuse. Si les significations des mots “machine” et “pensée” doivent être utilisées de la manière dont elles le sont habituellement, il est difficile d’échapper à la conclusion que le sens de la question “Les machines peuvent-elles penser ?” et la ré- ponse à cette question doivent être recherchés de façon statistique, comme par sondage. Mais cela est absurde. Plutôt que de tenter une telle définition, je remplacerai la ques- tion par une autre, qui lui est intimement reliée et qui s’exprime en termes relativement non-ambigus...



 

Harnad, S. (2008) The Annotation Game: On Turing (1950) on Computing,Machinery and Intelligence. In: Epstein, Robert & Peters, Grace (Eds.) Parsing the Turing Test: Philosophical and Methodological Issues in the Quest for the Thinking Computer. Springer 

Résumé : C'est l'article classique de Turing avec citation/commentaire pour souligner ce que Turing a dit, aurait pu signifier ou aurait dû signifier. Le document était équivoque quant à savoir si le test robotique   complet était prévu (T3), ou seulement le test verbal (T2). Il n'est pas clair si tous les candidats sont éligibles, ou uniquement des ordinateurs, ni si le critère de réussite est vraiment total -- l'équivalence et l'indiscernabilité le long d'une vie ou simplement de tromper suffisamment de personnes. assez longtemps. Une fois ces incertitudes résolues, le test de Turing reste aujourd'hui le critère empirique légitime (et unique) de la science cognitive.

2. --> Harnad (2008) traduction ci-dessous:

[tous les extraits en gras italique sont des citations provenant de l’article de (Turing 1950)]

 

Je propose de considérer la question, « Les machines peuvent-elles penser ? 

 

Turing part d'une équivoque. Nous savons maintenant que ce qu'il va continuer à considérer n'est pas si les machines peuvent ou non penser, mais si oui ou non les machines peuvent faire ce que des penseurs comme nous peuvent faire - et si oui, comment. Faire est une capacité de performance, empiriquement observable. La pensée (ou la cognition) est un état interne, ses corrélats empiriquement observables en tant qu'activité neuronale (si seulement nous savions quelle activité neuronale correspond à la pensée !) et sa qualité associée observable de manière introspective en tant que notre propre état mental lorsque nous pensons. La proposition de Turing s'avérera n'avoir rien à voir ni avec l'observation d'états neuronaux ni avec l'introspection d'états mentaux, mais seulement avec la génération d'une capacité de performance (intelligence ?) indiscernable de celle de penseurs comme nous.

 

Cela devrait commencer par les définitions de... "machine" et "penser"... [Une] enquête statistique telle qu'un sondage Gallup [serait] absurde. Au lieu de tenter une telle définition, je remplacerai la question par une autre... en termes relativement non ambigus.

 

"Machine" ne sera jamais définie de manière adéquate dans l'article de Turing, bien que (ce que l'on appellera éventuellement) la "machine de Turing", la description abstraite d'un ordinateur, le sera. Cela introduira une ambiguïté systématique entre un système physique réel, faisant quelque chose dans le monde, et un autre système physique, un ordinateur, simulant formellement le premier système, mais ne faisant pas réellement ce qu'il fait : un exemple serait la différence entre un avion réel - une machine, volant dans le monde réel - et une simulation informatique d'un avion, ne volant pas vraiment, mais faisant quelque chose de formellement équivalent au vol, dans un "monde virtuel" (également simulé).

 

Une définition raisonnable de « machine », plutôt que de « machine de Turing », pourrait être n'importe quel système causal dynamique. Cela fait de l'univers une machine, d'une molécule une machine, et aussi des cascades, des grille-pain, des huîtres et des êtres humains. Qu'une machine soit ou non fabriquée par l'homme n'a évidemment aucune importance. La seule propriété pertinente est qu'il est "mécanique", c'est-à-dire qu'il se comporte conformément aux lois de cause à effet de la physique (Harnad 2003).

 

« Penser » ne sera jamais défini par Turing ; elle sera remplacée par une définition opérationnelle selon laquelle « la pensée est comme la pensée fait ». C'est très bien, car la pensée (cognition, intelligence) ne peut pas être définie avant de savoir comment les systèmes de pensée le font, et nous ne savons pas encore comment. Mais nous savons que nous, les penseurs, le faisons, quel qu'il soit, lorsque nous pensons ; et nous savons quand nous le faisons (par introspection). Ainsi, la pensée, une forme de conscience, est déjà définie de manière ostensive, en désignant simplement cette expérience que nous avons et connaissons tous.

 

Prendre une enquête statistique comme un sondage Gallup à la place, pour connaître l'opinion des gens sur ce qu'est la pensée serait en effet une perte de temps, comme le souligne Turing - mais plus tard dans l'article, il introduit inutilement l'équivalent d'une enquête statistique comme son critère pour avoir réussi son test de Turing !

 

La nouvelle forme du problème peut être décrite en termes de jeu que nous appelons le "jeu d'imitation".

 

Autre choix terminologique malheureux : "jeu" implique caprice ou supercherie, alors que Turing désigne en fait une affaire empirique sérieuse. Le jeu est la science (la future science de la cognition -- en fait une branche de la bio-ingénierie inverse ; Harnad 1994a). Et "l'imitation" a aussi des connotations de falsification ou de tromperie, alors que ce que Turing proposera est une méthodologie empirique rigoureuse pour tester les théories de la capacité de performance cognitive humaine (et donc aussi les théories de la pensée qui engendre vraisemblablement cette capacité). Appeler cela un "jeu d'imitation" (au lieu d'une méthodologie de rétro-ingénierie de la capacité de performance cognitive humaine) a invité des générations de malentendus inutiles (Harnad 1992).

 

L'interrogateur reste dans une pièce à l'écart des deux autres. Le but du jeu pour l'interrogateur est de déterminer lequel des deux autres est l'homme et lequel est la femme.

 

Le test homme/femme est une "préparation" intuitive à l'essentiel de ce qui sera éventuellement le test de Turing, à savoir un test empirique de capacité de performance. Pour cela, il faut d'abord que toutes les données de non-performance soient exclues (donc les candidats sont hors de vue). Cela prépare le terrain pour ce qui sera le véritable objet de comparaison de Turing, qui est un être humain pensant contre une machine (non pensante), une comparaison qui doit être impartiale en apparence. 

 

Les critères de Turing, comme nous le savons tous maintenant, se révéleront être deux (bien qu'ils soient souvent confondus ou confondus) : (1) Les deux candidats ont-ils une capacité de performance identique ? (2) Existe-t-il un moyen de les distinguer, en se basant uniquement sur leur capacité de performance, afin de pouvoir détecter que l'un est un être humain pensant et que l'autre n'est qu'une machine ? Le premier est un critère empirique : peuvent-ils tous les deux faire les mêmes choses ? Le second est un critère intuitif, s'appuyant sur ce que des décennies plus tard on a appelé nos capacités humaines de « lecture de l'esprit » (Frith & Frith 1999) : y a-t-il quelque chose dans la façon dont les candidats font ce qu'ils peuvent faire tous les deux qui m'indique au fait que l'un d'eux n'est qu'une machine ?

 

Turing présente tout cela sous la forme d'un jeu de société, un peu comme 20-Questions. Il ne débriefe jamais explicitement le lecteur sur le fait que ce qui est réellement en cause n'est rien de moins que le jeu de la vie lui-même, et que « l'interrogateur » est en fait le scientifique pour la question (1), et, pour la question (2), tout du reste d'entre nous, dans chacune de nos interactions quotidiennes les uns avec les autres. La malheureuse métaphore du jeu de société a de nouveau donné lieu à des cycles inutiles de malentendus lors de l'écriture et de la réflexion ultérieures sur le test de Turing.

 

Pour que les tons de voix n'aident pas l'interrogateur, les réponses doivent être écrites, ou mieux encore, dactylographiées.

 

Cette restriction du test exclusivement à ce que nous appellerions aujourd'hui les interactions par e-mail est, comme indiqué, un moyen raisonnable de nous préparer à son éventuelle concentration sur la capacité de performance seule, plutôt que sur l'apparence, mais elle a l'effet supplémentaire involontaire d'exclure tout tests directs des capacités de performance autres que verbales ; et c'est potentiellement une équivoque beaucoup plus grave, sur laquelle nous reviendrons. Pour l'instant, nous devons seulement garder à l'esprit que si le critère est d'être une capacité de performance indiscernable de Turing, nous pouvons tous faire bien plus que de simples e-mails !

 

Nous posons maintenant la question : « Que se passera-t-il lorsqu'une machine jouera le rôle de A dans ce jeu ? L'interrogateur décidera-t-il aussi souvent à tort lorsque le jeu se joue ainsi que lorsqu'il se joue entre un homme et une femme ? Ces questions remplacent notre question d'origine, "Les machines peuvent-elles penser ?"

 

Ici, avec un peu d'imagination, nous pouvons déjà passer au test de Turing complet, mais encore une fois, nous sommes confrontés à une distraction inutile et potentiellement trompeuse : le but n'est sûrement pas simplement de concevoir une machine que les gens confondent statistiquement avec un être humain. souvent comme pas ! Cela réduirait le test de Turing au sondage Gallup que Turing a rejeté à juste titre en soulevant la question de ce qu'est la "pensée" en premier lieu ! Non, si le critère d'indiscernabilité de Turing doit avoir une substance empirique, les performances de la machine doivent être totalement indiscernables de celles d'un être humain - pour n'importe qui et tout le monde, pour toute une vie (Harnad 1989).

 

Le nouveau problème a l'avantage de tracer une ligne assez nette entre les capacités physiques et intellectuelles d'un homme.

 

Il aurait eu cet avantage, si la ligne avait seulement été tracée entre l'apparence et la performance, ou entre la structure et la fonction. Mais si la ligne est plutôt entre les capacités de performance verbales et non verbales, alors c'est une ligne très arbitraire en effet, et très difficile à défendre. Comme il n'y a aucune défense explicite ou même inférable de cette ligne arbitraire dans aucun des articles de Turing (ni d'une ligne tout aussi arbitraire entre celles de nos "capacités physiques" qui dépendent et ne dépendent pas de nos "capacités intellectuelles"), je prendrai c'est que Turing n'y a tout simplement pas réfléchi. S'il l'avait fait, la frontière aurait été tracée entre l'apparence physique et la structure du candidat, d'une part, et ses capacités de performance, tant verbales que non verbales, d'autre part. Tout comme (dans le jeu) la différence, s'il y en a, entre l'homme et la femme doit être détectée à partir de ce qu'ils font, et non à quoi ils ressemblent, de même la différence, s'il y en a, entre l'homme et la machine doit être détectée à partir de ce qu'ils font. qu'ils font, et non à quoi ils ressemblent. Cela laisserait la porte ouverte à la version robotique du test de Turing dont nous parlerons plus tard, et pas seulement à la version e-mail. 

 

Mais avant qu'un lecteur qualifie ma propre ligne de démarcation entre structure et fonction d'aussi arbitraire, permettez-moi de convenir rapidement que Turing a en fait introduit une hiérarchie de tests de Turing ici, mais pas une infinité d'entre eux (Harnad 2000). Les niveaux pertinents de cette hiérarchie se révéleront être uniquement les 5 suivants :

 

t0 : indiscernabilité locale dans la capacité d'effectuer une tâche arbitraire, telle que les échecs. t0 n'est pas du tout un test de Turing, car il s'agit évidemment d'un sous-total ; par conséquent, le candidat machine se distingue facilement d'un être humain en voyant s'il peut faire autre chose que jouer aux échecs. S'il ne peut pas, il échoue au test.

 

T2 : indiscernabilité totale de la capacité de performance des e-mails (verbaux). Cela semble être un module de performance autonome, car on peut parler de tout et de rien, et le langage a le même genre d'universalité que les ordinateurs (machines de Turing) se sont avérés avoir. T2 englobe même le jeu d'échecs. Mais cela englobe-t-il l'observation des étoiles, ou même la recherche de nourriture ? Est-ce que la machine peut aller voir et me dire ensuite si la lune est visible ce soir et peut-elle aller déterrer des truffes et ensuite me dire comment elle s'y est prise ? Ce sont des choses qu'une machine avec une capacité de messagerie seule ne peut pas faire, mais que tout être humain (normal) peut faire.

 

T3 : indiscernabilité totale de la capacité de performance robotique (sensorimotrice). Cela englobe T2, et c'est (je soutiendrai) le niveau de Test que Turing a vraiment voulu (ou aurait dû avoir !).

 

T4 : indiscernabilité totale dans la capacité de performance externe ainsi que dans la structure/fonction interne. Cela englobe T3 et ajoute toutes les données qu'un neuroscientifique pourrait étudier. Ce n'est plus strictement un test de Turing, car il va au-delà des données de performance, mais il intègre correctement la hiérarchie de Turing dans une hiérarchie empirique plus large. De plus, la frontière entre T3 et T4 est vraiment floue : est-ce que rougir T3 ou T4 ?

 

T5 : indiscernabilité totale dans la structure/fonction physique. Cela englobe la T4 et exclut tout système nerveux fonctionnellement équivalent mais synthétique : le candidat T5 doit être indiscernable des autres êtres humains jusqu'à la dernière molécule.

 

Aucun ingénieur ou chimiste ne prétend être capable de produire un matériau qui ne se distingue pas de la peau humaine... [Il n'y aurait] aucun intérêt à essayer de rendre une "machine à penser" plus humaine en l'habillant d'une telle chair artificielle.

 

Ici, Turing rejette correctement T5 et T4 -- mais certainement pas T3.

 

La forme sous laquelle nous avons posé le problème reflète ce fait dans la condition qui empêche l'interrogateur de voir ou de toucher les autres concurrents, ou d'entendre leurs voix.

 

Oui, mais utiliser T2 comme exemple a par inadvertance donné l'impression que T3 est également exclu : non seulement nous ne pouvons ni voir ni toucher le candidat, mais le candidat ne peut rien voir ni toucher - ni faire autre chose que calculer et envoyer des e-mails.

 

La méthode des questions et réponses semble convenir pour introduire presque tous les domaines de l'activité humaine que nous souhaitons inclure.

 

Cela reflète correctement le pouvoir universel du langage naturel (de dire et de décrire n'importe quoi avec des mots). Mais "presque" ne correspond pas au critère de Turing d'une capacité de performance identique.

 

Nous ne souhaitons pas pénaliser la machine pour son incapacité à briller dans les concours de beauté

 

C'est l'exclusion valable de l'apparence (d'ailleurs, la plupart d'entre nous ne pourraient pas non plus briller dans les concours de beauté).

 

…ni de pénaliser un homme pour avoir perdu dans une course contre un avion

 

La plupart d'entre nous ne pouvaient pas battre Deep Blue aux échecs, ni même atteindre le niveau de grand maître ordinaire. Ce ne sont que les capacités humaines génériques qui sont en cause, et non celles d'un individu en particulier. D'un autre côté, nous pouvons à peu près tous marcher et courir. Et même si nous sommes handicapés (cas anormal, et loin d'être celui sur lequel bâtir ses tentatives de générer des capacités de performance positives), nous avons tous une certaine capacité sensorimotrice. (Ni Helen Keller ni Stephen Hawking ne sont un module désincarné de messagerie uniquement.) 

 

Les conditions de notre jeu rendent ces handicaps non pertinents

 

Les handicaps et l'apparence ne sont en effet pas pertinents. Mais les capacités de performance non verbales ne le sont certainement pas. En effet, nos capacités verbales pourraient bien être ancrées dans nos capacités non verbales (Harnad 1990 ; Cangelosi & Harnad 2001 ; Kaplan & Steels 1999). (En fait, par « handicap », Turing signifie non-capacité, c'est-à-dire l'absence de capacité ; il ne veut pas vraiment dire être handicapé dans le sens d'être physiquement handicapé, bien qu'il mentionne Helen Keller plus tard.)

 

L’interrogateur ne peut exiger des démonstrations pratiques

 

Ce serait certainement une faille fatale dans le test de Turing si Turing avait voulu exclure T3 - mais je doute qu'il ait voulu dire cela. Il soutenait simplement que c'est la capacité de performance qui est décisive (pour le problème empirique que la future science cognitive finirait par résoudre), et non quelque chose d'autre qui pourrait dépendre de caractéristiques non pertinentes de la structure ou de l'apparence. Il a simplement utilisé la performance verbale comme exemple d'amorçage de l'intuition, sans vouloir dire que toute «pensée» est verbale et que seule la capacité de performance verbale est pertinente.

 

La question... ne sera pas tout à fait définie tant que nous n'aurons pas précisé ce que nous entendons par le mot "machine". Il est naturel que nous souhaitions permettre à toutes sortes de techniques d'ingénierie d'être utilisées dans nos machines.

 

Ce passage (bientôt contredit dans le texte suivant !) implique que Turing ne voulait pas dire uniquement des ordinateurs : que tout système dynamique que nous construisons est éligible (tant qu'il délivre la capacité de performance). Mais nous devons le construire, ou au moins avoir une compréhension causale complète de son fonctionnement. Un être humain cloné ne peut pas être inscrit comme machine candidate (parce que nous ne l'avons pas construit et donc ne savons pas comment cela fonctionne), même si nous sommes tous des « machines » dans le sens d'être des systèmes causaux (Harnad 2000, 2003 ).

 

Nous souhaitons également permettre à un ingénieur ou à une équipe d'ingénieurs de construire une machine qui fonctionne, mais dont le mode de fonctionnement ne peut être décrit de manière satisfaisante par ses constructeurs parce qu'ils ont appliqué une méthode largement expérimentale.

 

C'est là le début de la différence entre le domaine de l'intelligence artificielle (IA), dont le but est simplement de générer un outil de performance utile, et la modélisation cognitive (CM), dont le but est d'expliquer comment la cognition humaine est générée. Un appareil que nous avons construit mais sans savoir comment il fonctionne suffirait pour l'IA mais pas pour le CM.

 

Enfin, nous voulons exclure des machines les hommes nés de manière habituelle.

 

Cela n'implique pas, bien sûr, que nous ne soyons pas des machines, mais seulement que le test de Turing consiste à découvrir quel type de machine nous sommes, en concevant une machine qui peut générer notre capacité de performance, mais par des moyens causals/fonctionnels que nous comprendre, parce que nous les avons conçus.

 

Il est probablement possible d'élever un individu complet à partir d'une seule cellule de la peau (disons) d'un homme ... mais nous ne serions pas enclins à le considérer comme un cas de "construction d'une machine à penser".

 

C'est parce que nous voulons expliquer la capacité de réflexion, pas simplement la dupliquer. http://www.ecs.soton.ac.uk/~harnad/Hypermail/Foundations.Cognitive.Science2001/0056.html  

 

Cela nous incite à abandonner l'exigence selon laquelle toutes les techniques doivent être autorisées. Nous n'autorisons [en conséquence] que les ordinateurs numériques à participer à notre jeu.

 

C'est là que Turing contredit ce qu'il a dit plus tôt, retirant l'éligibilité de tous les systèmes d'ingénierie sauf un, introduisant ainsi une autre restriction arbitraire - une qui exclurait à nouveau T3. Turing a dit plus tôt (à juste titre) que tout dispositif d'ingénierie devrait être éligible. Maintenant, il dit que ce ne peut être qu'un ordinateur. Sa motivation est bien sûr en partie due au fait que l'ordinateur (Turing Machine) s'est révélé universel, en ce sens qu'il peut simuler n'importe quel autre type de machine. Mais ici nous sommes carrément dans l'équivoque T2/T3, car un robot simulé dans un monde virtuel n'est ni un vrai robot, ni un vrai test de Turing robotique, dans le monde réel. T2 et T3 sont des tests effectués dans le monde réel. Mais une interaction par e-mail avec un robot virtuel dans un monde virtuel serait T2, pas T3.

Autrement dit : avec le test de Turing, nous avons accepté, avec Turing, que la pensée est comme la pensée. Mais nous savons que les penseurs peuvent faire et font plus que simplement parler. Et il reste ce que les penseurs peuvent faire que notre candidat doit également être capable de faire, pas seulement ce qu'ils peuvent faire verbalement. Par conséquent, tout comme voler est quelque chose que seul un vrai avion peut faire, et non un avion virtuel simulé par ordinateur, même si Turing est équivalent au vrai avion -- ainsi passer T3 est quelque chose que seul un vrai robot peut faire, pas un robot simulé testé par T2, qu'il en soit ainsi Turing-équivalent au vrai robot. (Je suppose également qu'il est clair que les tests de Turing testent dans le monde réel : une simulation de réalité virtuelle [VR] ne serait pas une sorte de test de Turing ; cela ne ferait que tromper nos sens dans la chambre VR plutôt que de tester le candidat. capacité de performance réelle dans le monde réel.)

 

Ainsi, la restriction à la simulation informatique, bien que peut-être utile pour planifier, concevoir et même pré-tester le robot T3, n'est qu'une stratégie méthodologique pratique. En principe, tout dispositif conçu devrait être éligible ; et il doit être capable de fournir des performances T3, pas seulement T2.

 

Il est intéressant de noter que la robotique cognitive contemporaine n'a pas tiré autant de profit de la simulation informatique et des mondes virtuels qu'on aurait pu s'y attendre, malgré l'universalité du calcul. « Embodiment » et « situatedness » (dans le monde réel) se sont révélés être des ingrédients importants de la robotique empirique (Brooks 2002, Kaplan & Steels 1999), le mot d'ordre étant qu'il vaut mieux utiliser le monde réel comme son propre modèle (plutôt que les roboticiens doivent simuler, donc deviner à l'avance, non seulement le robot, mais aussi le monde).

 

L'impossibilité de deviner à l'avance chaque "mouvement" potentiel du robot, en réponse à chaque éventualité possible dans le monde réel, indique également une faille latente (et je pense fatale) dans T2 lui-même : ne serait-ce pas un cadeau mort si le correspondant de l'e-mail T2 s'avérait incapable de commenter les photos de famille analogiques que nous n'arrêtions pas d'insérer avec notre texte ? (S'il peut traiter les images, ce n'est pas seulement un ordinateur mais au moins un ordinateur plus des capteurs périphériques A/N, violant déjà la restriction arbitraire de Turing aux seuls ordinateurs). Ou si son correspondant ignorait totalement les événements contemporains du monde réel, en dehors de ceux que nous décrivons dans nos lettres ? Même sa performance verbale ne s'effondrerait-elle pas si on l'interrogeait de trop près sur les détails qualitatifs et pratiques de l'expérience sensorimotrice ? Tout cela pourrait-il vraiment être deviné purement verbalement à l'avance ?

 

Cette restriction [aux ordinateurs] apparaît à première vue comme très drastique. J'essaierai de montrer qu'il n'en est pas ainsi dans la réalité. Pour ce faire, il est nécessaire de présenter brièvement la nature et les propriétés de ces ordinateurs.

 

L'exposé des ordinateurs qui suit est utile et bien sûr correct, mais il ne justifie en rien la restriction du TT aux candidats qui sont des ordinateurs. Il vaut donc mieux ignorer cette restriction arbitraire.

 

On peut dire aussi que cette identification des machines aux calculateurs numériques, comme notre critère de « penser », ne sera insatisfaisante que si (contrairement à ma croyance), il s'avère que les calculateurs numériques sont incapables de faire bonne figure dans le jeu. .

 

C'est encore l'équivoque du "jeu". Il ne fait aucun doute que les ordinateurs feront bonne figure, au sens du Gallup Poll. Mais la science empirique n'est pas seulement une bonne démonstration : une expérience ne doit pas tromper la plupart des expérimentateurs la plupart du temps ! Si la performance-capacité de la machine doit être indiscernable de celle de l'être humain, elle doit être totalement indiscernable, pas seulement indiscernable le plus souvent. De plus, certains des problèmes que j'ai soulevés pour T2 - les types d'échanges verbaux qui font largement appel à l'expérience sensorimotrice - ne sont même pas susceptibles de donner un bon résultat, si le candidat est uniquement un ordinateur numérique, quelle que soit la richesse une base de données, il est donné à l'avance.

 

[L]es ordinateurs numériques... effectuent toutes les opérations qui pourraient être effectuées par un ordinateur humain... suivant des règles fixes...

 

Cela continue en décrivant ce qui est depuis devenu la définition standard des ordinateurs en tant que dispositifs de manipulation de symboles basés sur des règles (machines de Turing). 

 

Une variante intéressante de l'idée d'un ordinateur numérique est un "ordinateur numérique avec un élément aléatoire"... Parfois, une telle machine est décrite comme ayant le libre arbitre (bien que je n'utiliserais pas cette expression moi-même)

 

Moi non plus. Mais sûrement une caractéristique encore plus importante pour un candidat au test de Turing qu'un élément aléatoire ou des fonctions statistiques serait l'autonomie dans le monde - ce qui est quelque chose qu'un robot T3 a bien plus qu'un correspondant T2. Le côté ontique du libre arbitre - à savoir, si nous-mêmes, de vrais êtres humains, avons réellement le libre arbitre - dépasse plutôt la portée de l'article de Turing Harnad 1982b). Il en va de même pour la question de savoir si une machine à passer le TT aurait des sentiments (gratuits ou non)

(Harnad 1995). Ce qui est clair, cependant, c'est que les règles de calcul ne sont pas les seuls moyens de « lier » et de déterminer les performances : la causalité physique ordinaire peut le faire aussi.

 

Il semblera que compte tenu de l'état initial de la machine et des signaux d'entrée, il est toujours possible de prédire tous les états futurs. Cela rappelle la vision de Laplace selon laquelle à partir de l'état complet de l'univers à un moment donné, tel que décrit par les positions et les vitesses de toutes les particules, il devrait être possible de prédire tous les états futurs.

 

Les points sur le déterminisme sont probablement des faux-fuyants. La seule propriété pertinente est la capacité de performance. Que l'humain ou la machine soient complètement prévisibles n'a aucune importance. (La physique à plusieurs corps et la théorie de la complexité suggèrent que ni la détermination causale ni la règle ne garantissent la prévisibilité dans la pratique - et cela sans même invoquer les arcanes de la théorie quantique.)

 

À condition que cela puisse être réalisé suffisamment rapidement, l'ordinateur numérique pourrait imiter le comportement de n'importe quelle machine à états discrets ... ce sont des machines universelles ... [D'où] des considérations de vitesse mises à part, il est inutile de concevoir diverses nouvelles machines à faire divers processus informatiques. Ils peuvent tous être effectués avec un seul ordinateur numérique, programmé de manière appropriée pour chaque cas ... En conséquence, tous les ordinateurs numériques sont en un sens équivalents.

 

Tout est vrai, mais tout n'est pas pertinent pour la question de savoir si un ordinateur numérique seul pourrait passer T2, sans parler de T3. Le fait que les yeux et les jambes puissent être simulés par un ordinateur ne signifie pas qu'un ordinateur peut voir ou marcher (même lorsqu'il simule la vue et la marche). Voilà pour le T3. Mais même juste pour T2, la question est de savoir si les simulations seules peuvent donner au candidat T2 la capacité de verbaliser et de converser sur le monde réel de manière indiscernable d'un candidat T3 ayant une expérience sensorimotrice autonome dans le monde réel.

 

(Je pense qu'une autre équivoque inaperçue de Turing - et bien d'autres - découle du fait que la pensée n'est pas observable : cette inobservabilité nous aide à imaginer que les ordinateurs pensent. Mais même sans avoir à invoquer le problème des autres esprits (Harnad 1991), il faut se rappeler qu'un ordinateur universel n'est que formellement universel : il peut décrire à peu près n'importe quel système physique, et le simuler en code symbolique, mais ce faisant, il ne capture pas toutes ses propriétés : Exactement comme un un avion simulé par ordinateur ne peut pas vraiment faire ce qu'un avion fait (c'est-à-dire voler dans le monde réel), un robot simulé par ordinateur ne peut pas vraiment faire ce qu'un vrai robot fait (agir dans le monde réel) - il n'y a donc pas raison de croire qu'il pense vraiment non plus. Un vrai robot peut ne pas vraiment penser non plus, mais cela nécessite d'invoquer le problème des autres esprits, alors que le robot virtuel est déjà disqualifié pour exactement la même raison que l'avion virtuel : les deux échouent à rencontrer le TT cr l'itération elle-même, qui est une véritable capacité de performance, et pas simplement quelque chose qui lui est formellement équivalent !)

 

Je crois que dans une cinquantaine d'années, il sera possible, de programmer des ordinateurs... [de] jouer si bien au jeu de l'imitation qu'un interrogateur moyen n'aura pas plus de 70 % de chances de faire la bonne identification au bout de cinq minutes de questionnement.

 

Il ne fait aucun doute que les programmes informatiques d'aujourd'hui peuvent répondre à ce critère de jeu de société/sondage Gallup - mais cela reste un fait démographique aussi dénué de sens aujourd'hui qu'il l'était lorsqu'il était prédit il y a 50 ans : comme toute autre science, la science cognitive n'est pas l'art de tromper la plupart des gens pendant une partie ou la plupart du temps ! Le candidat doit vraiment avoir la capacité de performance générique d'un être humain réel - une capacité totalement indiscernable de celle d'un être humain réel à n'importe quel être humain réel (pour toute une vie, s'il le faut !). Pas d'astuces : capacité de performance réelle. 

 

La question initiale, "Les machines peuvent-elles penser ?" Je pense que c'est trop vide de sens pour mériter une discussion.

 

Ce n'est pas dénué de sens, c'est simplement indécidable : ce que nous entendons par "penser", c'est, d'une part, ce que les créatures pensantes peuvent faire et comment elles peuvent le faire, et, d'autre part, ce que cela fait de penser. . Ce que les penseurs peuvent faire est capturé par le TT. Une théorie de la façon dont ils le font est fournie par la façon dont notre machine artificielle le fait. (S'il existe plusieurs machines différentes qui réussissent, c'est une question d'inférence normale à la meilleure théorie.) Jusqu'à présent, rien de dénué de sens. Maintenant, nous demandons : les candidats retenus ressentent-ils vraiment, comme nous le faisons lorsque nous pensons ? Cette question n'est pas dénuée de sens, elle est simplement sans réponse - autrement qu'en étant le candidat. C'est le vieux problème familier des autres esprits (Harnad 1991).

 

Néanmoins je crois qu'à la fin du siècle l'usage des mots et l'opinion générale cultivée auront tellement changé qu'on pourra parler de machines pensantes sans s'attendre à être contredit.

 

Oui, mais seulement au prix de rétrograder la "pensée" au sens de "traitement de l'information" plutôt que ce que vous ou moi faisons quand nous pensons, et ce que cela ressemble.

 

L'opinion populaire selon laquelle les scientifiques procèdent inexorablement d'un fait bien établi à un fait bien établi, sans jamais être influencés par une conjecture améliorée, est tout à fait erronée. Pourvu qu'il soit clairement établi quels sont les faits prouvés et lesquels sont des conjectures, aucun dommage ne peut en résulter. Les conjectures sont d'une grande importance car elles suggèrent des pistes de recherche utiles.

 

C'est confus. Oui, la science procède par une série de meilleures approximations, de théorie empirique en théorie. Mais la théorie ici serait la conception réelle d'un candidat TT réussi, pas la conjecture selon laquelle le calcul (ou quoi que ce soit d'autre) finira par faire l'affaire. Turing confond les conjectures formelles (telles que la machine de Turing et ses équivalents capturent toutes les notions et instances futures de ce que nous entendons par "calcul" -- la soi-disant "Thèse Church/Turing") et les hypothèses empiriques, telles que la pensée n'est qu'un calcul. Le test de Turing n'est sûrement pas une licence pour dire que nous expliquons de mieux en mieux la pensée alors que nos candidats trompent de plus en plus de gens de plus en plus longtemps. D'un autre côté, quelque chose d'autre qui ressemble superficiellement à cela (mais qui s'avère être correct) pourrait être dit à propos de la mise à l'échelle empirique du TT en concevant un candidat qui peut faire de plus en plus de ce que nous pouvons faire. Et les tests de Turing fournissent certainement une méthodologie pour une telle construction théorique cumulative et un tel test théorique en sciences cognitives.

 

L'objection théologique : La pensée est une fonction de l'âme immortelle de l'homme.

 

La véritable objection théologique n'est pas tant que l'âme est immortelle mais qu'elle est immatérielle. Ce point de vue a également un soutien non théologique du problème esprit/corps : personne - théologien, philosophe ou scientifique - n'a la moindre idée de la façon dont les états mentaux peuvent être des états matériels (ou, comme je préfère le dire , comment les états fonctionnels peuvent être des états ressentis). Ce problème a été surnommé "difficile" (Chalmers in Shear 1997). Cela peut même être pire : il peut être insoluble (Harnad 2001). Mais ce n'est pas une objection aux tests de Turing qui, même s'ils n'expliquent pas comment les penseurs peuvent se sentir, expliquent comment ils peuvent faire ce qu'ils peuvent faire.

 

Il y a une plus grande différence, à mon avis, entre l'animé typique et l'inanimé qu'il n'y en a entre l'homme et les autres animaux.

 

Oui, et c'est pourquoi le problème des autres esprits prend tout son sens en faisant des tests de Turing sur des machines plutôt qu'en faisant de la lecture de l'esprit de notre propre espèce et d'autres animaux. ("Animer" est un mot de belette, cependant, car les vitalistes sont probablement aussi des animistes; Harnad 1994a.)

 

L'objection mathématique : le théorème de Godel[:] [B]ien qu'il soit établi qu'il existe des limitations aux pouvoirs d'une machine particulière, il a seulement été déclaré, sans aucune sorte de preuve, qu'aucune de ces limitations ne s'applique à l'intellect humain.

 

Le théorème de Godel montre qu'il y a des déclarations en arithmétique qui sont vraies, et nous savons qu'elles sont vraies, mais leur vérité ne peut pas être calculée. Certains ont interprété cela comme impliquant que « savoir » (qui n'est qu'une espèce de « penser ») ne peut pas être simplement un calcul. Turing répond que peut-être l'esprit humain a des limites similaires, mais il me semble qu'il aurait été suffisant de souligner que "savoir" n'est pas la même chose que "prouver". Godel montre que la vérité est indémontrable, non pas qu'elle est inconnaissable. (Il y a de bien meilleures raisons de croire que penser n'est pas calculer.) 

 

L'argument à partir de la conscience :

Jefferson (1949): "Ce n'est que lorsqu'une machine peut [faire X] à cause des pensées et des émotions ressenties, et non par la chute fortuite des symboles, que nous pouvons convenir que la machine est égale au cerveau"

 

Cet argument standard contre le test de Turing (répété d'innombrables fois presque exactement de la même manière jusqu'à nos jours) n'est qu'une reformulation du problème des autres esprits : il n'y a aucun moyen de savoir si les humains ou les machines font ce qu'ils font parce qu'ils envie - ou s'ils ressentent quelque chose du tout, d'ailleurs. Mais il y a beaucoup à savoir en identifiant ce qui peut et ne peut pas générer la capacité de faire ce que les humains peuvent faire. (Les limites de la manipulation de symboles [calcul] sont une autre question, qui peut être réglée empiriquement, en fonction des types de machines qui peuvent et ne peuvent pas réussir le TT ; Harnad 2003.)

 

Selon la forme la plus extrême de cette conception, le seul moyen d'être sûr que la machine pense est d'être la machine et de se sentir penser... [C'est] en fait le point de vue solipsiste. C'est peut-être le point de vue le plus logique à avoir, mais cela rend la communication des idées difficile.

 

Turing a complètement tort ici. Ce n'est pas du solipsisme

(c'est-à-dire, pas la croyance que moi seul existe et que tout le reste est mon rêve). C'est simplement le problème des autres esprits

(Harnad 1991); et c'est correct, mais non pertinent - ou plutôt mis en perspective par le test de Turing : il n'y a personne d'autre que nous puissions savoir qui a un esprit à part nous-mêmes, mais nous ne nous inquiétons pas de l'esprit de nos semblables. , parce qu'ils se comportent exactement comme nous et que nous savons lire dans leur esprit leur comportement. De la même manière, nous n'avons plus ou moins de raisons de nous inquiéter de l'esprit de quoi que ce soit d'autre qui se comporte comme nous - à tel point que nous ne pouvons pas les distinguer des autres êtres humains. Il n'est pas non plus pertinent de savoir de quoi ils sont faits, puisque notre lecture réussie des pensées des autres êtres humains n'a rien à voir avec la matière dont ils sont faits non plus. Il est basé uniquement sur ce qu'ils font.

 

Arguments de diverses [in]capacités :

... "Je t'accorde que tu peux faire faire à des machines toutes les choses que tu as citées mais tu ne pourras jamais en faire faire une seule pour faire X" : [e.g] Être gentil, débrouillard, beau, amical, avoir de l'initiative, avoir un sens de l'humour, distinguer le vrai du faux, faire des erreurs, tomber amoureux, savourer des fraises et de la crème, en faire tomber amoureux, apprendre de l'expérience, utiliser les mots correctement, être le sujet de sa propre pensée, avoir autant de diversité de comportement en tant qu'homme, faire quelque chose de vraiment nouveau.

 

Turing écarte à juste titre ce genre de scepticisme (que j'ai surnommé "Granny Objections" http://www.ecs.soton.ac.uk/~harnad/CM302/Granny/sld001.htm ) en soulignant que ce sont des questions empiriques sur ce que les ordinateurs (et d'autres types de machines) s'avéreront éventuellement capables de le faire. Les éléments de performance sur la liste, c'est-à-dire. Les états mentaux (sentiments), d'autre part, sont discutables, à cause du problème des autres esprits.

 

(6) Objection de Lady Lovelace :

"Le moteur analytique n'a aucune prétention à créer quoi que ce soit. Il peut faire tout ce que nous savons comment lui ordonner de fonctionner"... une machine ne peut "jamais rien faire de vraiment nouveau".

 

C'est l'une des nombreuses objections de Granny. La réponse correcte est que (i) tous les systèmes causaux sont descriptibles par des règles formelles (c'est l'équivalent de la thèse de Church/Turing), y compris nous-mêmes ; (ii) nous savons, grâce à la théorie de la complexité ainsi qu'à la mécanique statistique, que le fait que la performance d'un système soit régie par des règles ne signifie pas que nous pouvons prédire tout ce qu'il fait ; (iii) il n'est pas clair que quelqu'un ou quoi que ce soit ait "créé" quelque chose de nouveau depuis le Big Bang. 

 

L'opinion selon laquelle les machines ne peuvent pas créer de surprises est due, je crois, à une erreur à laquelle les philosophes et les mathématiciens sont particulièrement sujets. C'est l'hypothèse que dès qu'un fait est présenté à un esprit, toutes les conséquences de ce fait jaillissent dans l'esprit simultanément avec lui. C'est une hypothèse très utile dans de nombreuses circonstances, mais on oublie trop facilement qu'elle est fausse. Une conséquence naturelle de le faire est que l'on suppose alors qu'il n'y a aucune vertu dans le simple fait de tirer des conséquences à partir de données et de principes généraux.

 

Turing a tout à fait raison de souligner que savoir que quelque chose est vrai ne signifie pas savoir tout ce que cela implique ; cela est particulièrement vrai des conjectures mathématiques, des théorèmes et des axiomes.

 

Mais je pense que la préoccupation de Lady Lovelace pour la liberté vis-à-vis des règles et de la nouveauté est encore plus superficielle que cela. Il prend notre ignorance introspective sur la base causale de nos capacités de performance au pied de la lettre, comme si cette ignorance démontrait que nos capacités sont en fait des actes sui generis de notre volonté psychocinétique - plutôt que d'être simplement la preuve empirique de notre ignorance fonctionnelle, par exemple. future rétro-ingénierie (sciences cognitives) pour y remédier.

 

Argument selon la Continuité dans le Système Nerveux : On peut soutenir que... on ne peut pas s'attendre à pouvoir imiter le comportement du système nerveux avec un système à états discrets.

 

Selon la thèse de Church/Turing, il n'y a presque rien qu'un ordinateur ne puisse simuler, à une approximation aussi proche que souhaité, y compris le cerveau. Mais, comme indiqué, il n'y a aucune raison pour que les ordinateurs soient les seules machines éligibles aux tests de Turing. Les robots peuvent aussi avoir des composants analogiques. Tout système causal dynamique est éligible, tant qu'il délivre la capacité de performance.

 

L'argument selon l'informalité du comportement : Il n'est pas possible de produire un ensemble de règles prétendant décrire ce qu'un homme devrait faire dans toutes les circonstances imaginables.

 

Premièrement, le candidat TT retenu n'a pas besoin d'être simplement informatique (basé sur des règles); tous les arguments en faveur des robots T3 et leur besoin de capacités, de mécanismes et d'expériences sensorimotrices du monde réel suggèrent qu'il faut plus qu'un simple calcul chez un candidat retenu. L'impossibilité de deviner un ensemble de règles qui prédisent chaque éventualité à l'avance est probablement aussi à l'origine du soi-disant «problème du cadre» en intelligence artificielle (Harnad 1993). Mais il sera toujours vrai, en raison de la thèse de Church-Turing, que le robot T3 hybride computationnel/dynamique réussi sera toujours simulable par ordinateur en principe – un robot virtuel dans un monde virtuel. Ainsi, le système basé sur des règles peut décrire ce qu'un robot T3 ferait dans toutes les éventualités ; cette simulation ne serait tout simplement pas un robot T3, pas plus que son monde virtuel ne serait le monde réel.

 

Machines d'apprentissage

 

Turing anticipe avec succès l'apprentissage automatique, la modélisation développementale et la modélisation évolutive dans cette section prémonitoire.

 

L'argument de la perception extrasensorielle :... la télépathie, la clairvoyance, la précognition et la psychokinésie... [L]es preuves statistiques, du moins pour la télépathie, sont accablantes.

 

Il est dommage qu'à la fin Turing révèle sa crédulité à propos de ces phénomènes douteux, car si la psychokinésie (l'esprit sur la matière) était véritablement possible, alors l'ingénierie matière/énergie ordinaire ne suffirait pas à générer un esprit pensant ; et si la télépathie (vraie lecture de l'esprit) était véritablement possible, alors cela l'emporterait définitivement sur le test de Turing.

 

-----------






  

2021: VIDÉO DU Cours 9 février




PPT 2019:



résumé langue anglaise:







 

41 comments:

  1. De ce que j’ai compris, non une machine ne peut pas avoir d’émotions parce que si on lui dit d’écrire quelque chose d’artistique basé sur les sentiments, comme une poème, il ne sera pas capable d’en créer un
    Mais si on lui pose une question plus technique qui existe déjà, comme jouer aux échec, il saura répondre parce que c’est quelque chose qui existe déjà et qui a ses règle déjà établie. Cependant, je constate surtout que, même si la machine a déjà ses règles établies, je ne dois pas oublier qu’elles ont été créées par des humains, donc même si c’est technique et établi, l’humain a tout de même une présence majeure dans la conception de la machine. On parle alors d’ordinateur digitaux.
    J’ai lu aussi les compositions d’un ordinateur digital (mémoire, unité d’exécution, contrôle). J’ai remarqué que les composition nécessite une présence humaine, surtout la partie contrôle, puisque si le contrôle est d’assurer l’exécution des tâches, alors cela veut dire que c’est l’humain qui doit le faire parce qu’une machine ne peut pas le faire par elle-même. Elle peut être programmé pour le faire, mais il y a toujours un contrôle humain derrière. Ma question est : Est-ce qu’il existe un monde où les machines n’ont pas besoin de programmation humaine? Je vois beaucoup d’histoire fictive que les machines ont pris le contrôle de l’humanité (je sais que la fiction est loin d’être pareil à la réalité), mais est-ce que vous pensez que cela peut arriver un jour?

    ReplyDelete
    Replies
    1. KORA-LEE. As-tu lu le texte de Turing 1950? Il est très important pour ce cours, et tu sembles poser des questions qui y ont déjà été levées dans ce texte. Que sont les répliques de Turing.

      Ce cours concerne la cognition humaine: Quel est le mécanisme qui produit les capacités cognitives humaines. Qu’est-ce qu’une « machine »? Quelle sorte de machine sommes-nous? Qu’est-ce que la computation. Est-ce qu’un ordinateur est capable de produire les capacités cognitives humaine?

      Delete
    2. Après avoir lu le reste du texte de 1950 de Turing, je tiens tout de même mon argument que la machine ne peut pas exister sans l'humain et qu'elle ne peut pas créer par elle-même. J'ajoute même ce que Turing a dit qu'elles ne peuvent pas recréer des sensations organique comme le principe de: "Si je te pince, tu cris" (De ce que Turing a cité)

      Delete
    3. KORA-LEE, maintenant lis le résumé au haut de la page.

      Delete
    4. Avant d'afficher ta ciélo, il faut toujours lire les ciélos des autres (et surtout mes répliques) pour ne pas répéter ce qui a dèjà été dit.

      Commencer chaque semaine en lisant le résumé (c. 1000 mots) au haut de sa page dans ce blogue. Préciser toujours sur quoi ta ciélo est basée: quelle lecture, ou quelle vidéo du cours?

      Delete
  2. Au fond, le Test de Turing est une réponse digitale (ou numérique) au doute radical de Descartes. C'est peut-être une réflexion hors-champ, mais elle m'a habité tout au long des lectures.
    En effet, tout ce qui est externe au Sujet (en l'occurrence le participant C) peut être un subterfuge semblable au malin génie cartésien. En fait, le sujet de l'expérience est bien le participant C, et son aptitude à distinguer l'humain de la machine «pensante»; il ne s'agit pas d'évaluer la capacité d'une machine d'imiter les réponses humaines. (Bien entendu c'est bien le cas, mais mon impression m'a poussé ailleurs).
    La question de savoir si les machines peuvent penser soulèvent des objections spirituelles et catastrophistes, de conscience, de pertinence, de faisabilité ou de logique. Les critères de succès peuvent pointer vers une rétro-ingénierie ou une imitation indécelable.
    Pourtant, le véritable succès du jeu de l’imitation est la production d’une réalité alternative, indistincte de l’authenticité. En ce sens, le jeu de l’imitation est la possibilité de proposer une réalité au sujet, dont il ne pourra sonder l’existence réelle.

    ReplyDelete
    Replies
    1. PHILIPPE, as-tu lu le texte de Turing 1950? Quel est le mécanisme qui produit les capacités cognitives humaines? On ne cherche pas à imiter les capacités cognitives humaines: on cherche à les expliquer en découvrant un mécanisme causal qui réussit à les produire. C’est ce qui évalue le test de Turing. Une possibilité, c’est la computation. Est-ce qu’elle réussit? (Lis aussi: Le test de Turing et la rétro-ingénierie de la capacité cognitive

      Delete
  3. De ce que j'ai compris, Turing ne cherche pas à prouver ce qu'est ''penser'' au sens du terme, mais plutôt à créer un critère observable pour éviter de tourner en rond dans les définitions. C'est pour ça qu'il remplace la question '' les machines peuvent-elles penser?'' par un jeu: si, dans une conversation écrite, une machine peut se comporter de façon indiscernable d'un humain, alors, elle montre quelque chose qui ressemble beaucoup à l'intelligence au minimum. Ce que je trouve intéressant, c'est que ce test ne mesure pas la conscience: il mesure la capacité linguistique, l'adaptation, la cohérence et la capacité à répondre dans des contextes variés. Ça soulève une limite: est ce que l'on confond ''bien imiter'' et ''réellement comprendre'' ? Turing, selon moi, semble dire que, dans la pratique on traite déjà les humains comme pensants sans pouvoir ''voir'' leur conscience, donc on pourrait dire de même pour les machines. Ma question serait: si une machine réussit le jeu, est-ce que ça prouve qu'elle pense, ou seulement qu'elle simule très bien la pensée? Et cette différence est-elle importante ou pas?

    ReplyDelete
    Replies
    1. PHILIP, bonnes reflexions, mais revisite la vidéo Semaine 2 et relis le résumé concernant "l'imitation": « Le test de Turing et la rétro-ingénierie de la capacité cognitive »

      « Conscience » est un mot creux. Mais tu as raison que la métho de Turing (et ainsi les sciences cognitives) sont incapables de tester la sentience (la capacité à ressentir). Turing avoue ça dans son article de 1950 (où?). Et pourquoi pas?

      Delete
    2. Dans l’article de Turing (1950), il l’avoue dans la section « (4) L’argument de la conscience », p. 13 du PDF. Il explique que si on exige la preuve d’un “ressenti” pour conclure qu’une machine pense, alors le seul moyen d’en être certain serait d’être la machine; et, par le même raisonnement, le seul moyen d’être certain qu’un humain pense serait d’être cet humain, ce qui mène au solipsisme.Pourquoi pas? Parce que la sentience est privée et inobservable de l’extérieur : on peut tester des performances et des capacités observables (comme l’imitation game), mais pas l’expérience subjective elle-même.

      Delete
    3. PHILIP, c'est correct: Le seul qui peut confirmer qu'un être ressent est l'être lui-même. Donc Turing déclare explicitement que sa méthode ne peut tester ça: Juste ce que le candidat est capable de faire, pas s'il est sentient. Mais il est important d'apprécier que nous sommes dans la même situation méthodologique vis-à-vis tout autre être hors soi-même.

      Delete
  4. Le texte explique que la question « les machines peuvent-elles penser ? » est mal posée. Selon l’auteur, le test de Turing ne montre pas si une machine pense vraiment, mais seulement si elle peut agir comme un humain. Penser n’est pas seulement parler ou répondre à des questions, c’est aussi ressentir et avoir une expérience consciente, ce qui ne peut pas être observé de l’extérieur. Une machine peut imiter le comportement humain sans réellement penser. Pour être vraiment comparable à un humain, elle devrait aussi percevoir et agir dans le monde réel, comme un robot. La conscience reste donc impossible à prouver scientifiquement.

    ReplyDelete
    Replies
    1. SARAH, tu évoques beaucoup de points pertinents, mais tu n'as pas encore saisi que (malgré le choix de mots utilisé par Turing pour introduire intuitivement sa méthodologie) il ne s'agit pas de l'imitation! Il s'agit de la tentative de produire, et ensuite tester le succès à produire toutes les capacités cognitives humaines, à un niveau indiscernable de la performance humaine.

      On ne peut pas observer la conscience (le ressenti) mais on peut observer ce que peut faire un être sentient, un être qui pense. Donc le test de Turing ne cherche pas à imiter la performance cognitive mais de découvrir le mécanisme sous-jacent qui la produit. C'est ça de la « rétroingénierier ».

      La science cognitive à deux problème à solutionner:

      (1) Problème Facile: comment et pourquoi les êtres penseurs sont ils capables de faire tout ce qu'ils sont capable de faire?

      (2) Problème Difficile: comment et pourquoi les êtres penseurs sont ils capables de ressentir?

      Delete
    2. Vous avez raison. Le test de Turing ne vise pas seulement l’imitation superficielle du comportement humain, mais la reproduction de l’ensemble des capacités cognitives humaines à un niveau indiscernable. Comme la conscience ne peut pas être observée directement, le test se base sur ce qu’un être pensant est capable de faire. Il ne cherche donc pas à expliquer le mécanisme interne de la pensée, mais à tester le résultat de cette pensée, ce qui relève de la rétro-ingénierie. Cela rejoint la distinction entre le problème facile, qui concerne les capacités observables, et le problème difficile, qui concerne le ressenti conscient, encore impossible à expliquer scientifiquement.

      Delete
    3. SARAH, mais bien-sûr que Turing cherche a expliquer le mécanisme interne à la tête (T4). Quelle autre espace interne existe-t-il?

      Delete
  5. Le test de Turing propose de remplacer la question vague « les machines peuvent-elles penser ? » par un critère plus précis : la capacité de performance. Une machine réussit le test si elle peut faire ce que les humains peuvent faire, de manière indiscernable, sans que l’on ait accès à ce qu’elle comprend ou ressent. Dans ce cadre, l’interprétation des symboles n’est pas nécessaire pour produire un résultat correct. Un algorithme peut répondre que 2 + 2 = 4 sans savoir ce que « 2 », « + » ou « 4 » signifient.

    Par contre, si la machine n’a pas besoin de savoir que le résultat est 4, nous, oui. Le sens du résultat ne vient pas de la computation elle-même, mais de l’interprétation que nous lui donnons. Le test évalue donc ce qu’un système peut faire, non ce qu’il comprend.

    ReplyDelete
    Replies
    1. BRAHMI, bonne réplique à SARAH. Mais en quoi consiste la compréhension, au-delà de la simple capacité de faire?
      (1) En premier lieu, les êtres penseurs sont capables de faire tout ce qu'il faut avec les mots — en manipulant ces symboles.
      (2) En deuxième lieu (comme SARAH l'ajoute, concernant les capacités robotiques), ils sont capables de faire tout ce qu'il faut avec les objets du monde auxquels leurs mots réfèrent — par l'interaction et la manipulation sensorimotrices.
      La compréhension consiste-t-elle en quelque chose de plus que ces deux capacités de faire?

      Delete
    2. La compréhension permet une approche sémantique des termes et des concepts, puis nous permet de les catégoriser ensuite, comme pour différencier les champignons comestibles des champignons toxiques.
      Pour faire le pont avec Searle, la compréhension consiste également à assumer des informations qui ne sont pas présentes dans une affirmation mais qui relèvent d'une forme de logique humaine.
      Dans l'exemple du restaurant et du hamburger, on assume que: si un client était heureux quand il a reçu son assiette puis à laissé un bon pourboire au personnel en quittant l'établissement, à la question: le client a-t-il mangé le hamburger? Nous répondrons surement "oui", cependant l'énoncé ne contient aucune information à ce sujet, nous en faisons une assomption logique.

      Delete
    3. ILIÈS, correct, mais est-ce que les LLMs comprennent? Pourquoi, ou pourquoi pas?

      Delete
    4. Pour répondre à la question : est-ce que les LLMs comprennent ? Je dirais que la compréhension ne se limite pas à produire des phrases correctes, mais aussi à relier les mots au monde auquel ils réfèrent.
      Les LLMs montrent une forte capacité de manipulation linguistique : ils peuvent expliquer, reformuler et utiliser la logique, ce qui ressemble à de la compréhension. Mais cette capacité a une limite : elle reste principalement verbale et repose sur des régularités statistiques du langage (T2).
      Sans perception sensorimotrice ni possibilité d’agir avec l’environnement (T3), la compréhension d’un LLM n’a aucun moyen d’être ancrée dans le monde et d’agir dans des situations réelles. Les LLMs comprennent au sens faible.

      Delete
    5. ADAM, les LLMs ne sont pas la seule possibilité computationnelle (et elles trichent: en quoi?). Que sont d'autres possibilités? Et qu'est-ce que cet « ancrage » dont elles ont supposément besoin? Et pourquoi, précisément?

      Delete
  6. De ce que j’ai compris du texte de Turing, il explique que le test n’est pas un jeu de tromperie mais une méthode pour expliquer la cognition en copiant la capacité humaine. On ne peut pas observer si la machine peut penser donc on test ce que la machine peut faire. Le test doit être robotique et ne doit pas juste utiliser les capacités verbales. Le test de Turing démontre que la machine possède des capacités similaires a un humain lorsqu' il s’agit de la performance.

    ReplyDelete
    Replies
    1. EDUARDO, bonne synthèse, mais avec une capacité et une performance verbale (T2) et sensori-motrice (T3)complètement indiscernable de celle d'un vrai penseur humain (le long d'une vie) qu'est qui manque pour une vraie compréhension humaine?

      Je pose cette question en anticipant la semaine 3 (Searle).
      Les autres sont invités à répomdre aussi.

      Delete
    2. À mon avis, pour atteindre une vraie compréhension humaine, il ne suffit pas d’une indiscernabilité superficielle dans une conversation ; il faut prendre en compte ce qui caractérise réellement l’esprit humain. La cognition humaine repose sur la perception, l’action et l’interaction avec le monde réel. Elle ne se limite pas seulement à échanger des symboles. Un système (une machine) qui ne peut que traiter du texte, sans voir, se déplacer, manipuler ou être influencé par son environnement, passe à côté de l’essentiel de ce que les humains peuvent faire : ce qu’ils ont vécu, leurs sensations et leurs propres expériences personnelles. Les machines imitent le langage, mais elles ne possèdent ni conscience, ni expérience vécue, ce qui les empêche d’avoir une compréhension authentique comme la nôtre. Même un système qui remplit parfaitement un critère de performance ne garantit pas qu’il ressente quoi que ce soit.

      Delete
    3. NAOMIE, bonne critique du T2 (une capacité verbale identique et indiscernable de la nôtre, le long d'une vie). La question T2 vs T3 (capacité verbale ainsi que sensorimotrice dans le monde) s'avérera très importante dans ce cours, et surtout de nos jours, lorsque les chatbots LLM semblent avoir réussi le T2 (à l'aide de leur grosse gorgée d'antisèches fournies par nous).

      Mais même pour les robots T2/T3, on peut vérifier avec les preuves empiriques (observables) si, oui ou non, ils peuvent faire tout ce que nous sommes capable de faire.

      Tenant compte de ce que nous avons appris de Descartes à propos de notre (1) certitude indubitable quant à notre propre ressenti, mais notre (2) incertitude insurmontable quant au ressenti d’autrui - que ce soit d'autres humains, des chatbots T2, des robots T3, ou des pots de thé - il faut se poser la quetion: est-ce qu'il existe ce « garanti » que tu mentionnes...?

      Ceci s'appelle « le problème des autres esprits » - ce qui leur est connexe, mais pas la même chose que ni le problème facile » ni « le problème difficile ».

      Delete
  7. Le test de Turing ne définit pas ce qu’est la pensée humaine. Il nous permet de mieux la comprendre en observant ce que fait cette pensée. Ce test est un système de rétroingénierie de la cognition humaine. Une méthode scientifique pour simuler la cognition et pas qu’un simple questionnaire ludique. Nous ne savons pas comment la pensée est produite et donc ne nous pouvons pas la définir. Il est possible de l’étudier en observant les effets de cette pensée. En posant la question si les machines peuvent penser Turing cherche un moyen d’'observer ce que la cognition fait en la simulant avec une machine. Cette méthode lui permet d’étudier la pensée sans avoir à résoudre le problème de l’esprit. Même s’il est impossible de savoir avec certitude si les autres humains ou machines pensent nous pouvons malgré tout étudier la cognition en observant les effets qu’elle produit. C’est ce qu’accompli Turing avec son test. Harnad donne la définition d’une machine comme étant toute structure causale dynamique. En ce sens une cellule, une planète et un cerveau sont des machines. Pour qu’une machine soit réellement pensante elle doit réussir le T3 de Turing qui inclut l’expérience sensorimotrice qui est une partie indissociable de la cognition. Mais si cette machine réussit le T3 sera-t-elle réellement en mesure de faire ce que la pensée fait ou sera-t-elle simplement une simulation sophistiquée de la cognition ? Est-ce possible pour une machine de comprendre son propre fonctionnement ? En d'autres termes, est-il possible pour le cerveau de comprendre comment il fait ce qu’il fait ?

    ReplyDelete
    Replies
    1. BENJAMIN, très bon résumé. La pensée ne s'observe pas, sauf par le penseur-même -- et elle ne s'explique pas à partir de l'introspection. La seule chose que les sciences cognitives peuvent observer, et ainsi tenter àa expliquer, c'est la performance observable d'autrui, T2 et T3, et aussi T4 (ce qui se passe dans le cerveau) (Semaine 4).

      La « définition » de la pensée attend l'explication de la pensée, et ça, à son tour, attend le mécanisme qui réussit le Test de Turing (T2, ou T3, et peut-être aussi T4). On ne peut pas avoir la définition de la pensée avant qu'on aura l'explication de comment pensait fait ce qu'elle fait. L'échec des candidats aux Test T2-T4 ce n'est pas qu'ils ne réussissent qu'à « imiter » la performance humaine, mais qu'ils ne réussissent pas (encore) à la produire.

      Ce qui empêche d'expliquer le ressenti n'est pas juste le « problème des autres esprits » mais « le problème difficile », qu'on discutera en Semaine 10. La plupart du cours ne porte que sur le problème (soit disant) « facile » d'expliquer comment se produit la capacité des êtres penseurs à faire tout ce qu'ils sont capables de faire (T2, T3, T4). Cet objectif Turingien n'a rien à voir avec l'imitation.

      C'est quoi la différence entre « C=C » et la méthode de Turing?

      Delete
    2. La thèse « cognition = computation » soutient que la pensée est fondamentalement de nature computationnelle, c’est-à-dire qu’elle consiste en un traitement formel de l’information. Il s’agit donc d’une affirmation théorique sur ce qu’est la cognition.

      La méthode de Turing, quant à elle, ne cherche pas à définir la pensée, mais à proposer une manière scientifique de l’étudier et de l’expliquer à partir de ses effets observables. Puisque la pensée n’est pas directement observable, Turing suggère de l’analyser à travers les capacités qu’un système peut produire, comme le langage. La différence principale est donc que « cognition = computation » est une thèse sur la nature de l’esprit, tandis que la méthode de Turing est une approche empirique visant à expliquer comment la cognition fonctionne.

      Delete
  8. Bien que le test de Turing a été inventé pour répondre à la question « les machines peuvent-elles penser ? », le test ne répond pas nécessairement à la question. Il permet surtout de démontrer les performances de la machine en les comparant à celles des humains. La machine effectue les calculs qu'on lui demande sans devoir penser. Elle fait ce qu'on lui dit de faire. Dans le texte, à la page 13, j’ai considéré que l’argument de la conscience effectué par le Profeseur Jefferson était intéressant quand il mentionne que lorsqu’il s’agit de la sentience, c’est-à-dire ressentir des émotions, de la joie, de l’amour, de la souffrance, etc. de la manière que l’humain le fait, d’un autre côté, on ne peut pas confirmer qu’ « une machine égale un cerveau humain » pour ressentir ce genre d’émotions également.

    ReplyDelete
    Replies
    1. YASMEEN, on peut observer la présence ou l'absence de la performance cognitive et la présence ou l'absence de la compétence cognitive, mais on ne peut pas observer la sentience (sauf en soi-même).

      Delete
  9. Le test de Turing vise à évaluer l’intelligence d’une machine à partir de son comportement observable dans l’échange verbal (T2). Toutefois, une limite majeure apparaît dans le rôle central des émotions, puisque le comportement humain n’est pas uniquement rationnel, mais profondément influencé par des processus affectifs. Celles-ci sont liées au système limbique et façonnées par l’histoire personnelle et les expériences vécues, rendant les réactions humaines partiellement imprévisibles. Le test de Turing mesure principalement la capacité linguistique, la cohérence et l’adaptation formelle à divers contextes. Cependant, chez l’humain l’adaptation comportementale est indissociable de la dimension émotionnelle, qui oriente les décisions et module les réponses selon la situation. Une machine dépourvue de compréhension émotionnelle risque ainsi de produire des réponses inadéquates, malgré une maîtrise formelle du langage. Même les versions élargies du test (T3, T4, T5), intégrant l’action ou l’incarnation, ne rendent pas compte du rôle central des émotions. Cette limite apparaît clairement dans les contextes relationnels ou d’aide, où une réponse adéquate exige non seulement une production linguistique cohérente, mais aussi de l’empathie, soit une compréhension de l’état émotionnel de l’autre fondée sur l’expérience vécue, une dimension qui dépasse les critères strictement comportementaux du test de Turing.

    ReplyDelete
  10. MURIELLE, tu as raison concernant les émotions, mais il y a beaucoup plus de ressenti que le ressenti emotionnel: il y a aussi le ressenti de sensation et de mouvement, du chaud et de froid, la fatigue, la compréhension, l'incompréhension: En effet, chaque moment d'éveil (et de rêve) est ressenti. Et ça doit ètre expliqué par les sciences cognitives, pas juste le savoir-faire verbal (T2), sensorimoteur (T3) et même neurophysiologique (T4).

    ReplyDelete
  11. De ce que j'ai compris, Turing utilise un dialecte qui peut porter à confusion. Il faut donc retenir qu'il ne s'agit pas d'un jeu d'imitation, mais bien d'une tentative de reproduction de l'intelligence et de la pensée. Le test a pour but de définir si les participants seraient capable de différencier une interaction avec une machine d'une interaction avec un autre humain. Aussi, je pense qu'il serait de toute façon impossible de déterminer si une machine possède des capacités cognitives ou si elle est peut penser, puis que nous ne comprenons toujours pas ces phénomènes, et cela même chez l'humain. Je suis d'accord avec le fait que les machines peuvent reproduire certains comportements, mais de là à se demander si elles peuvent penser... J'en doute fortement.

    ReplyDelete
    Replies
    1. LÉANNE, c'est le mécanisme causal de la cognition que les sciences cognitives cherchent à découvrir et expliquer, et ça, en cherchent à produire et tester les capacités de performance qu'ont les êtres penseurs: ce qu'ils sont capables de faire, et comment. C'est quoi le T2? Et c'est quelles capacités de performance pour lesquelles on cherche le mécanisme sousjacent qui les produit?

      Delete
  12. Le test de Turing sert à vérifier si on est capable de reproduire scientifiquement ce qu’un être humain est capable de faire. Par exemple, est-il possible qu’une machine puisse penser comme nous et comment on peut l’expliquer causalement. En réalité, on cherche le comment et le pourquoi. Le test du célèbre mathématicien cherche à reproduire toutes les facultés de l’être humain à long terme et non pas seulement quelques échanges entre un humain et une machine. Toutefois, le test ne permet pas d’expliquer le ressenti ni la conscience. Ce n’est surtout pas de copier tel quel ce qu’on est capable de faire mais déterminer ce qui nous permet de faire tout ce qu’on est capable de faire.

    ReplyDelete
    Replies
    1. CHÉRIF, c'est correct -- mais la conscience est la même chose que le ressenti!

      Delete
  13. Aristilde February 3, 2026 at 11:44 AM
    La semaine I


    Cette semaine m’a permis d’approfondir ma compréhension de la théorie computationnelle de la cognition, laquelle postule que les processus cognitifs peuvent être expliqués comme des opérations de calcul symbolique, à l’image du fonctionnement d’un ordinateur. Selon cette perspective, la pensée humaine repose sur la manipulation formelle de symboles selon des règles précises, indépendamment de leur signification intrinsèque. Les travaux de chercheurs tels que Turing et Pylyshyn illustrent clairement cette approche en démontrant comment le raisonnement et certaines capacités cognitives peuvent être modélisés à l’aide de systèmes computationnels.

    Cependant, cette théorie met également en évidence des limites importantes dans l’explication de la cognition humaine. Bien que le computationnalisme permette de rendre compte de certains aspects du raisonnement logique et du traitement de l’information, il demeure insuffisant pour expliquer des dimensions essentielles telles que la compréhension du sens, l’expérience subjective ou encore l’interaction dynamique entre le corps et l’environnement. La cognition humaine ne se réduit donc pas à un simple traitement abstrait de symboles, mais implique aussi des processus incarnés, situés et dépendants du contexte.

    Ainsi, cette semaine met en lumière un débat central en sciences cognitives : jusqu’à quel point la pensée humaine peut-elle être expliquée par le calcul, et à partir de quel moment devient-il nécessaire d’intégrer d’autres approches afin de mieux saisir la richesse et la complexité de l’esprit humain.

    ReplyDelete
    Replies
    1. JOCELYNE, J'ai tranferé ta ciélo ici, semaine 2. Les Semaine 1-11 s'affichent du bas vers le haut cette année (11-1) pour les rendre bien discernables (!) de l'année 2025l

      Delete
  14. JOCELYNE, cette semaine (2) concerne plutôt la computation que le computationnalisme (C=C). C'est quoi la différence entre ces deux? Lis le résumé à la tête de la Semaine 2. (Commence chaque semaine en lisant le résumé, et précise toujours sur quoi ta ciélo et basée: quelle lecture, ou quelle vidéo du cours. Et lis toujours les ciélos des autres (et surtout mes répliques) pour ne pas répéter ce qui a dèjà été dit.)

    ReplyDelete
  15. Avant d'afficher ta ciélo, il faut toujours lire les ciélos des autres (et surtout mes répliques) pour ne pas répéter ce qui a dèjà été dit.

    Commencer chaque semaine en lisant le résumé (c. 1000 mots) au haut de sa page dans ce blogue. Préciser toujours sur quoi ta ciélo est basée: quelle lecture, ou quelle vidéo du cours?

    ReplyDelete