Harnad, S. (1990). Le problème de l'ancrage des symboles. Physica D: Nonlinear Phenomena, 42(1), 335-346.
Harnad, S. (1990). The symbol grounding problem. Physica D: Nonlinear Phenomena, 42(1), 335-346.
Le problème de l’ancrage des symboles
Stevan Harnad
RÉSUMÉ : Le problème de l,'ancrage des symboles est lié au problème de la façon dont les mots obtiennent leur sens, et de ce que sont les sens. Le problème de la signification est à son tour lié au problème de la conscience, ou comment il se fait que les états mentaux sont significatifs.
Mots et sens. On sait depuis Frege que la chose à laquelle un mot se réfère (son référent) n'est pas la même chose que son sens. Ceci est le plus clairement illustré en utilisant les noms propres d'individus concrets (mais c'est également vrai des noms de types de choses et de propriétés abstraites) : (1) "Tony Blair", (2) "l'actuel premier ministre du Royaume-Uni", et (3) "le mari de Cheri Blair" ont tous le même référent, mais pas le même sens.
Certains ont suggéré que la signification d'un mot (référent) est la règle ou les caractéristiques que l'on doit utiliser pour identifier son référent. À cet égard, (2) et (3) se rapprochent de porter leurs significations sur leurs manches, car ils semblent énoncer explicitement une règle pour choisir leurs référents (trouver qui est l'actuel PM du Royaume-Uni, ou qui est le mari actuel de Cheri ). Mais cela ne règle pas la question, car il reste le problème de la signification des composants de la règle ("UK", "actuel", "PM", "Cheri", "mari"), et comment les identifier .
Peut-être que "Tony Blair" (ou mieux encore, simplement "Tony") n'a pas ce problème de composant, car il pointe directement vers son référent, mais comment ? Si le sens est la règle de sélection du référent, quelle est cette règle, quand on en vient aux composants indécomposables ?
Il est probablement déraisonnable de s'attendre à ce que nous connaissions la règle, du moins explicitement. Nos cerveaux doivent avoir le « savoir-faire » pour suivre la règle et choisir le référent voulu, mais ils n'ont pas besoin de savoir comment ils le font consciemment. Nous pouvons laisser aux sciences cognitives et aux neurosciences le soin de découvrir et ensuite d'expliquer comment.
Les moyens de repérer les référents. Donc, si nous considérons que le sens d'un mot est le moyen de choisir son référent, alors les significations sont dans notre cerveau. Si nous utilisons « sens » dans un sens plus large, nous pourrions vouloir dire que les sens incluent à la fois les référents eux-mêmes et les moyens de les repérer. Donc, si un mot (par exemple, "Tony-Blair") est situé à l'intérieur d'une entité, alors sa signification consiste à la fois en les moyens que cette entité utilise pour identifier son référent, et le référent lui-même : un grand lien causal entre une tête, un mot à l'intérieur, un objet à l'extérieur, et tout "traitement" nécessaire pour connecter le mot intérieur à l'objet extérieur.
Mais que se passe-t-il si "l'entité" dans laquelle se trouve un mot n'est pas une tête mais un morceau de papier ? Quelle est sa signification alors ? Sûrement tous les mots (de référence) sur cette page, par exemple, ont des significations, tout comme ils ont des référents.
Conscience. C'est ici que le problème de la conscience pointe le bout de son nez. Car il n'y aurait aucun lien entre les égratignures sur le papier et les référents voulus s'il n'y avait pas d'esprits médiatisant ces intentions, via leurs moyens internes de sélection de ces référents.
Ainsi, le sens d'un mot dans une page est "non ancré", alors que le sens d'un mot dans une tête est "ancré" (par les moyens que les neurosciences cognitives finiront par nous révéler), et sert ainsi d'intermédiaire entre le mot sur la page et son référent.
Calcul. Qu'en est-il de la signification d'un mot à l'intérieur d'un ordinateur ? Est-ce comme le mot sur la page ou comme le mot dans la tête ? C'est là qu'intervient le problème de l’ancrage des symboles. Un processus dynamique se déroulant dans un ordinateur ressemble-t-il davantage à la page papier statique ou à un autre système dynamique, le cerveau ?
Il existe une école de pensée selon laquelle l'ordinateur ressemble plus au cerveau -- ou plutôt, le cerveau ressemble plus à l'ordinateur : selon ce point de vue, appelé « computationnalisme », cette future théorie sur la manière dont le cerveau choisit ses référents , la théorie à laquelle les neurosciences cognitives finiront par arriver, sera purement computationnelle (Pylyshyn 1984). Une théorie computationnelle est une théorie au niveau logiciel ; c'est essentiellement un programme informatique. Et le logiciel est "indépendant de l’implémentation". Cela signifie que quoi que fasse un programme, il fera la même chose quel que soit le matériel sur lequel il est exécuté. Les détails physiques de la mise en œuvre ne sont pas pertinents pour le calcul ; tout matériel capable d'exécuter le calcul fera l'affaire.
Le Test de Turing. Un ordinateur peut exécuter n'importe quel calcul. Par conséquent, une fois que le computationnalisme a trouvé le bon programme informatique, le même que exécute notre cerveau lorsqu'il y a du sens qui transpire dans nos têtes, alors le sens transpire également dans cet ordinateur.
Comment saurons-nous que nous avons le bon programme informatique ? Il devra être capable de réussir le test de Turing (TT) (Turing 1950). Cela signifie qu'il devra être capable de communiquer avec n'importe quel être humain pendant toute une vie en tant que interlocuteur, sans jamais se distinguer d'aucune façon d'un vrai interlocuteur humain.
L'argument de la chambre chinoise de Searle. C'est pour montrer que le computationnalisme est incorrect que Searle (1980) a formulé son célèbre « Chinese Room Argument », dans lequel il a souligné que si le test de Turing était mené en chinois, alors lui-même, Searle (qui ne comprend pas le chinois ), pourrait exécuter le même programme que exécutait l'ordinateur sans savoir ce que signifiait aucun des mots qu'il traitait. Donc, s'il n'y a pas de sens à l'intérieur de Searle lorsqu’il implémente le programme, il n'y a pas non plus de sens à l'intérieur de l'ordinateur quand c'est l’ordi qui exécute le programme, le calcul étant indépendant de l'implémentation.
Comment Searle sait-il qu'il n'y a aucune signification lorsqu'il exécute le programme de passage de TT ? D’exactement la même manière qu'il sait s'il y a ou non du sens dans sa tête dans d'autres conditions : il comprend les mots de l'anglais, alors que les symboles chinois qu'il manipule selon les règles du programme ne signifient rien pour lui. Et il n'y a personne d'autre là-dedans. Ils sont comme les mots non ancrés sur une page, pas les mots ancrés dans une tête.
Notez qu'en soulignant que les mots chinois n'auraient pour Searle aucun sens dans ces conditions, Searle a fait appel à la conscience. Sinon, on pourrait prétendre qu'il y aurait un sens dans sa tête dans ces conditions, mais qu'il n'en serait tout simplement pas conscient. C'est ce qu'on appelle la « réplique du système », et Searle la rejette à juste titre comme une simple réitération, face à des preuves négatives, de la thèse même qui est mise à l'épreuve dans son expérience de pensée : les mots dans un calcul en cours sont-ils comme les mots non ancrés ? sur une page, sans signification sans la médiation des cerveaux, ou sont-ils comme les mots ancrés dans les cerveaux ?
Dans cette question soit/ou, le mot (encore indéfini) "non ancré" s'est implicitement appuyé sur la différence entre les mots inertes sur une page et les mots consciemment significatifs dans nos têtes. Et Searle nous rappelle que dans ces conditions (le TT chinois), les mots dans sa tête n'auraient pas de sens conscient, donc ils seraient toujours aussi sans ancrage que les mots inertes sur une page.
Donc, si Searle a raison, que (1) les mots sur une page et ceux de tout programme informatique en cours d'exécution (y compris un programme informatique réussissant le TT) n'ont aucun sens en eux-mêmes, et donc que (2) peu importe ce que fait le cerveau pour générer du sens, il ne peut pas consister simplement en un calcul indépendant de l’implémentation : Alors que fait le cerveau pour générer du sens (Harnad 2001a) ?
Symboles formels. Pour répondre à cette question, nous devons formuler le problème de l’ancrage des symboles (Harnad 1990) :
Nous devons d'abord définir "symbole": un symbole est tout objet faisant partie d'un système de symboles. (La notion de symbole isolément n'est pas utile.) Un système de symboles est un ensemble de symboles et de règles pour les manipuler sur la base de leurs formes (et non de leurs significations). Les symboles sont systématiquement interprétables comme ayant des significations, mais leur forme est arbitraire par rapport à leur signification.
Un chiffre est un exemple : les chiffres (par exemple, "1", "2", "3") font partie d'un système de symboles (arithmétique) composé de règles formelles pour les combiner en chaînes bien formées. "2" signifie ce que nous entendons par "deux", mais sa forme ne ressemble en aucun cas au référent de "deux". Le système de symboles est systématiquement interprétable comme faisant des déclarations vraies sur les nombres (par exemple "1 + 1 = 2").
Il est essentiel de comprendre que les règles de manipulation des symboles sont basées sur la forme plutôt que sur le sens (les symboles sont traités comme primitifs et indéfinis, en ce qui concerne les règles), mais les symboles et leurs combinaisons basées sur des règles sont tous interprétables de manière significative. Il devrait être évident dans le cas de l'arithmétique formelle que, bien que les symboles aient un sens, ce sens est dans nos têtes et non dans le système de symboles. Les chiffres d'une calculatrice de bureau en cours d'exécution sont aussi dénués de sens que les chiffres d'une page de calculs manuels. Ce n'est que dans notre esprit qu'ils prennent sens (Harnad 1994).
Il ne s'agit pas de déprécier la propriété d'interprétabilité systématique : nous sélectionnons et concevons des systèmes de symboles formels (algorithmes) précisément parce que nous voulons connaître et utiliser leurs propriétés systématiques ; la correspondance systématique entre les inscriptions sur le papier et les quantités dans l'univers est une propriété remarquable et extrêmement puissante. Mais ce n'est pas la même chose que le sens, qui est une propriété de certaines choses qui se passent dans nos têtes.
Langage naturel et langage de la pensée. Un autre système de symboles est langue humaine. Sur papier ou dans un ordinateur, ce n'est aussi qu'un système de symboles formels, manipulable d’après des règles basées sur les formes arbitraires des mots. Dans le cerveau, des chaînes de gribouillis sans signification deviennent des pensées significatives. Je ne pourrai pas dire ce qu'il a fallu ajouter dans le cerveau pour leur donner un sens, mais je suggérerai une propriété et en soulignerai une seconde.
Une propriété que les symboles sur papier statique ou même dans un ordinateur dynamique manquent aux symboles dans un cerveau est la capacité d’identifier leurs référents. C'est ce dont nous parlions tout à l'heure, et c'est à cela que se réfère le terme jusqu'alors indéfini de « ancrage ». Un système de symboles seul, qu'il soit statique ou dynamique, ne peut pas avoir cette capacité, car la sélection de référents n'est pas seulement une propriété de calcul ; c'est une propriété dynamique (dépendante de l'implémentation).
Pour être ancré, le système de symboles devrait être augmenté de capacités sensorimotrices non symboliques - la capacité d'interagir de manière autonome avec ce monde d'objets, d'événements, de propriétés et d'états auxquels ses symboles sont systématiquement interprétables (par nous) comme faisant référence.
Il faudrait qu'elle puisse repérer et identifier les référents de ses symboles, et que ses interactions sensorimotrices avec le monde s'accordent de manière cohérente avec les interprétations des symboles.
En d'autres termes, les symboles doivent être connectés directement à (c'est-à-dire ancrés dans) leurs référents ; la connexion ne doit pas dépendre uniquement des connexions faites par le cerveau d'interprètes et utilisateurs externes comme nous. Le système symbolique seul, sans cette capacité d'ancrage direct, n'est pas un candidat viable pour être ce qui se passe réellement dans notre cerveau (Cangelosi & Harnad 2001).
Robotique. En d'autres termes, la nécessité de l'ancrage nous fait passer du niveau du test de Turing verbal, ce qui est purement symbolique (computationnel), au test de Turing robotique, hybride symbolique/sensorimoteur (Harnad 2000). Le sens est ancré dans la capacité robotique de détecter, d'identifier et d'agir sur les choses auxquelles les mots et les phrases se réfèrent (voir l'entrée pour la perception catégorielle ).
Mais si l'ancrage est une condition nécessaire au sens, est-ce une condition suffisante ? Pas nécessairement, car il est possible que même un robot qui pourrait réussir le test de Turing, "vivant" parmi nous de manière indiscernable toute une vie, n'ait pas dans sa tête ce que Searle a dans la sienne : ce pourrait être un zombie, sans personne habitant à l’intérieur, ressentant des sentiments, signifiant des significations.
Et c'est la deuxième propriété, la conscience, vers laquelle je souhaite simplement pointer plutôt que suggérer à quelles capacités fonctionnelles elle doit correspondre (je n'ai aucune idée de ce que cela pourrait être -- je pense plutôt qu'il est impossible pour la conscience d'avoir une rôle fonctionnel sauf sous peine de dualisme télékinésique). Peut-être que la capacité robotique TT est suffisante pour le garantir, peut-être pas. Dans tous les cas, nous ne pouvons espérer être plus sages à ce propos (Harnad 2001b).
----
PPT 2019:
Avant d'afficher ta ciélo, il faut toujours lire les ciélos des autres (et surtout mes répliques) pour ne pas répéter ce qui a dèjà été dit.
ReplyDeleteCommencer chaque semaine en lisant le résumé (c. 1000 mots) au haut de sa page dans ce blogue. Préciser toujours sur quoi ta ciélo est basée: quelle lecture, ou quelle vidéo du cours?
Le problème de l’ancrage des symboles, formulé par Stevan Harnad, cherche à expliquer comment les mots obtiennent leur sens. Un symbole seul, comme un mot sur une page ou dans un ordinateur, ne possède pas de signification intrinsèque : il est seulement manipulé selon des règles formelles. Pour qu’un symbole ait du sens, il doit être ancré dans le monde réel. L’ancrage direct correspond à la capacité de détecter et d’identifier les objets grâce à des interactions sensorimotrices. L’ancrage indirect consiste à définir un mot par d’autres mots, ce qui ne suffit pas. Ainsi, le sens nécessite une connexion concrète avec le monde.
ReplyDeleteSARAH, ce qu'on apprend, c'est à catégoriser (les objets, les actions, les attributs, et les idées. Qu'est-ce que de catégoriser? Que sont les categories? Et comment on les apprend directement, pour ensuite pouvoir les apprendre indirectement à partir des mots?
DeleteSelon Stevan Harnad, catégoriser consiste à identifier des objets, actions ou propriétés comme appartenant au même type en détectant leurs caractéristiques pertinentes. Une catégorie n’est pas seulement un mot, mais une capacité cognitive ancrée dans l’interaction avec le monde. On apprend directement les catégories par l’expérience sensorimotrice : percevoir, agir et distinguer les régularités. Cet apprentissage constitue l’ancrage direct. Une fois certaines catégories de base ancrées, on peut en apprendre d’autres indirectement par le langage, en combinant des symboles déjà compris. Toutefois, cet apprentissage indirect dépend toujours d’un ancrage préalable dans l’expérience.
DeleteSARAH, correct. Mais l'ancrage indirect nécessite (1) un enseignant pour décrire les traits qui distinguent les membres des non membres de la nouvelle catégorie et que (2) le nom de ces traits soient déjà ancrés chez l'apprenant. Est-ce que tu vois pourquoi ce préréquis est fondamental?
DeleteCe prérequis est fondamental parce que l’apprentissage indirect d’une nouvelle catégorie se fait par une description de ses traits. Pour comprendre cette description, l’apprenant doit déjà connaître le sens des mots qui nomment ces traits. Selon le problème de l’ancrage des symboles, un mot n’a de sens que s’il est déjà ancré dans l’expérience sensorimotrice. Si les mots utilisés par l’enseignant ne sont pas déjà ancrés chez l’apprenant, la description ne lui permettra pas d’identifier la catégorie et les symboles resteront sans signification.
DeleteALEXANDRA, c'est ça, mais ce sont les référents (c'est quoi?) des mots utilisés par l'enseignant qui doivent déjà être ancrés chez l'apprenant. Les mots ont un référent, mais c'est les propositions (c'est quoi?) qui ont un sens (c'est quoi?). (C'est une simplification fréquente qui prête à confusion de dire que les mots individuels ont un sens.)
DeleteLe texte de Stevan Harnad montre une idée importante en sciences cognitives, comme comprendre un mot, ce n’est pas seulement manipuler des symboles, c’est aussi leur donner un vrai sens. Le problème de l’ancrage des symboles explique que des systèmes comme un ordinateur ou un texte peuvent utiliser des signes correctement sans savoir ce qu’ils veulent dire. Ils traitent la forme des mots, alors que l’esprit humain comprend leur signification.
ReplyDeleteLe test de Turing et l’exemple de la chambre chinoise illustrent bien cette situation. Un système peut donner des réponses logiques sans vraiment comprendre. Cela remet en doute l’idée que penser consiste seulement à faire des calculs. Si la pensée humaine était seulement un programme, manipuler correctement des symboles suffirait pour comprendre, ce que Searle conteste. Harnad explique que le sens vient de notre interaction avec le monde. Les mots doivent être reliés à ce que l’on perçoit et à ce que l’on fait. Par exemple, comprendre le mot « chat » ne vient pas seulement d’une définition, mais du fait d’en avoir déjà vu, entendu ou touché. Ainsi, la cognition dépend donc du corps et de l’expérience, pas seulement sur des idées abstraites. Cette idée est importante pour l’intelligence artificielle. Elle suggère qu’imiter le langage humain ne suffit pas pour créer un esprit. Donc, sans perception ni expérience, un système reste seulement un manipulateur de symboles. Le texte nous amène ainsi à voir la pensée non pas comme un simple calcul, mais comme une interaction entre un être et son environnement.
NAOMIE, « ancrer » un mot (un mot qui réfère à une catégorie) c’est apprendre, dans le monde réel, à distinguer ce qui est membre de la catégorie et ce qui ne l’est pas. Pour ça il faut détecter les traits distinctifs des membres qui les distinguent des non membres. Ceci se fait par « l’apprentissage supervisé ou par renforcement ».
DeleteJe te conseille d’interroger un LLM sur le « deep learning » : Demande-lui de t’expliquer la différence entre (1) l’apprentissage non-supervisé, (2) l’apprentissage supervisé, (3) l’apprentissage par renforcement (très proche de l’apprentissage supervisé, du point de vue du rôle du feedback), et (4) l’apprentissage verbal. Ensuite reviens nous en faire état. (Un petit indice: (4) est ce que tu fais avec le LLM (ou un dictionnaire ou un glossaire ou un enseignant.)
Après avoir interrogé un LLM sur le deep learning, j’ai compris qu’il existe quatre formes principales d’apprentissage qui peuvent s’expliquer comme ceci.
DeleteDans l’apprentissage non supervisé, le système reçoit seulement des données et découvre lui-même des regroupements sans connaître leur signification.
Dans l’apprentissage supervisé, chaque exemple est accompagné de la bonne réponse, ce qui lui permet d’associer un mot à une catégorie perceptible.
Dans l’apprentissage par renforcement, il apprend par essais-erreurs grâce à des récompenses ou pénalités : le feedback est présent, mais indirect.
Enfin, l’apprentissage verbal consiste à apprendre uniquement par des explications linguistiques (comme avec un dictionnaire, un enseignant ou un LLM), sans contact avec les objets réels.
Ainsi, les trois premiers reposent sur l’expérience, alors que l’apprentissage verbal repose sur des symboles définis par d’autres symboles. Cela rejoint le problème de l’ancrage des symboles : manipuler correctement des mots ne signifie pas encore comprendre ce qu’ils désignent.
NAOMIE, les détails sont un peu vagues, mais grosso modo, c'est ça.
DeleteL'apprentissage verbal nécessite que les mots qui figurent dans l'explication (pour nommer les traits distinctifs) aient déjà été ancrés (directement ou indirectement). Sans ça on ne comprendrait pas l'explication.
Selon moi, Harnad dit que le vrai défi n’est pas seulement de faire une IA qui répond bien, mais de savoir si ses mots ont un sens pour elle. Des mots sur une page semblent avoir un sens, mais sans un esprit, ce sont juste des signes. Un ordinateur peut aussi manipuler des symboles et donner les bonnes réponses, sans que le sens soit vraiment “à l’intérieur”. L’idée d’ancrage est donc de relier certains mots au monde, par la capacité de reconnaître ce dont on parle et d’agir en conséquence (par exemple distinguer, choisir, éviter, trouver). Ça évite que les mots soient seulement définis par d’autres mots. Mais comment un mot comme “justice” ou “promesse” pourrait-il être ancré, alors qu’on ne peut pas le montrer du doigt comme un objet?
ReplyDeletePHILIP, voici un exercice très révélateur pour toi :
Delete1. D’abord, lis mes répliques dans ce fil concernant « catégorisation », « abstraction » et « abstrait ».
2. Ensuite, consulte un dictionnaire pour chercher la définition soit de « justice », soit de « promesse ».
3. Puis répète ce même exercice, récursivement, avec chaque mot de contenu dans cette définition que tu considères « abstrait ».
4. Continue jusqu’à ce que tu ne tombes plus que sur des définitions constituées de mots « X » que, si tu étais face à leur référent, tu pourrais identifier simplement en pointant et en disant : « Voilà, ça, c’est un X » ou « Ça, c’est du X ».
5. Ensuite, reviens ici sur le blogue et affiche ta liste hiérarchique.
Peut-être que cela aidera à freiner la propagation de ce canard (ce n’est pas de ta faute !) selon lequel les mots « abstraits » ne pourraient pas s’ancrer…
Je pense que la question soulevée sur les mots abstraits est très intuitive, mais qu’elle repose peut-être sur une mauvaise intuition de ce qu’exige l’ancrage.
DeleteChez Harnad, ancrer un symbole ne veut pas dire pouvoir pointer directement son référent du doigt. Cela veut plutôt dire que, quelque part dans la chaîne des dépendances sémantiques, le système doit pouvoir relier ses symboles à des capacités sensorimotrices permettant d’identifier des référents dans le monde.
Dans ce sens, même des mots comme « promesse » ou « justice » pourraient être ancrés de manière hiérarchique. Si l’on déroule leurs définitions, on tombe progressivement sur des notions plus concrètes (personne, dire, action, futur, obligation, etc...). L’ancrage ne serait donc pas forcement direct. Pour des mots "abstraits", celui-ci est construit à partir d’une base de notions plus concrètes.
ADAM, c'est exacte.
DeleteCe qui me semble central dans le texte de Harnad n’est pas seulement l’idée que les symboles doivent être reliés au monde, mais que cette exigence remet en question l’indépendance de l’implémentation défendue par le computationnalisme. La distinction entre interprétabilité et signification réelle est décisive, car un système formel peut produire des énoncés cohérents, voire vrais, sans que ses symboles aient un sens pour lui. La réussite au test de Turing ne garantit donc pas la compréhension, comme le suggère l’argument de la chambre chinoise. Si la manipulation formelle ne suffit pas, le véritable enjeu n’est plus seulement de critiquer le computationnalisme, mais de déterminer ce qu’il faut ajouter à un système symbolique pour qu’il puisse réellement produire du sens. L’ancrage sensorimoteur est probablement nécessaire, mais il ne garantit pas à lui seul l’émergence du sens. Le problème ne porte donc plus uniquement sur le calcul, mais sur la nature même de l’architecture capable de générer du sens.
ReplyDeleteMURIELLE, bonne synthèse. Un petit détail, mais important : les mots de contenu ont des référents, pas un sens. Le sens appartient aux propositions, c’est-à-dire aux énoncés sujet/prédicat qui peuvent être vrais ou faux. Peux-tu expliquer cette distinction ? Un mot isolé ne peut pas être vrai ou faux.
DeleteLa distinction est que les référents sont les choses dans le monde auxquelles les mots renvoient, tandis que le sens correspond à la manière dont ces choses sont décrites. Les mots de contenu servent donc à référer à des objets, des actions ou des propriétés dans le monde. Par exemple, le mot de contenu « chien » réfère à une catégorie d’animaux. Pris isolément, il ne peut pas être vrai ou faux, car il ne fait que désigner quelque chose sans affirmer quoi que ce soit à son sujet. Le sens, ainsi que la vérité ou la fausseté, appartiennent plutôt aux propositions qui affirment quelque chose sur ces référents, par exemple « le chien est noir ».
DeleteALEXANDRA, c'est correct.
DeleteD’après les propos de Stevan Harnad, le problème de l’ancrage des symboles est relié au problème de la manière dont les mots obtiennent leur sens, et le problème de la signification est relié au problème de la conscience. Malgré que les symboles soient interprétables comme détenant des significations, la manipulation des symboles et des règles dans un système de symboles n’est pas basée sur leurs significations, mais sur leurs formes. Ainsi, le computationnalisme ne suffit pas pour interpréter le sens des mots dans le monde. L’ancrage désigne que les symboles doivent détenir des capacités sensorimotrices.
ReplyDeleteYASMEEN, en quoi diffère le rôle des symboles en calcul et en langue naturelle? Et quelle est la différence entre la computation et le computationnalisme?
DeleteLe problème de l’ancrage des symboles consiste à comprendre la connexion entre les symboles aux formes arbitraires et les choses de formes non-arbitraires qu’ils représentent. Le cerveau ne fait pas qu’appliquer des regels syntaxiques aux phrases qu'il formule. Les catégories auxquels ces mots appartiennent jouent un rôle clé dans leur agencement. L’exemple du dictionnaire chinois-chinois démontre que pour comprendre un symbole nous devons le relier à quelque chose de non-symbolique comme le monde réel. Le système symbolique quoique puissant n’est pas suffisant pour résoudre le problème de l’ancrage symbolique. Harnad propose une solution d’un système hybride qui serait à la fois symbolique et connexionniste. Le connexionnisme consiste à l’apprentissage par l’expérience. Les symboles doivent être ancrées dans des représentations iconiques et catégorielles qui sont acquis par l’expérience. Une fois un objet est représenté de manière sensorielle et que ces caractéristiques sont détectées grâce aux sens nous les catégorisons avec les symboles.
ReplyDeleteBENJAMIN, « représente » est un mot creux (“weasel word” WW). Un mot de contenu a un référent ; « tapis » réfère aux tapis, et « chat » réfère aux chats. Les chats sont des choses qu’on reconnais à vue, qu’on peut lever et caresser, et les tapis on peut marcher dessus. Le lien entre ces mots et leurs référents ainsi que les choses qu’on peut faire et qu’on ne peut pas faire avec eux c’est l’apprentissage des traits sensori-moteurs qui distinguent les membres des non membres de la catégorie « chat » et de la catégorie « tapis ». Les détecteurs des traits distinctifs qu’on apprend sont dans nos cerveaux, et c’est ça qui lie les mots, également dans nos cerveaux, avec leur référents, à l’extérieur de nos cerveaux. Et c’est ça, l’ancrage.
DeleteUn mot tout seul ne peut pas être vrai ou faux. Par exemple, « Tony Blair » désigne une personne. Ça renvoie à quelqu’un dans le monde, mais ça ne dit rien à son sujet. On ne peut pas dire que « Tony Blair » est vrai ou faux. C’est juste un nom. Par contre, si je dis : « Tony Blair est le premier ministre du Royaume-Uni », là je fais une affirmation et cette affirmation peut être vraie ou fausse selon la réalité. C’est seulement à ce moment-là qu’on peut parler de vérité. Donc le sens complet appartient aux phrases qui disent quelque chose sur le monde, pas aux mots isolés. C’est un peu comme avec les chiffres dont parle Harnad. Le symbole 2 tout seul n’est ni vrai ni faux, mais 1 + 1 = 2 ça peut être vrai. Ce n’est pas le symbole isolé qui porte la vérité, c’est la phrase complète. Donc les mots ont des référents ils pointent vers des choses, mais le sens de quelque chose qu’on peut juger vrai ou faux appartient aux propositions ou en d'autres mots, aux énoncés complets.
ReplyDeleteADAM, correct. Mais dans le monde des référents perceptibles, il est facile de convertir un mot de contenu en une proposition vraie ou fausse en pointant et disant: « c'est un tapis ! » (sans même ajouter un autre mot de contenu). (C'est vrai qu'avec les mots plus « abstraits » comme « trahison », de pointer ne suffit pas pour préciser le référent, mais on n'a qu'à consulter un dictionnaire pour constater qu'il ne faut que quelques pas de plus pour se rendre à des référents qu'on peut déjà pointer: toutes le catégories sont abstraites, même « tapis », car qu'il faut toujours pouvoir détecter et abstraire leurs traits distinctifs.)
DeleteEn me basant sur Harnad, je comprends que le problème de l’ancrage des symboles ne vise pas seulement la relation entre les mots et le monde, mais la limite même du computationnalisme. Un système peut manipuler des symboles selon des règles formelles et demeurer entièrement interprétable pour nous, sans que ses symboles aient un sens pour lui. La différence n’est donc pas entre mot et chose, mais entre manipulation syntaxique et capacité à identifier des référents. Ancrer un symbole, c’est apprendre à distinguer les membres d’une catégorie dans le monde réel. Reste alors une question plus profonde : cette capacité suffit-elle à générer du sens, ou seulement à reproduire un comportement approprié ?
ReplyDeletePour résumer les notions abordées dans le cours au sujet de l'ancrage des symboles: Un symbole étant un objet quelconque d'une forme arbitraire, l'ancrage étant ce qui lie le symbole référent au sens qu'on lui apporte; L'ancrage direct étant l'apprentissage individuel d'une information par essai/erreur et expérience sensori-motrice, l'ancrage indirect étant l'apprentissage par le récit de quelqu'un d'extérieur qui nous communique l'information.
ReplyDeleteLe problème de l’ancrage des symboles cherche à expliquer comment des symboles arbitraires peuvent acquérir un sens concret, au lieu d’être seulement manipulés selon des règles.
ILIÈS, correct, mais n'oublie pas le but de l'apprentissage sensorimoteur: de détecter les traits distinctifs, par essais, erreurs et feedback correctif.
DeleteSemaines 5
ReplyDeleteSelon ma lecture, le problème de l’ancrage des symboles concerne la manière dont les mots obtiennent leur sens. Un système purement symbolique manipule des formes sans comprendre leur signification. En s’appuyant sur le test de Turing de Alan Turing et la critique de John Searle, Mr Harnad soutient que le calcul seul ne suffit pas pour produire du sens. Les symboles doivent être ancrés dans des capacités sensorimotrices permettant une interaction directe avec le monde. Toutefois, même cet ancrage ne garantit pas nécessairement la conscience. J’aimerais vous poser quelques questions sur le Problème de l’ancrage des symboles
1. L’ancrage sensorimoteur est-il suffisant pour expliquer la compréhension, ou la conscience est-elle indispensable ?
2. Une intelligence artificielle actuelle peut-elle être considérée comme véritablement « ancrée » ?
3. Le test de Turing robotique répond-il réellement à l’argument de la chambre chinoise ?
JOCELYNE, excellente synthèse, et excellentes questions: En effet, L’ancrage ne garantit pas la « conscience » (c’est à dire le ressenti.) Ça c’est le « problème difficile » (Semaine 10).
Delete1. L’ancrage sensorimoteur est-il suffisant pour expliquer la compréhension, ou la conscience est-elle indispensable ?
C’est le problème difficile: Est-ce que le ressenti est superflu? Sinon, quelle est sa fonction causale?
2. Une intelligence artificielle actuelle peut-elle être considérée comme véritablement « ancrée » ?
Pour être ancré il faut au moins un robot qui réussit T3. Il n’y en a pas (encore). Selon Turing, T3 et T4 sont le plus qu’on peut atteindre avec sa méthodologie (« l’indiscernabilité Turing» = le « problème facile »), mais ça ne touchera point le problème difficile. (Le « problème des autres esprits» non plus — mais ça n’importe pas: S’il s’avère que Valérie Plante n’est qu’une robote T3/T4), ça n’importe pas. Elle mériterait toujours tout les droits humains: Il n’y a pas d’autre test que le T3/T4 — et « Étienne dit » que déjà le T3 suffirait — mais pas le T2: Pourquoi pas?)
3. Le test de Turing robotique répond-il réellement à l’argument de la chambre chinoise ?
L’argument de Searle ne s’applique qu’au computationnalisme (C=C), s’il réussit, seul, le T2. Dès qu’on monte au T3, ce n’est plus du C=C. Donc Searle ne peut pas y toucher (privé de son « périscope » ; Peux-tu expliquer pourquoi?)
J'ai cru comprendre du texte que l'esprit est nécessaire pour donner du sens à un symbole. Seul et sans association, un symbole est, en quelque sorte, dépourvu de sens. L'esprit ancre le mot à un sens précis, ce qui lui donne une signification. De plus, l'expérience de Searle nous montre qu'un simple calcul n'est pas suffisant pour ancrer une signification à un mot ou à un symbole. Les règles et algorithmes peuvent êtres mémorisés, mais cela ne veut pas dire que le sens du symbole est ancré. En d'autres mots, cette manière computationnelle de manipuler les symboles est basée sur leurs formes, et non pas sur leurs sens. Je pense qu'on peut faire un lien entre l'ancrage et la compréhension : mémoriser ne veut pas dire comprendre, et cette méthode computationnelle n'est pas égale à l'utilisation de la conscience.
ReplyDelete