Blondin Massé et al (2012) Symbol Grounding and the Origin of Language: From Show to Tell. In: Origins of Language. Institut de sciences cognitives. UQÀM
Résumé : Le succès adaptatif des organismes dépend de leur capacité à faire la bonne chose avec le bon type de chose. C'est la catégorisation. La plupart des espèces peuvent apprendre les catégories (1) par expérience directe ("induction"). Seuls les êtres humains peuvent apprendre les catégories (2) de bouche à oreille ("instruction"). Des simulations de vie artificielle ont montré l'avantage évolutif de l'instruction par rapport à l'induction et des expériences d'électrophysiologie humaine ont montré que ces deux manières radicalement différentes d'acquérir des catégories partagent encore certaines caractéristiques communes dans nos cerveaux d'aujourd'hui. Les analyses de la théorie des graphes révèlent que les dictionnaires sont constitués d'un noyau de mots plus concrets qui sont appris plus tôt, par expérience directe (induction) ; les significations du reste du dictionnaire peuvent être apprises par définition (instruction) seule, en combinant les mots de base inductifs en propositions de sujet/prédicat avec des valeurs de vérité. Nous supposons que le langage a commencé lorsque les tentatives de communication par mime se sont conventionnalisées en séquences arbitraires de noms de catégories partagés, de plus en plus arbitraires, qui ont permis aux membres de notre espèce de se transmettre de nouvelles catégories en les définissant et en les décrivant via des propositions (instruction).
1. Montrer vs. dire
Comme de nombreux articles, celui-ci a commencé par une présentation PowerPoint, bien que cette forme de communication laisse beaucoup à désirer, tant du point de vue de l'auditeur que de celui de l'orateur. En tant qu'auditeur, on constate généralement que les présentations PowerPoint, loin de clarifier, entrent en conflit ou détournent l'attention de ce que dit l'orateur. Et en tant qu'orateur, on constate qu'ils réduisent la flexibilité et la spontanéité de sa présentation (bien que, bien sûr, tout écrire à l'avance le réduise encore plus !).
Mais cet article concerne les origines du langage, et le langage a commencé avant les présentations PowerPoint. De plus, à certains égards, la langue remplace également les présentations PowerPoint. Les présentations PowerPoint sont «montrer et dire», mais plus montrer que dire. Dans ce chapitre nous allons essayer de vous rappeler le pouvoir de raconter seul, la tradition orale. À bien des égards, l'origine du langage équivaut à la transition du spectacle au récit (comme cela a été dépeint dans la performance pantomime mettant en scène l'avènement du langage à l'ouverture de l'Institut d'été sur lequel ce volume est basé) (Harnad 2000, 2003)
2. Avant l'oralité
La tradition orale n'aurait pas pu commencer, bien sûr, par un discours formel, devant un large public, comme l'a fait cet article. Cela a dû commencer par quelque chose de beaucoup plus informel, local et interactif : quelque chose de plus proche de la conversation. Et l'écriture a commencé beaucoup, beaucoup plus tard. Donc, lire à haute voix un discours comme celui-ci est un peu une triche. Il n'est pas non plus probable que le langage ait commencé par le bouche à oreille, pour des raisons que nous décrirons bientôt.
Ainsi, les origines du langage, suggérons-nous, ne correspondent pas aux origines du langage vocal ; ils ne correspondent pas non plus aux origines de la communication vocale. Le langage lui-même a commencé plus tôt que le langage vocal (mais pas plus tôt que la communication vocale, évidemment). Cependant, une fois qu'il a fait sentir son pouvoir et ses avantages adaptatifs, le langage a simplement migré (comportementalement, neuronalement et génétiquement) vers la modalité vocale, avec tous ses avantages évidents (Steklis & Harnad 1976). Avant de pouvoir migrer, cependant, le langage lui-même devait naître.
Comment est né le langage ? Et pourquoi? Et quel était l'avantage adaptatif qu'il conférait ? Cet avantage a dû être énorme, pour être encodé dans nos génotypes et encéphalisé dans nos cerveaux préparés au langage comme il l'a fait. La langue a-t-elle été « inventée », de la même manière que l'écriture, l'imprimé et Internet ont été inventés (Harnad 1991) ? Ou s'est-il en quelque sorte différencié progressivement (un peu comme un têtard se transformant en grenouille) à partir d'une longue, peut-être interminable, succession de précurseurs (peut-être des « protolangages » du genre souvent évoqués lors de l'Institut d'été) ? Et quand le codage en dur évolutif du langage dans nos gènes et notre cerveau a-t-il pris fin et que le codage en douceur historique par l'apprentissage et l'expérience a pris le dessus ?
3. Qu'est-ce que le langage ?
Avant de pouvoir essayer de répondre à l'une de ces questions, nous allons devoir essayer de comprendre ce dont nous essayons d'expliquer les origines : qu'est-ce que le langage ? Aucun des contributeurs à l'Institut d'été ne s'est aventuré à définir explicitement le langage, mais il y a eu quelques définitions implicites. Certains d'entre eux ont été très larges - ce que Fitch (ce volume), avec Chomsky, appelle la « Faculté de langue, large (FLB) » (Hauser et al 2002). Cela engloberait non seulement la phonologie, la grammaire, la sémantique et la pragmatique, mais toutes les autres structures et compétences impliquées ou dépendantes du langage, de la parole et de l'ouïe à la perception et à l'action, y compris la socialisation et la chasse, la fabrication et l'utilisation d'outils, la communication, le pointage, l'imitation, le mime, la lecture de l'esprit, et leurs nombreux substrats et précurseurs neuronaux et génétiques, tels qu'enracinés dans les voies dorsales et ventrales du cerveau, les neurones canoniques et les neurones miroirs, en nous-mêmes, dans nos espèces cousines les singes, et dans notre espèces ancêtre, les hominidés, les hominidés et peut-être les katydidés.
Si tout cela est du langage, ou une partie ou un produit précurseur du langage, nous visons une cible si vaste que nous pouvons difficilement la manquer. Mais après avoir réussi à le frapper, il n'est pas évident de savoir quel jeu nous avons abattu.
À cette notion large du langage s'opposent des notions plus étroites (Fitch's "Faculty of Language, Narrow" (FLN)), comme la parole. Ou, encore plus minime, le « minimalisme » dont nous avons entendu parler ici à plusieurs reprises (par exemple, par Jackendoff, ce volume), mais non décrit. Nous n'essaierons pas non plus de décrire le minimalisme, car nous ne le pouvons pas. Mais de ce point de vue, bien qu'il ne s'agisse pas de l'ensemble du langage, la propriété quintessentielle du langage est la grammaire universelle (UG), un ensemble complexe de règles qui ne peuvent être acquises explicitement à partir de l'expérience de l'enfant parce que l'enfant ne produit ni ne reçoit nulle part. suffisamment d'informations ou de commentaires correctifs pour apprendre les règles de l'UG de manière inductive, par essais et erreurs. Donc UG doit être inné (Harnad 2008).
Si l'UG est au cœur du langage et est inné plutôt qu'instruit, cela transformerait une grande partie de la question de l'origine du langage en question de l'origine de l'UG. Cette question a déjà été posée (par exemple, par l'un d'entre nous !) il y a 35 ans, lors de la première conférence sur les origines des langues à New York (Harnad 1976). Et la réponse de Noam Chomsky était alors plus ou moins qu'il n'y a pas besoin de poser ou de répondre à cette question (Chomsky 1976).
Depuis lors, certaines personnes ont quand même essayé de répondre à la question. Mais expliquer l'origine évolutive de l'UG se heurte à certains problèmes, car l'UG n'est pas le genre de chose - comme les ailes, les membres, le cœur ou les yeux - pour laquelle une histoire évolutive simple peut être racontée sans énormément d'ourlets ad hoc, hawing, et le flou. D'autres options consistent à nier l'existence du GU, ou à affirmer qu'il peut être appris après tout, et donc qu'il n'y a pas lieu de s'inquiéter de la façon dont il aurait pu évoluer.
Nous essaierons d'éviter les pièges de la vision trop large et trop étroite du langage en proposant non pas une définition du langage mais un test pour déterminer si quelque chose est ou non un langage. Cependant, il faut d'abord comprendre que notre test concerne le langage naturel, tel que l'anglais, le français, la langue des signes américaine ou le proto-indo-européen. Il ne s'agit pas de langages formels artificiels tels que les mathématiques, la logique ou les langages de programmation informatique. Ces langages artificiels ont des définitions formelles, mais nous suggérons qu'en réalité tous ne sont que des parties ou des sous-ensembles du langage naturel.
3.1. Le pouvoir de dire tout ce qui peut être dit
Alors, quel est notre test pour savoir si quelque chose est un langage naturel ? Il est basé sur un critère proposé indépendamment par Jerrold Katz (1976) et Steklis & Harnad (1976), également il y a 35 ans lors de la conférence NY New York Academy. C'est un critère dont il a fallu 35 ans à son auteur pour comprendre les implications.
La version de Katz était la thèse de la « glossabilité » : une langue naturelle est un système de symboles dans lequel on peut exprimer n'importe quelle proposition. Une proposition est un énoncé, sujet plus prédicat, qui a une valeur de vérité, vraie ou fausse. « 2+2=4 » est une proposition ; tout comme "le chat est sur le tapis". Il en va de même pour chaque séquence de mots dans ce texte qui se termine par un point. (Les questions et les impératifs sont de légères variantes, mais à peu près le même genre de chose.) Un fait très général doit également être souligné ici qui sera important pour ce que nous dirons plus tard : chaque proposition est également une déclaration d'inclusion de catégorie. En d'autres termes, dire que A est B revient à dire que A est un sous-ensemble, un membre ou une partie de B.
Notre version du même critère que la thèse de glossabilité de Katz était la thèse de la "traductibilité" : tout ce que vous pouvez dire dans n'importe quelle langue naturelle peut également être dit dans n'importe quelle autre langue naturelle - bien qu'il soit important d'ajouter, pas nécessairement dit dans la même langue. nombre de mots. La traduction mot à mot n'est souvent pas possible, comme vous l'avez découvert si vous avez utilisé Google Traduction. Une langue peut dire certaines choses moins économiquement qu'une autre. Mais il peut encore tout dire.
Pour les lecteurs qui ont des doutes et qui pensent qu'il y a quelque chose qu'on peut dire dans une autre langue qu'on ne peut pas dire en anglais : s'il vous plaît, dites-nous — en anglais — ce qu'est ce quelque chose, et pourquoi on ne peut pas le dire. Vous constaterez que vous avez généré votre propre contre-exemple.
3.2. Que serait le « protolangage » ?
Maintenant, avec ce test pour savoir si quelque chose est ou non un langage – un système dans lequel vous pouvez dire tout ce qui peut être dit – considérons immédiatement l'une des notions qui est invoquée à plusieurs reprises dans ce volume : les « protolangages ». Rappelons que le thème de l'Institut d'été était l'origine du langage. Si une langue naturelle est un système de symboles dans lequel vous pouvez exprimer n'importe quelle proposition, qu'en est-il d'un protolangage ? Si vous ne pouvez pas exprimer toutes les propositions dans un protolangage, lesquelles ne pouvez-vous pas exprimer, et pourquoi pas ? (Nous laisserons cela aussi comme un exercice auquel les lecteurs pourront réfléchir par eux-mêmes, mais nous prévoyons que l'exercice ne réussira pas, et la raison de son échec sera importante pour notre tentative d'aller au cœur de ce qui est et n'est pas une langue.)
Alternativement, si l'on peut exprimer toutes les propositions dans un protolangage, alors pourquoi l'appeler « protolangage » ? Car alors la question à laquelle nous nous adressons dans cet institut deviendrait simplement : quelle est l'origine du protolangage ? Parce que, comme on dit, ça ne peut pas être des tortues (ou des têtards) tout en bas.
Donc, si vous acceptez notre critère pour ce qui constitue une langue naturelle, nous avons maintenant réduit la question de savoir quelle est l'origine du langage à la question de savoir quelle est l'origine d'un système de symboles dans lequel vous pouvez dire tout ce qui peut être dit en n'importe quelle langue naturelle. Quand est-ce arrivé? Où cela s'est-il passé? Pourquoi est-ce arrivé? Comment est-ce arrivé? Et quel était l'énorme avantage adaptatif qu'il conférait - un avantage suffisamment grand pour avoir abouti (au cours d'une période relativement courte de temps d'évolution) à ce que cette capacité et cette propension soient encodées dans les génotypes et encéphalisées dans le cerveau de chaque membre normal de notre espèce. ?
Nous ne pourrons pas vous dire quand et où cela a commencé à se produire ; mais nous ne voyons aucune raison de ne pas accepter les preuves des archéologues qui soulignent que, alors qu'il existe depuis longtemps des preuves d'un certain nombre de pratiques humaines uniques telles que la fabrication d'armes, d'outils et d'autres artefacts depuis des centaines de milliers d'années ( qui peuvent ou non déjà coexister avec le langage), il est probable qu'au moment où ces pratiques humaines uniques ont commencé à se multiplier rapidement (il y a entre 50 000 et 250 000 ans), les êtres humains avaient déjà un langage - et que cette rapidité la croissance des connaissances et de la culture était en fait l'un des symptômes des avantages adaptatifs que la langue elle-même nous conférait.
3.3. Qu'est-ce qu'un système de symboles ?
Désormais, les outils et les armes - et les moyens de les fabriquer - sont clairement des inventions. La langue elle-même était-elle une invention ? Avons-nous inventé un système de symboles dans lequel vous pouvez exprimer n'importe quelle proposition ? Eh bien, dans un sens, nous devons avoir, mais pas tout à fait dans le même sens que nous (beaucoup plus tard) avons inventé l'écriture ou l'impression ou le Web. Pour voir cela, nous devons examiner plus attentivement ce qu'est un système de symboles. Nous avons mentionné précédemment que par langage naturel, nous n'entendons pas des langages formels artificiels tels que les mathématiques, la logique ou les langages de programmation informatique : ces langages formels font déjà partie du langage naturel.
La définition formelle d'un symbole, cependant, peut être empruntée à ces langages artificiels (Harnad 1990) : un symbole est un objet, un objet de forme arbitraire. Mais un symbole formel ne peut exister ou être défini ou décrit isolément. Un symbole fait essentiellement partie d'un système de symboles, un ensemble d'objets de ce type, ainsi qu'un ensemble de règles pour manipuler ces objets - les combiner et les recombiner en formes composites, basées sur des règles qui ne fonctionnent que sur les formes des symboles arbitraires, pas leurs significations. Certaines des combinaisons de symboles seront « bien formées » selon les règles, et d'autres ne le seront pas. Les règles pour les combiner et pour déterminer quelles combinaisons sont bien formées sont appelées règles "formelles" ou "syntaxiques", car elles ne sont basées que sur la forme et, comme nous l'avons noté, la forme des symboles est arbitraire.
Qu'est-ce que cela signifie? Arbitraire par rapport à quoi ? Eh bien, jusqu'à présent, les règles syntaxiques semblent n'être que les règles d'un jeu formel, un jeu de manipulation de symboles arbitraires en les combinant et en les recombinant. Mais pourquoi jouerions-nous à un jeu aussi formel ? Nous ne nous dirigeons pas ici vers l'idée que le précurseur ou le moteur du langage naturel n'était qu'un jeu. D'ailleurs, nous discutons encore des langages formels, pas encore de la pleine puissance des langages naturels. Mais même les langages formels consistent en plus qu'une simple syntaxe. Non seulement certaines combinaisons de symboles sont syntaxiquement bien formées et d'autres non. Mais ceux qui sont syntaxiquement bien formés ont aussi une sémantique : ils peuvent être systématiquement interprétés comme signifiant quelque chose.
L'arithmétique est un exemple familier de système de symboles formels. Vous avez des symboles comme 0, 1, +, -, =. La combinaison « 0 1 – + » est mal formée, alors que la combinaison « 0 +1 =1 » est bien formée. "0+1=1" se trouve aussi être vrai, alors que "1+1=1" est bien formé mais faux. Nous avons donc besoin de deux symboles supplémentaires, T et F, pour formuler encore un autre ensemble de règles syntaxiques, cette fois non pas pour déterminer quelles combinaisons sont bien formées, mais pour déterminer quelles combinaisons bien formées sont vraies et lesquelles sont fausses.
Ce n'est encore que de la syntaxe et se compose de certains axiomes (qui sont des chaînes de symboles auxquels le symbole True est attribué) et de règles syntaxiques pour combiner des chaînes de symboles bien formés en chaînes plus longues appelées dérivations ou preuves. Les preuves elles-mêmes sont toutes simplement syntaxiques aussi : vous ne pouvez pas dire que 2+2=4 est vrai simplement parce que vous le « savez » ou simplement parce que vous pouvez le « voir ». Vous devez donner la preuve, qui n'est qu'une chaîne de symboles régis par des règles. Mais néanmoins, si vous avez choisi les bonnes règles syntaxiques et les bons axiomes, alors toutes et seulement les vraies propositions de l'arithmétique seront calculables en utilisant uniquement les règles syntaxiques.
(En fait, pas tous, à cause du théorème d'incomplétude de Goedel, mais n'abordons pas cela ici, car ce n'est pas vraiment pertinent pour le point que nous illustrons. Si tout le monde était aussi familier avec le calcul propositionnel ou le calcul des prédicats qu'ils le sont avec l'arithmétique, nous aurions pu utiliser l'un ou l'autre pour notre exemple formel d'un système de symboles, et cela aussi aurait été entièrement syntaxique, ainsi que vrai, sauf qu'il serait également complet, et donc non vulnérable au théorème d'incomplétude de Goedel .)
Ainsi, l'arithmétique est un ensemble de symboles, manipulés uniquement syntaxiquement, c'est-à-dire uniquement sur la base de leurs formes, et non de leurs significations. Pourtant, les symboles bien formés et les combinaisons de symboles ont tous des significations, à savoir toutes les vraies propositions de l'arithmétique.
3.4. Arbitraire de la forme, autonomie de la syntaxe et du sens
Nous pouvons maintenant voir le sens dans lequel les « formes » des symboles eux-mêmes sont arbitraires : 0 n'est pas « façonné » comme le néant, 3 n'a pas la forme d'une trinité, le signe égal n'a pas la forme d'une égalité, et ainsi de suite. La preuve de 2+2=4 n'a pas non plus la forme d'une vérité. Les symboles et les combinaisons de symboles ont simplement la propriété remarquable que si les règles syntaxiques sont bien choisies, elles peuvent être systématiquement interprétées comme les vraies propositions de l'arithmétique. Nous aurions pu choisir des objets avec d'autres formes pour nous servir de symboles. Notre choix est simplement notre système de notation arbitraire, sur lequel nous sommes tous d'accord, par convention. Mais les règles syntaxiques, si elles étaient justes, donneraient le même résultat dans n'importe quel système de notation.
Remarquons que dans un système de symboles formels nous avons une véritable « autonomie de syntaxe », au sens où les règles régissant les manipulations de symboles sont complètement indépendantes et formelles : elles n'ont aucun recours au sens. Pourtant, ils sont systématiquement interprétables comme signifiants - interprétables par nous, les utilisateurs du système de symboles formels, qui savons ce que signifient réellement 2 et égal et vrai. Mais quand on utilise 2 ou égal comme mots en langage naturel, ce n'est plus seulement la manipulation de symboles basée sur des règles syntaxiques opérant sur leurs formes arbitraires, comme dans un langage formel. En langage naturel, nous manipulons également les mots en fonction de leur signification.
Le langage naturel, lui aussi, a façonné arbitrairement des symboles, convenus par convention, ainsi que des règles syntaxiques qui déterminent ce qui est bien formé et ce qui ne l'est pas. Et ses symboles sont également systématiquement interprétables comme signifiants. (Certaines personnes soutiennent que la syntaxe du langage naturel est également autonome par rapport au sens Koster 1986 ; il y a peut-être plus de raisons de faire des réserves à ce sujet, mais supposons que cela soit également vrai.)
Ce qui est certainement vrai, c'est que lorsque nous manipulons des symboles du langage naturel (c'est-à-dire des mots) pour dire tout ce que nous voulons dire, nos manipulations de symboles sont régies par une contrainte supplémentaire, au-delà de la syntaxe qui détermine si ou non, ils sont bien formés : cette autre contrainte est la « forme » du sens des mots.
4. Catégorisation
À l'exception de quelques mots de fonction, tels que le et si et non, la plupart des mots d'un dictionnaire de langage naturel sont des mots de contenu, et en tant que tels, ce sont des noms de catégories. Les catégories sont des sortes : sortes d'objets, événements, actions, propriétés, états. Être capable de catégoriser, c'est être capable de faire la bonne chose avec le bon type de chose (Harnad 2005). Et les choses ont des formes. Et nous aussi. Donc, pour pouvoir faire la bonne chose avec le bon type de chose, notre cerveau doit être capable de distinguer les formes des membres des non-membres de chacune des catégories que nous possédons.
La catégorisation est si générale qu'elle couvre à peu près toutes nos compétences comportementales et cognitives - toutes celles qui dépendent d'une décision discrète ou catégorique. Cela exclut uniquement les compétences continues, telles que la marche, la natation, le basket-ball ; nous pouvons catégoriser certains des points de choix discrets de leurs actions dynamiques, mais les compétences elles-mêmes sont continues plutôt que catégorielles, et leurs "formes" dynamiques ne sont certainement pas arbitraires mais congruentes avec les objets et les états du monde réel sur lesquels elles opèrent - congruent avec ce que Gibson (1979) a appelé leurs « affordances », ou la forme de ce que les objets de nos actions permettent de faire avec eux, avec des corps qui ont la forme du nôtre.
La plupart de nos catégories ne sont pas innées. Nous devons apprendre quelles choses sont contenues dans les catégories animaux, plantes, hiboux, papillons, rochers, montagnes, arbres, tables, tremblements de terre, querelles, marcher, courir, nager, voler, ballons de basket, jouer au basket, vert, gros, égal, grand, à l'intérieur, sous, risqué, bonté, vérité et beauté.
Même les noms propres (comme Ferdinand de Saussure ou Noam Chomsky) nomment des catégories, dans le sens où chaque fois que vous voyez l'individu qui porte ce nom propre, il n'a pas l'air exactement identique à la dernière fois que vous l'avez vu : changements de position, vêtements changement, changement d'heure, toutes ces instances doivent être reconnues comme faisant partie d'une seule et même catégorie : les instances de la personne individuelle nommée.
4.1. Le problème de la mise à la terre des symboles
Toutes ces catégories de mots de contenu répertoriées dans nos dictionnaires ont des membres. Si nous savons ce que signifie un mot donné, nous savons quels sont et ne sont pas les membres de la catégorie qu'il dénote (bien qu'il n'y ait aucune ressemblance entre la forme du mot et la forme des membres de la catégorie qu'il dénote). nous apprenons le sens d'un mot? Eh bien, nous pouvons le rechercher dans un dictionnaire. La définition le définira pour nous - à condition que nous connaissions déjà le sens des mots utilisés dans la définition du mot. Sinon, pas de problème, nous pouvons également rechercher ces mots, et ainsi de suite. Mais, comme pour les soi-disant «protolangages», il ne peut pas s'agir de définitions jusqu'au bout.
C'est le problème de l’ancrage des symboles (Harnad 1990). Dans un système de symboles en langage naturel, certaines, au moins, des significations de certains mots doivent être acquises par d'autres moyens que la définition verbale. Le candidat naturel, bien sûr, est l'expérience sensorimotrice directe : puisque les mots sont les noms de catégories, nous pouvons apprendre qui en sont et qui ne sont pas leurs membres par induction d'essais et d'erreurs. Un exemple serait d'apprendre quels champignons sont comestibles et lesquels sont toxiques. Vous échantillonnez un petit morceau de champignon, attendez de voir si vous tombez malade ou si vous vous nourrissez, et vous continuez à échantillonner différents champignons assez souvent jusqu'à ce que votre cerveau ait appris à les distinguer de manière fiable (si vous ne vous êtes pas empoisonné ou affamé avant) . Lorsque nous apprenons avec succès une nouvelle catégorie par induction sensorimotrice, notre cerveau apprend à détecter la forme sensorimotrice de la ou des caractéristiques qui distinguent de manière fiable les membres des non-membres.
4.2. Simuler l'origine du langage
Cangelosi et Harnad (2001 ; Cangelosi et al. 2002) ont réalisé une simulation de vie artificielle de créatures acquérant des catégories par induction sensorimotrice dans un monde « jouet » avec trois types de champignons différents : A, B et C. Nous ne décrirons pas les détails. sauf pour dire que deux des catégories, A et B, ne pouvaient être apprises que directement, par induction d'essais et d'erreurs, les réseaux de neurones apprenant à détecter les caractéristiques qui distinguaient les membres des non-membres pour chacune des deux premières catégories de champignons ( A, non-A, B, non-B). Pour la troisième catégorie, C, il y avait deux façons de l'apprendre, car la règle d'appartenance à cette catégorie était simplement la conjonction de la règle pour A et pour B : un champignon était un C s'il était à la fois A et B ; sinon, c'était non-C.
Figure 1. Simulation de vie artificielle des avantages évolutifs de l'instruction par rapport à l'induction. Dans un monde de champignons simulés, les champignons de la catégorie "A" et les champignons "B" ne pouvaient être appris que par induction par essais et erreurs, mais les champignons de la catégorie "C" pouvaient être appris soit par induction, soit par instruction (C = A + B). En quelques générations, les créatures virtuelles qui avaient tendance à apprendre le C par instruction ont survécu et se sont reproduites plus longtemps que celles qui avaient tendance à apprendre le C par induction, démontrant les avantages adaptatifs de l'instruction par rapport à l'induction dans l'acquisition de nouvelles catégories (Cangelosi & Harnad 2001 ).
POUR LES FIGURES VEUILLEZ VOIR LA VERSION ANGLAISE
Nous mettons deux types de créatures en compétition dans notre monde de jouets : des créatures qui ne peuvent apprendre que par induction, grâce à un retour correctif résultant d'un long échantillonnage par essais et erreurs pour détecter les caractéristiques distinctives, et des créatures qui peuvent apprendre par induction ou instruction, en « entendant » des créatures qui connaissaient déjà les catégories A, B et C, « vocalisant » lorsqu'elles cueillaient des champignons C, parce qu'elles vocalisaient les noms A, B et C.
C'est un peu de la triche, car nous avons câblé les créatures pour qu'elles vocalisent les noms des catégories ; mais - puisque nous ne croyons pas que le langage ait commencé vocalement de toute façon - pensez à la catégorie "noms" non pas comme des vocalisations mais comme des actions observables. Comme indiqué précédemment, la catégorisation consiste à "faire la bonne chose avec le bon type de chose". Et bien sûr, nommer n'est qu'un type de « faire » - un type tardif et arbitraire. Dans la simulation, les créatures font quelque chose de différent avec les deux types de champignons ; ils accomplissent un acte sensori-moteur différent. Disons qu'ils ARROSENT les champignons A, qu'ils MARQUENT l'emplacement des champignons B et qu'ils MANGENT les champignons C. Appelons donc les trois sortes de champignons les champignons EAU, les champignons MARK et les champignons EAT, avec les « noms » édictés corporellement, en exécutant des actions non arbitraires sur les membres de la catégorie, plutôt que vocalement.
Comme nous l'avons dit, les catégories WATER et MARK ne pouvaient être apprises que par induction, donc toutes les créatures les ont apprises de cette façon - à la fois les apprenants par induction uniquement et les apprenants d'instruction. (C'est le symbole de mise à la terre.)
Mais ensuite, lorsqu'il s'agissait d'apprendre la catégorie EAT, cela aussi pouvait être appris de manière longue, difficile et risquée - en essayant de détecter les caractéristiques distinctives par induction sensorimotrice par essais et erreurs - ou cela pouvait être appris rapidement, en un essai : en observant que d'autres, qui connaissaient déjà la catégorie, ont exécuté WATER uniquement avec des champignons WATER, MARK uniquement avec des champignons MARK, et WATER+MARK+EAT avec des champignons EAT. C'est l'apprentissage par l'instruction symbolique.
Lorsque nous avons mis les apprenants en induction uniquement en concurrence avec les apprenants en instruction, en quelques générations, les apprenants en instruction avaient survécu et reproduit plus que les apprenants en induction, dont il ne restait plus de survivants. (Nous avons qualifié les apprenants d'instruction de "voleurs" pour des raisons laissées au lecteur. Voici un indice : contrairement au vol de nourriture, le "vol" de catégories - éviter d'avoir à faire l'induction en suivant l'instruction à la place - est un crime sans victime ; en effet , les bénéfices de l'instruction dépendent essentiellement du mutualisme ; Poynder & Harnad 2007.)
4.3 De la pantomime à la proposition : le passage du montrer au dire
Ceci est donc notre hypothèse sur comment et pourquoi le langage a commencé. Comme beaucoup d'autres dans ce rapport, tous les composants cognitifs essentiels semblent déjà avoir été en place chez d'autres hominidés il y a 250 000 ans - tout comme beaucoup d'entre eux sont également présents chez nos cousins singes contemporains ainsi que chez d'autres espèces sociales intelligentes aujourd'hui : la capacité d'apprendre les traits distinguant les catégories par induction sensorimotrice ; la capacité d'apprendre par l'observation et l'imitation ; la capacité de pointage, d'attention partagée et de lecture dans les pensées ; une forte tendance à la coopération des parents dans l'élevage des jeunes à développement tardif; et la possession à la fois de "neurones canoniques" (qui reconnaissent ce que vous pouvez faire avec quoi) et de "neurones miroirs" (qui reconnaissent quand un autre organisme fait le même genre de chose que vous faites).
Beaucoup de ces composants cognitifs (et probablement d'autres aussi) étaient déjà disponibles avant le début du langage (bien que certains d'entre eux puissent également être des effets plutôt que des causes du langage). Il se pourrait bien que nos ancêtres aient eu le pouvoir de communiquer par pantomime avant l'avènement du langage ; mais vous ne pouvez pas transmettre de nouvelles catégories par la seule pantomime. Tout ce que vous pouvez faire est de mimer des objets, des événements et des actions et, dans une certaine mesure, des propriétés et des états (y compris des requêtes et des menaces).
5. Combiner et communiquer les catégories
Le pouvoir du langage a-t-il été inventé ou découvert ? Le pouvoir du langage (selon notre hypothèse) était, en premier lieu, le pouvoir d'acquérir une nouvelle catégorie composite d'autres personnes qui connaissaient déjà les anciennes catégories à partir desquelles la nouvelle était composée. La combinaison la plus simple est la conjonction : un membre de C est membre à la fois de A et de B. Les premières catégories combinatoires étaient probablement des catégories "extensionnelles", ce qui signifie que les membres de C sont appris à être les membres de A qui sont également membres de B. Mais puisque les membres de A sont détectés par les détecteurs de caractéristiques appris de notre cerveau pour A et que les membres de B sont détectés par nos détecteurs de caractéristiques pour B, les membres de C peuvent être détectés en combinant simplement les détecteurs de caractéristiques pour A et pour B. Cela pourrait être détecté passivement, par l'apprentissage par observation, comme dans nos simulations, l'apprenant notant simplement qu'il est plus rapide d'apprendre ce qu'est un C en observant les actions de ceux qui savent déjà ce qu'est un C - en notant qu'ils faites ce que vous devez faire avec un C avec tout ce qui se trouve être à la fois un A et un B. (Cela ne fonctionne, bien sûr, que si vous savez déjà ce que sont un A et un B.)
Mais comme les hominidés étaient des créatures beaucoup plus sociales que nos simulacres de butineurs de champignons, l'apprentissage n'aurait pas dû être aussi passif. Les parents qui connaissaient déjà A, B et C - par exemple la mère de l'apprenant - seraient motivés pour enseigner à l'apprenant C. Et puisque A, B et C sont des actions manifestes (contrairement à notre simulation, où il ne s'agissait que de vocalisations), la mère serait motivée à attirer l'attention de l'apprenant sur les combinaisons de catégories non seulement en exécutant les trois actions sur les objets eux-mêmes, mais aussi en les mimant en l'absence des objets.
Nous suggérons que c'est ainsi que la proposition est née. Les apprenants peuvent avoir commencé à saisir de nouvelles catégories composites grâce à un apprentissage passif par observation. Mais une fois que le connaisseur - motivé pour aider les parents ou les collaborateurs à apprendre en partageant les catégories - est devenu activement impliqué dans la communication des catégories composites, cela est devenu un enseignement intentionnel plutôt qu'accidentel, l'enseignant mimant activement les nouvelles descriptions de catégorie à l'apprenant. La catégorie « noms » deviendrait également plus courte et plus rapide – moins iconique et plus arbitraire – une fois que leur intention propositionnelle (l'« attitude propositionnelle ») était interprétée et adoptée mutuellement par l'enseignant et l'apprenant.
Il est intéressant d'observer les grands singes contemporains lorsque les chercheurs tentent de leur enseigner le langage. Il semble incontestable qu'ils n'apprennent jamais le langage ; - sinon, malgré les excuses qu'elle leur a données, les chimpanzés de Sue Savage-Rumbaugh auraient pu assister à l'Institut d'été pour discuter de l'origine du langage avec le reste d'entre nous, tout comme n'importe quel chasseur-cueilleur contemporain nouvellement découvert des profondeurs de la jungle amazonienne pourrait rejoindre la "conversation" (ce mot à la mode et galvaudé, mais assez approprié ici !).
Les chimpanzés ont des catégories. Nous continuons à les entraîner à «nommer» leurs catégories (que ce soit avec des gestes, des objets symboliques, des claviers d'ordinateur ou des mots) - même à combiner ces noms en chaînes quasi-propositionnelles. Et les chimpanzés nous obligent s'ils ont faim ou s'ils en ont envie. Mais ce qui est frappant, c'est qu'ils ne prennent jamais vraiment la balle linguistique et courent avec. Ils ne semblent tout simplement pas motivés à le faire, même s'ils semblent parfois « comprendre », localement, pour des cas individuels.
5.1. La disposition à proposer : Intelligence ou motivation ?
Nous ne savons pas si les chimpanzés comprennent vraiment. Ils obtiennent les associations et les contingences ; mais les reçoivent-ils sous forme de propositions, avec des valeurs de vérité ? C'est difficile à dire. Ce qui est le plus déroutant, c'est pourquoi ils ne semblent pas saisir le pouvoir qui est entre leurs mains lorsqu'ils commencent à combiner systématiquement des symboles pour définir de nouvelles catégories. Ce qui semble manquer, ce n'est pas l'intelligence mais la motivation, voire la compulsion, à nommer et à décrire.
(Peut-être que quelque chose comme la signalisation non systématique, locale et instrumentale de ces chimpanzés entraînés est ce que les partisans du «protolangage» ont à l'esprit - mais si c'est le cas, il échoue à notre test de capacité à dire tout et n'importe quoi précisément parce qu'il ne s'agit pas vraiment de «dire ” quoi que ce soit : Nous (avec nos cerveaux biaisés par le langage) ne faisons que projeter cette glose propositionnelle dessus, comme si nous ajoutions compulsivement des sous-titres narratifs à un film muet.)
Interpréter A est B comme une proposition – comme affirmer quelque chose de vrai sur le monde, plutôt que de simplement produire une série d'associations à des fins instrumentales – peut avoir nécessité une nouvelle capacité cognitive, peut-être même une capacité à base génétique ; mais étant donné à quel point les hominidés étaient déjà intelligents et que toutes les pièces étaient déjà en jeu, une telle "mutation" pour adopter "l'attitude propositionnelle" - si une véritable mutation était effectivement nécessaire - n'est pas farfelue à imaginer. (Pas besoin d'une mutation pour UG, par exemple.)
Alors peut-être que c'est ce que l'évolution a fait avec notre espèce. Parce que nous étions plus sociables, plus coopératifs et collaboratifs, plus dépendants des parents - et pas nécessairement parce que nous étions beaucoup plus intelligents - certains d'entre nous ont découvert le pouvoir d'acquérir des catégories par instruction au lieu d'une simple induction, d'abord passivement, par hasard, sans le aide de toute prédisposition génétique. Mais ensuite, alors que ceux qui se trouvaient être plus motivés pour apprendre à acquérir et à partager des catégories de cette nouvelle manière toute-puissante ont commencé à profiter des avantages considérables qu'elle conférait - les avantages d'acquérir de nouvelles catégories sans le temps, l'énergie, l'incertitude et risque de les acquérir par induction sensorimotrice directe - L'évolution baldwinienne a commencé à favoriser cette disposition à apprendre et à utiliser des symboles pour nommer des catégories et à recombiner leurs noms afin de prédiquer et de proposer d'autres catégories, en raison des avantages adaptatifs que la description et le partage des catégories conféré. La tendance à acquérir et à transmettre des catégories par l'instruction s'est ainsi renforcée de plus en plus dans les génomes et les cerveaux des descendants de ceux qui étaient les plus motivés et disposés à apprendre à le faire. Et cela est devenu le cerveau « biaisé par le langage » de notre espèce.
Comme indiqué, la capacité ou la disposition à interpréter un A est un B comme une proposition, avec une valeur de vérité, peut avoir été soit une mutation, soit les primates peuvent déjà avoir eu la capacité et seulement besoin de l'avoir amplifiée sur le plan motivationnel et comportemental par Baldwinian. évolution. Le fait est que la pleine puissance du langage vient déjà avec le territoire propositionnel, une fois que vous commencez à nommer systématiquement vos catégories et à recombiner leurs noms en propositions décrivant ou définissant de nouvelles catégories composites. Le voyage commence par les avantages d'acquérir les catégories de subsistance et de survie immédiates de nos ancêtres paléolithiques par l'instruction plutôt que par l'induction, mais il mène de manière transparente au contenu de notre lexique mental contemporain (et futur) des catégories, tel que reflété dans notre tradition orale, et finalement notre tradition écrite, avec ses glossaires, dictionnaires, encyclopédies, manuels et manuels.
5.2. De la main à la bouche
Or la probabilité de découvrir d'abord ce pouvoir propositionnel illimité est incomparablement plus élevée dans la modalité gestuelle/pantomime, qui inclut déjà toutes les choses non arbitraires que nous faisons avec les catégories (concrètes) ; ces actes peuvent ensuite être court-circuités pour servir de noms de plus en plus arbitraires aux catégories, prêts à être recombinés pour définir de nouvelles catégories.
Mais une fois qu'une espèce a pris la balle linguistique dans la modalité gestuelle et a commencé à courir avec elle (linguistiquement, propositionnellement), les avantages de libérer ses mains pour porter autre chose que la balle, pour ainsi dire (plutôt que d'avoir à gesticuler en essayant pour faire tout le reste) - avec les avantages de nommer lorsque l'enseignant est hors du champ de vision de l'apprenant, ou à distance, ou dans l'obscurité - supplanterait rapidement les avantages du geste comme modalité de démarrage du langage ( Steklis et Harnad 1976). (On pourrait presque entendre les grognements de frustration si l'apprenant visé ne voyait pas, ou si les mains de l'enseignant étaient autrement occupées - les théories « yo-he-ho » et « pooh-pooh » de l'origine du langage parodiées par Max Mueller viennent à l'esprit.)
Par ailleurs, une fois le nom devenu arbitraire, sa « forme » – et donc sa modalité sensorielle – n'a plus d'importance. Ainsi, à mesure que le pouvoir du langage dans l'acquisition des catégories s'encéphalisait, la tendance à attribuer des noms arbitraires aux catégories - et à combiner leurs noms en propositions définissant de nouvelles catégories - a migré vers la modalité auditive, qui était déjà si admirablement préparée à cette tâche chez d'autres espèces. ainsi que la nôtre (bien qu'elle ait sans doute dû subir une période d'encéphalisation supplémentaire intensive, sous la pression sélective des avantages adaptatifs d'une parole de plus en plus efficace).
Notez qu'il n'y a rien qui ressemble vraiment à un "protolangage" dans tout cela - à moins que vous ne considériez que chaque fois qu'un langage lexicalise une nouvelle catégorie avec un mot, ou que sa syntaxe est modifiée, il est devenu un nouveau protolangage. Une langue n'est qu'un ensemble de symboles avec lesquels nous pouvons dire tout et n'importe quoi, que ce soit par des gestes ou par la parole, que ce soit rapidement ou lentement, et que ce soit avec un vocabulaire de beaucoup de symboles ou de peu.
5.3 Ancrage des symboles
Maintenant une question : combien d'induction devez-vous faire avant que le langage puisse entrer en jeu, sous forme d'instruction ? (Il est clair que notre simulation de jouet avec les trois catégories de champignons ne répond pas à cette question.) Étonnamment, un indice de réponse peut être latent dans nos dictionnaires contemporains, et la théorie des graphes peut nous aider à le déterrer. En éliminant d'abord tous les mots qui sont seulement définis, mais qui ne sont pas utilisés pour définir d'autres mots, puis en éliminant ensuite aussi successivement tous les autres mots qui peuvent être "atteints" par définition parmi les mots restants, nous avons dictionnaires réduits à leur « noyau de base » (Blondin Massé et al 2008 ; Blondin Massé & Harnad 2010) (Figure 2). Les mots du noyau sont ceux à partir desquels tous les autres mots du dictionnaire peuvent être définis, mais à l'intérieur desquels toute autre définition est circulaire, car les mots du noyau s'interdéfinissent entre eux (plutôt comme bon = pas mauvais et mauvais = pas bon) . Le noyau s'avère représenter environ 10% du dictionnaire. Il s'avère également que les mots du noyau sont appris significativement plus tôt que le reste des mots du dictionnaire, en plus d'être plus concrets, imageables et fréquents, tant à l'oral qu'à l'écrit (Picard et al. 2010). Mais le noyau n'est pas encore le plus petit nombre de mots à partir duquel tous les autres mots du dictionnaire peuvent être définis.
Figure 2. Extraction du noyau et du noyau de mise à la terre d'un dictionnaire.
POUR LES FIGURES VEUILLEZ VOIR LA VERSION ANGLAISE
Le tableau est un dictionnaire de jouets de 14 mots (pas un vrai dictionnaire) construit artificiellement pour illustrer comment un simple algorithme récursif peut réduire n'importe quel dictionnaire à sa base Noyau (plus grande ellipse sur la figure 2a) à partir duquel tout le reste des mots peut être atteint par définition seule (flèches). La plus petite ellipse est le noyau (trivial dans cet exemple jouet), un grand composant fortement connecté au sein du noyau qui s'avère émerger empiriquement dans de vrais dictionnaires. La figure 2b montre comment les mots sont à une distance définitionnelle croissante du noyau dans le dictionnaire des jouets. Dans les vrais dictionnaires (figure en bas à gauche), les mots du Kernel s'avèrent avoir été appris à un plus jeune âge, et sont plus concrets, imagés et fréquents que le reste du dictionnaire. La corrélation est tout ou rien entre le noyau et le reste du dictionnaire pour l'âge et la fréquence, alors qu'elle est graduée avec le degré de distance définitionnelle du noyau pour le caractère concret et l'imageabilité. Cela signifie qu'il y a des mots à l'intérieur du noyau mais à l'extérieur du noyau qui sont plus abstraits et sont appris tout au long du cycle de vie. Le noyau est unique, mais ce n'est pas le plus petit nombre de mots à partir duquel tout le reste peut être atteint par la seule définition : ce serait le minimum grounding set (MGS), qui n'est pas unique, et nous commençons à peine à l'extraire. dans de vrais dictionnaires. Le noyau fortement connecté n'est pas un MGS. Trouver le MGS équivaut au problème de la théorie des graphes consistant à trouver un ensemble de sommets de rétroaction minimum, qui est NP-complet pour les graphes en général, mais il existe des moyens de le résoudre (en cours) dans le cas particulier des dictionnaires, en raison de leur petite taille. taille et leur structure.
Nous avons seulement commencé à calculer le plus petit ensemble de définition (parce que le problème général de son calcul est NP-complet), mais nous savons que ce plus petit ensemble, contrairement au noyau, ne sera pas unique. Il y aura de nombreux ensembles alternatifs de la plus petite taille. Il semble, cependant, que chacun d'eux sera composé d'environ 500 mots. Cela signifie qu'avec environ 500 mots de contenu (noms de catégories) plus quelques mots de fonction, tels que and, not, if, etc., plus le pouvoir très important de la prédication - qui dans certaines langues est marqué par is, comme dans apple est rouge, mais dans certaines langues est omis, comme dans pomme rouge (sujet/prédicat), énoncé en adoptant « l'attitude propositionnelle » - nous pouvons définir tous les autres mots contenus dans nos dictionnaires contemporains (ainsi que ceux de toutes nos encyclopédies et tous les glossaires des manuels) et donc tous les mots de notre lexique mental.
Cela ressemble un peu à notre « test » pour savoir si quelque chose est un langage naturel : vous pouvez y exprimer n'importe quelle proposition. Quoi qu'il en soit, il semble qu'environ 500 noms de catégories plus quelques foncteurs et règles syntaxiques suffisent pour obtenir la pleine puissance expressive du langage.
6. Garder les pieds sur terre
Cependant, malgré ses avantages spectaculaires, l'apprentissage des catégories par le langage, par l'instruction symbolique, n'est pas tout à fait équivalent à leur apprentissage par induction sensorimotrice. Nous avons également des preuves comportementales et électrophysiologiques que, bien que les processus cérébraux sous-jacents des deux façons d'acquérir des catégories puissent avoir beaucoup en commun, les résultats de l'apprentissage des catégories par induction par rapport à l'instruction ne sont pas identiques (St-Louis & Harnad 2010). L'instruction nécessite beaucoup moins d'essais d'entraînement (en fait, une bonne instruction devrait permettre une catégorisation correcte dès la première tentative), mais il faut plus de temps pour appliquer l'instruction à chaque instance rencontrée, du moins au début ; le temps de réaction pour la catégorisation lorsqu'elle a été apprise par induction est plus rapide que lorsqu'elle a été apprise par instruction. Et bien sûr il ne peut pas s'agir d'instruction jusqu'en bas : l'instruction suppose déjà d'avoir toutes les catégories servant à définir la nouvelle catégorie. Même si, au fond, et en principe, seules 500 catégories auraient besoin d'être apprises directement par induction sensorimotrice, en pratique, il est clair que nous continuons à apprendre de nouvelles catégories de ces deux manières tout au long de notre cycle de vie. De plus, alors qu'une règle de catégorisation peut être apprise de manière purement symbolique, son application à des instances réelles reste sensorimotrice, sauf lorsque les instances ne sont nommées ou décrites que verbalement.
Ainsi, "dire" a remplacé "montrer" dans l'évolution humaine, mais, comme pour les présentations PowerPoint occasionnelles, cela aide toujours à soutenir, illustrer, compléter ou rafraîchir le récit avec quelques démonstrations. Après tout, l'expérience sensorimotrice directe - plutôt qu'un simple ouï-dire verbal indirect - est, au fond, toujours ce qu'est la vie, même pour Homo loquens.
POUR LES RÉFÉRENCES VEUILLEZ CONSULTER LA VERSION ANGLAISE
Blondin Massé et al (2012) Symbol Grounding and the Origin of Language: From Show to Tell. In: Origins of Language. Institut de sciences cognitives. UQÀM
-----------------------------------------
Vincent-Lamarre, Philippe., Blondin Massé, Alexandre, Lopes, Marcus, Lord, Mèlanie, Marcotte, Odile, & Harnad, Stevan (2016). The Latent Structure of Dictionaries TopiCS in Cognitive Science 8(3) 625–659
Le succès adaptatif des organismes dépend de la capacité de faire la bonne chose avec le bon type de chose. C'est la catégorisation. La plupart des espèces peuvent apprendre des catégories par expérience directe (induction). Seuls les êtres humains peuvent acquérir des catégories par ou i-dire (instruction). Les simulations de vie artificielle montrent l'avantage évolutif de l'enseignement par rapport à l'induction. Les expériences électrophysiologiques montrent que nos deux façons d'acquérir les catégories partagent encore certaines caractéristiques communes. Les analyses graphique-théoriques montrent que les dictionnaires sont constitués de mots plus concrets, acquis à partir de l'expérience directe; et le sens des mots dans le reste du dictionnaire peuvent être appris à partirs de la définition seule, en combinant les mots de base dans les propositions sujet / prédicat avec des valeurs véridiques (vrai/faux). Le langage est advenu lorsque le mime intentionnel a été converti en séquences arbitraires de noms de catégories partagées décrivant et définissant de nouvelles catégories via des propositions.
POUR UNE IDÉE PLUS DIRECTE DE QUOI IL S'AGIT:
JOUEZ LE JEU DU DICTIONNAIRE
Saint-Gerand, J. P. (2014). Steven Pinker, L'instinct du langage. Questions de communication, (2), 236-237.
François, J. (2014). L’émergence et l’évolution du langage humain du point de vue des neurosciences. Corela. Cognition, représentation, langage, (12-2).
Savage-Rumbaugh, E. S., M Fields, W., Pasquier, R., Savy, P., & Schreiber, D. (2012). L'évolution et le développement du langage humain chez Homo symbolicus et Pan symbolicus. Labyrinthe, (1), 39-79.
Harnad, S. (2004). Retour à la tradition orale: écrire dans le ciel à la vitesse de la pensée.
Vidéo du cours -- 30 mars 2021
PPT 2019:
Table ronde "Origines de l'humanité" avec Jean... by Ville-de-Saint-Tropez
Compte rendu de la conférence de Jean-Louis Dessalles à l'UQÀM.
Les origines du langage : une perspective néo-saussurienne
D'autres vidéos langue française sur l'origine du langage