Sunday, January 18, 2026

12. Résumé du cours et 125 thèmes à intégrer

Résumé du cours

125 THÈMES

 

Absence de Chevauchement (Vanishing Intersections)

Abstraction

Action vs. Ressenti (Doing vs Feeling)

Affordances Sensorimotrice

Algorithme

Altruisme et sélection de parentèle

Analogue vs Digital et Dynamique vs. Symbolique

Ancrage vs Sens

Anthropomorphisme

Apprenabilité (Learnability)

Apprentissage des Catégories

Apprentissage Implicite vs. Explicite

Apprentissage Supervisé/Non Supervisé

Approximation (Categorisation)

Approximation (Computation)

Approximation (Langage)

Arbitraire de forme

Argument de la Chambre Chinoise

Behaviorisme

Calcul

ChatGPT

Carrousel du Dictionnaire (Dictionary-Go-Round)

Catégories Non Complémentées (Uncomplemented Categories) (“Laylek”)

Categorisation

Causalité

Certitude

Cogito/Sentio (Descartes)

Cognition

Cognition Explicite/Implicite

Communication vs Langage

Computation

Computationalisme

Conscience/Ressenti

Corrélation vs Causalité

Degrés de Liberté

Dénomination vs Prédication

Discrimination vs Categorsation

Distinction Matériel/Logiciel

Ensemble d’Ancrage Minimal (Minimal Grounding Se

Équinçon Evolutives (Spandrels)

Equivalence (Forte/Faible)

Equivalence Turing

Etats Mentaux

Etats ressentis (Felt States)

Evolution (Darwinienne and Baldwinienne)

Evolution du Langage

Evolution Paresseuse

Exemples Positives vs Negatives 

Explanation Causale

Expliacation

Extraction des Attributs (Feature Extraction)

Fossé Explicative (Explanatory Gap)

Funes le Memorieux

Geste/Parole

Grammaire Ordinaire (GO)

Grammaire universelle (GU)

Heterophenomenology (Dennett)

Histoires Ad Hoc (Just-So Stories)

Horlogier Aveugle (Blind Watchmaker)

Hypothèse de Whorf/Sapir (Forte et Faible)

Icône vs. Symbole

Imagerie Mentale

Images/Objets vs 1000 Mots

Imitation

Importance & Morality

Indépendence du Matériel

Indiscernabilité Turing

Induction vs. Instruction

Information

Intelligence Artificielle (Forte et Faible)

Interpretabilité Semantique

Introspection

Invariants

Langage

Lecture de l’Esprit/Télépathie

Machine de Turing

Machines de Survie Darwinienne

Milieu Ancestral (Environment of Evolutionary Adaptedness)

Montrer vs Dire (Show vs Tell)

Necessité

Neurones Miroire

Où/Quand vs Comment/Pourquoi

Ouï Dire

Pantomime/Pointer/Propositions

Pauvreté du Stimulus

Perception Catégorielle

Périscope de Searle

Pertinence du Cerveau

Pouvoir de la Computation

Pouvoir du Langage

Problème Corps/Esprit

Problème de l’Ancrage de Symboles (Symbol Grounding Problem)

Problème des Autres Esprits

Problème des Autres Esprits chex les Autres Espèces

Problème Difficile

Problème Facile

Problème Homoncule

Proposition/Predication

Psychokinèse (Télékinesèse)

Psychologie Evolutive

Rèalité Virtuelle

Recodage & « Chunking »

Réplique Système (“System Reply”)

Reseaux neuronnaux

Rétroingénierie

Robotique

Rotation Mentale

Scepticisme

Sens de la Vie 

Sens vs Référence

Sens/Référence/Ancrage

Simulation/Modelisation

Sousdétermination/Surdétermination

Spiders/Sex vs Learning/Language

Stimulus Distal/Proximal en Evolution

Synonymes Superflus (Weasel Words)

Syntaxe vs Semantique

Système Symbolique (Symbol System)

t1/T2/T3/T4/

Tâches Absolues et Relatives

Test de Turing

Théorème du Villain Petit Canard Ugly Duckling Theorem

Thèse Church/Turing (Faible/Forte)

Volition/Volonté/Libre Arbitre

Zombies


Semaine 12 (1er de 2) -- 124 thèmes -- 27 avril 2021

 


Semaine 12 (2ème de 2) -- 124 thèmes -- 27 avril 2021









C Cours 3 

11. Qu'est-ce qui importe?

 Semaine 11. Le problème des autres esprits, d'autres espèces

« Chaque personne sait de soi-même qu’elle est sensible. On ne peut pas ressentir le ressenti d’autrui, mais les  membres de notre espèce nous ressemblent, donc on leur croit lorsqu'ils nous disent qu’ils sont également sensibles. Mais qu’en est-il pour les espèces sans parole? Nous donnons le bénéfice du doute à certaines: à nos animaux de famille. Mais pas à celles que nos mangeons, même si elles ressemblent à nos animaux de famille. On a de la misère à justifier cette distinction: une dissonance cognitive entre l’amour pour le coeur de l’un et le goût pour la chair de l’autre. Avec les poissons, qui nous ressemblent beaucoup moins, on se convainque plus facilement qu’ils sont insensibles. La science nous dit le contraire. »

C'est votre choix ce que vous lirez et ensuite commenter en ciélo:

Le Neindre, P., Dunier, M., Larrère, R., & Prunet, P. (2018). La conscience des animaux (p. 120). éditions Quae.

Résumé Les animauxont-ils une conscience ? Comment perçoivent-ils leur propre monde ? Ces questions font l’objet de débats dans la communauté scientifique aussi bien pour des raisons académiques que pour des raisons pratiques. Ainsi, le 7 juillet 2012, un collectif de scientifiques de premier plan mené par Philip Low a éprouvé la nécessité de publier en Angleterre un manifeste intitulé La Déclaration de Cambridge sur la conscience. Il énonce qu’« une convergence de preuves indique que les animaux non humains disposent des substrats neuro-anatomiques, neurochimiques et neurophysiologiques des états conscients ainsi que de la capacité d’exprimer des comportements intentionnels... ». Il appelle à l’intensification des recherches pour connaître plus avant cette capacité des animaux.

Harnad, S (2014) Luxe, nécessité, souffrance. Québec Humaniste

Résumé : Il est facile de cultiver la psychopathie chez nos enfants: il suffit de leur dire que manger de la viande est nécessaire à leur survie et à leur santé, que puisque les animaux le font aussi sans remords, c'est une loi de la nature, et qu'en tout cas les animaux sont élevés et abattus de manière "humaine" (il suffit d'éviter de visionner des images Google sur les élevages et les abattoirs). En fait, par exactement les mêmes moyens culturels, nous pourrions (encore) inculquer à nos jeunes le goût et la justification du viol, de la torture, de l'esclavage et du génocide.

Larue, R. (2019). «Tirer l’homme de la classe des animaux carnassiers.»: Rousseau et les preuves scientifiques de notre nature végétarienne. Sens public.

Résumé : Dès l’époque du Discours sur l’origine de l’inégalité, Jean-Jacques Rousseau accorde une place importante à ce qu’il juge être le régime naturel de l’espèce humaine, en l’occurrence le frugivorisme. Cet intérêt, à peine relevé par la critique, s’explique aisément par la nécessité que perçoit Rousseau de chercher dans le corps même des hommes des preuves de leur bonté naturelle. Pour que l’homme soit bon naturellement, il faut en effet qu’il ait des tendances végétariennes et un système digestif comparable à celui des paisibles animaux frugivores. Sans cela, nous serions des carnivores, nous serions nécessairement méchants et sourds à la souffrance des êtres sensibles. Ce type de réflexions a des échos de plus en plus nombreux dans les débats contemporains sur notre rapport aux animaux.

VIDÉO Semaine 11 -- 20 avril


10. Le problème difficile de la conscience (le ressenti)


Harnad, S. (2012) Alan Turing and the “hard” and “easy” problem of cognition: doing and feeling. [in special issue: Turing Year 2012] Turing100: Essays in Honour of Centenary Turing Year 2012, Summer Issue

RÉSUMÉ : Le problème « facile » des sciences cognitives consiste à expliquer comment et pourquoi nous pouvons faire ce que nous pouvons faire. Le problème "difficile" est d'expliquer comment et pourquoi nous nous sentons. La méthodologie de Turing pour les sciences cognitives (le test de Turing) est basée sur l'action : concevez un modèle qui peut faire tout ce qu'un humain peut faire, indistinctement d'un humain à un humain, et vous avez expliqué la cognition. Searle a montré que le modèle réussi ne peut pas être uniquement informatique. Des capacités robotiques sensori-motrices sont nécessaires pour ancrer certains, au moins, des mots du modèle, dans ce que le robot peut faire avec les choses du monde dont parlent les mots. Mais même la mise à la terre n'est pas suffisante pour garantir que - ni pour expliquer comment et pourquoi - le modèle ressent (si c'est le cas). Ce problème est beaucoup plus difficile à résoudre (et peut-être insoluble).

Alan Turing a apporté d'innombrables contributions inestimables et éternelles à la connaissance - l'ordinateur, le calcul, les limites de la prouvabilité, les réseaux de neurones, le test de Turing, la rupture du code Enigma qui a aidé à sauver le monde de la tyrannie nazie - avant que l'indicible injustice et l'ingratitude ne mettent fin à son court métrage. la vie.

Je veux m'étendre sur un seul fil dans tout ce qu'il a fait : le test de Turing a établi le programme de ce que l'on a appelé plus tard la "science cognitive" - ​​la rétro-ingénierie de la capacité des humains (et des autres animaux) à penser.

C'est quoi penser ? Ce n'est pas quelque chose que nous pouvons observer. Ça se passe dans nos têtes. Nous le faisons, mais nous ne savons pas comment nous le faisons. Nous attendons que les sciences cognitives nous expliquent comment nous -- ou plutôt nos cerveaux -- le faisons.

Ce que nous pouvons observer, c'est ce que nous faisons et ce que nous sommes capables de faire. La contribution de Turing était de rendre assez explicite que notre objectif devrait être d'expliquer comment nous pouvons faire ce que nous pouvons faire en concevant un modèle qui peut faire ce que nous pouvons faire, et peut le faire si bien que nous ne pouvons pas distinguer le modèle d'un autre. de nous, sur la seule base de ce qu'il fait et peut faire. Le mécanisme causal qui génère la capacité de faire du modèle sera l'explication de la pensée, de l'intelligence, de la compréhension, de la connaissance - tous de simples exemples ou synonymes de : cognition.

Turing a en fait formulé (ce qui a fini par être appelé) le test de Turing (TT) quelque peu différemment. Il l'a appelé le "jeu d'imitation", et afin d'exclure tout parti pris qui pourrait influencer notre jugement en raison de l'apparence du candidat TT - plutôt que simplement de ce qu'il pouvait faire - le test devait être purement verbal, via l'échange de messages écrits, le candidat hors de vue. Aujourd'hui, nous dirions que le test devait être effectué par e-mail : concevez un système qui peut communiquer par e-mail, en tant que correspondant, indistinctement d'un humain à un humain, et vous avez expliqué la cognition.

Des questions se posent : (1) Communiquer sur quoi ? (2) combien de temps ? (3) avec combien d'humains ?

Les réponses, bien sûr, sont : (1) Communiquer sur tout ce dont tout humain peut communiquer verbalement par e-mail, (2) pour toute une vie, et (3) avec autant de personnes qu'un être humain est capable de communiquer.

C'est un défi de taille, et il laisse encore ouverte la quatrième question : (4) Comment ? La réponse, bien sûr, sera de concevoir le modèle gagnant, et la science cognitive est loin d'être en mesure de le faire, mais il y a une sous-question sur le type de système que sera le modèle gagnant.

Beaucoup de gens ont supposé que Turing voulait dire et s'attendait à ce que le passeur TT soit un système purement informatique. Le calcul, comme Turing nous l'a enseigné, est la manipulation de symboles (par exemple, des 0 et des 1, mais ils peuvent aussi être des mots) sur la base de règles purement formelles qui n'opèrent que sur les formes des symboles, pas sur leur signification (c'est-à-dire la syntaxe , pas de sémantique).

Un exemple d'une telle règle formelle basée sur la forme est : IF YOU READ "1 + 1 =" THEN WRITE "2".

Vous n'avez pas besoin de savoir ce que "1" ou "+" signifie pour suivre cette règle. Vous avez juste besoin de savoir quoi faire avec les formes.

C'est du calcul. Et c'est essentiellement ce que fait une "machine de Turing" (le précurseur abstrait de l'ordinateur).

Mais Turing voulait-il vraiment dire qu'il pensait que la cognition se révélerait n'être qu'un calcul ? Les «computationalistes» parmi les scientifiques cognitifs contemporains pensent que la cognition n'est que du calcul, mais je ne pense pas que Turing l'ait fait. Le test de Turing, tel qu'il l'a décrit, n'était qu'un test de correspondance par courrier électronique : uniquement des symboles entrants et des symboles sortants. Cela laisse la possibilité que la seule chose nécessaire entre les deux, pour réussir le test, soit la manipulation de symboles (calcul).

Mais le philosophe John Searle a montré, avec sa célèbre expérience de pensée « Chinese Room », que cela ne peut pas être vrai : la cognition ne peut pas être simplement du calcul. Car si un simple programme informatique suffisait pour réussir le test de Turing, Searle lui-même pourrait montrer que cela ne générerait pas de compréhension dans le système qui passait le test de Turing :

Searle nous demande de supposer que le test de Turing (TT) est réalisé en chinois (courriel chinois, avec de vrais correspondants chinois). Maintenant, puisque le calcul n'est que des règles pour manipuler des symboles en fonction de leurs formes, et non de leur signification, Searle lui-même pourrait mémoriser et exécuter ce même programme informatique passant par TT, mais il ne comprendrait pas le chinois. Mais l'ordinateur qui exécutait le programme de passage du TT non plus. La cognition n'est donc pas seulement un calcul.

Que manque-t-il pour que les symboles aient un sens, que les mots et les pensées aient un sens pour nous ? J'ai surnommé cela le "problème de mise à la terre des symboles": Considérez un dictionnaire chinois-chinois. Il définit tous les mots en chinois. Mais si vous ne connaissez pas déjà au moins la signification de certains mots chinois, les définitions des symboles sans signification ne conduisent qu'à plus de symboles sans signification, pas à la signification. Certains des symboles, au moins, doivent être «fondés» sur ce que les symboles désignent directement, plutôt que simplement via des définitions verbales formelles et dénuées de sens.

Considérez la chaîne de symboles "'zèbre' = 'cheval' + 'rayures'." Pour pouvoir comprendre cette définition, vous devez déjà savoir ce que signifient "cheval" et "rayures". Et cela ne peut pas continuer via des définitions jusqu'au bout ("rayures" = "horizontales" + "lignes", etc.). Certains mots doivent être fondés directement sur notre capacité à reconnaître, catégoriser, manipuler, nommer et décrire les choses du monde que les mots désignent. Cela va au-delà du simple calcul, qui n'est qu'une manipulation formelle de symboles, pour atteindre la dynamique sensorimotrice, c'est-à-dire non seulement la capacité verbale mais la capacité robotique.

Je ne crois donc pas que Turing était un informaticien : il ne pensait pas que penser n'était que calcul. Il était parfaitement conscient de la possibilité que pour pouvoir passer le TT verbal (seulement symboles entrants et symboles sortants), le système candidat devait être un robot sensorimoteur, capable de faire beaucoup plus que les tests TT verbaux directement, et puiser dans ces capacités dynamiques pour réussir le TT verbal.

Mais bien que Turing n'était pas un informaticien de la cognition, il était néanmoins un informaticien dans le sens plus général qu'il croyait que presque n'importe quelle structure ou processus physique et dynamique (y compris le mouvement planétaire, les réactions chimiques et la dynamique sensorimotrice robotique) pouvait être simulé et approximée par le calcul d'aussi près que nous le souhaitons. C'est ce qu'on appelle la version physique de la thèse "Church-Turing" (CT). (La version mathématique de CT est la thèse selon laquelle

La définition formelle du calcul de Turing - la machine de Turing - peut faire tout et n'importe quoi que les mathématiciens font lorsqu'ils "calculent" quelque chose.)

Le CT physique n'implique pas, cependant, que tout dans le monde physique n'est que calcul, car tout le monde sait qu'une simulation informatique de (disons) un avion, n'est pas un avion, volant (même s'il peut simuler le vol assez bien pour aider tester et concevoir des prototypes d'avions par calcul, sans avoir à les construire et à les tester physiquement, et même si le calcul peut générer une simulation de réalité virtuelle que les sens humains ne peuvent pas distinguer de la réalité - jusqu'à ce qu'ils enlèvent leurs lunettes et leurs gants).

Searle souligne donc simplement qu'il en va de même pour les simulations informatiques de la cognition verbale : si elles peuvent être effectuées purement informatiquement, cela ne signifie pas que les calculs sont cognitifs.

Calculs conscients ? Qu'est-ce que ça veut dire ? Eh bien, pour répondre à cette question, nous devons nous tourner vers un autre philosophe : Descartes. Comment Searle sait-il qu'il ne comprend pas le chinois lorsqu'il réussit le TT chinois en mémorisant et en exécutant le programme informatique de passage du TT ? C'est parce que cela ressemble à quelque chose de comprendre le chinois. Et le seul qui sait avec certitude si ce sentiment (ou n'importe quel sentiment) se produit est le connaisseur - qui est dans ce cas Searle lui-même.

L'apport du célèbre « Cogito » de Descartes est que je peux être absolument certain que je connais quand je connais. Je peux douter de tout le reste, y compris de ce que ma connaissance semble me dire sur le monde, mais je ne peux pas douter que je connais quand je connais. Ce serait comme douter que j'ai mal aux dents alors que j'en ai mal aux dents : je peux douter que la douleur provienne de ma dent -- il peut s'agir d'une douleur référée de ma mâchoire -- je n'ai peut-être même pas de dent, ou une bouche ou un corps; il se peut qu'il n'y ait pas de monde extérieur, ni d'hier ou de demain. Mais je ne peux pas douter que ce que je ressens en ce moment est ce que je ressens en ce moment.

Eh bien, Searle ne ressent pas la compréhension des Chinois lorsqu'il passe le TT chinois. Il peut distinguer la véritable compréhension (comme il comprend l'anglais) du simple fait de passer par les mouvements : simplement faire ce qu'il faut faire.

Mais qu'en est-il alors du test de Turing, qui est basé uniquement sur les actions et la capacité d'action, indiscernables de la capacité d'action des êtres humains réels et connaissants ?

Turing était parfaitement conscient que générer la capacité de faire ne génère pas nécessairement la capacité de ressentir. Il a simplement souligné qu'expliquer le pouvoir de faire était le mieux que nous puissions jamais espérer faire, scientifiquement, si nous souhaitions expliquer la cognition. Le modèle réussi de passage du TT peut ne pas s'avérer purement informatique ; il peut être à la fois informatique et dynamique ; mais cela ne fait que générer et expliquer notre capacité de faire. Cela peut se sentir ou non.

Expliquer comment et pourquoi nous pouvons faire ce que nous pouvons faire est devenu le problème « facile » des sciences cognitives (bien que ce ne soit pas si facile, puisque nous sommes loin de le résoudre). Le problème "difficile" est d'expliquer comment et pourquoi nous ressentons - le problème de la conscience - et bien sûr nous sommes encore plus loin de le résoudre.


Chalmers, D. (2010). 
L’esprit conscient. À la recherche d’une théorie fondamentale. 

Dubuc, Bruno (2016) Qu’est-ce que la conscience? Le cerveau à tous ses niveaux.  

Les mécanismes de la volonté (l'expérience de Benjamin Libet)

--> VIDÉO DENNETT <--


Vidéo du cours -- 6 avril 2021


PPT 2019:






résumé langue anglaise







 

9. La grammaire universelle de Chomsky

 La grammaire universelle de Chomsky

Harnad, S (2014) L'Univers de Chomsky. À babord: Revue sociale es politique 52.

Vidéo du cours -- 6 avril 2021 (partie 1 de 2)



Vidéo du cours -- 6 avril 2021 (partie 2 de 2)


PPT 2019:




SEMAINE 9 2018







8. L'évolution du langage

 


Blondin Massé et al (2012) Symbol Grounding and the Origin of Language: From Show to Tell. In: Origins of Language. Institut de sciences cognitives. UQÀM

Résumé : Le succès adaptatif des organismes dépend de leur capacité à faire la bonne chose avec le bon type de chose. C'est la catégorisation. La plupart des espèces peuvent apprendre les catégories (1) par expérience directe ("induction"). Seuls les êtres humains peuvent apprendre les catégories (2) de bouche à oreille ("instruction"). Des simulations de vie artificielle ont montré l'avantage évolutif de l'instruction par rapport à l'induction et des expériences d'électrophysiologie humaine ont montré que ces deux manières radicalement différentes d'acquérir des catégories partagent encore certaines caractéristiques communes dans nos cerveaux d'aujourd'hui. Les analyses de la théorie des graphes révèlent que les dictionnaires sont constitués d'un noyau de mots plus concrets qui sont appris plus tôt, par expérience directe (induction) ; les significations du reste du dictionnaire peuvent être apprises par définition (instruction) seule, en combinant les mots de base inductifs en propositions de sujet/prédicat avec des valeurs de vérité. Nous supposons que le langage a commencé lorsque les tentatives de communication par mime se sont conventionnalisées en séquences arbitraires de noms de catégories partagés, de plus en plus arbitraires, qui ont permis aux membres de notre espèce de se transmettre de nouvelles catégories en les définissant et en les décrivant via des propositions (instruction).

1. Montrer vs. dire

Comme de nombreux articles, celui-ci a commencé par une présentation PowerPoint, bien que cette forme de communication laisse beaucoup à désirer, tant du point de vue de l'auditeur que de celui de l'orateur. En tant qu'auditeur, on constate généralement que les présentations PowerPoint, loin de clarifier, entrent en conflit ou détournent l'attention de ce que dit l'orateur. Et en tant qu'orateur, on constate qu'ils réduisent la flexibilité et la spontanéité de sa présentation (bien que, bien sûr, tout écrire à l'avance le réduise encore plus !).

Mais cet article concerne les origines du langage, et le langage a commencé avant les présentations PowerPoint. De plus, à certains égards, la langue remplace également les présentations PowerPoint. Les présentations PowerPoint sont «montrer et dire», mais plus montrer que dire. Dans ce chapitre nous allons essayer de vous rappeler le pouvoir de raconter seul, la tradition orale. À bien des égards, l'origine du langage équivaut à la transition du spectacle au récit (comme cela a été dépeint dans la performance pantomime mettant en scène l'avènement du langage à l'ouverture de l'Institut d'été sur lequel ce volume est basé) (Harnad 2000, 2003)

2. Avant l'oralité

La tradition orale n'aurait pas pu commencer, bien sûr, par un discours formel, devant un large public, comme l'a fait cet article. Cela a dû commencer par quelque chose de beaucoup plus informel, local et interactif : quelque chose de plus proche de la conversation. Et l'écriture a commencé beaucoup, beaucoup plus tard. Donc, lire à haute voix un discours comme celui-ci est un peu une triche. Il n'est pas non plus probable que le langage ait commencé par le bouche à oreille, pour des raisons que nous décrirons bientôt.

Ainsi, les origines du langage, suggérons-nous, ne correspondent pas aux origines du langage vocal ; ils ne correspondent pas non plus aux origines de la communication vocale. Le langage lui-même a commencé plus tôt que le langage vocal (mais pas plus tôt que la communication vocale, évidemment). Cependant, une fois qu'il a fait sentir son pouvoir et ses avantages adaptatifs, le langage a simplement migré (comportementalement, neuronalement et génétiquement) vers la modalité vocale, avec tous ses avantages évidents (Steklis & Harnad 1976). Avant de pouvoir migrer, cependant, le langage lui-même devait naître.

Comment est né le langage ? Et pourquoi? Et quel était l'avantage adaptatif qu'il conférait ? Cet avantage a dû être énorme, pour être encodé dans nos génotypes et encéphalisé dans nos cerveaux préparés au langage comme il l'a fait. La langue a-t-elle été « inventée », de la même manière que l'écriture, l'imprimé et Internet ont été inventés (Harnad 1991) ? Ou s'est-il en quelque sorte différencié progressivement (un peu comme un têtard se transformant en grenouille) à partir d'une longue, peut-être interminable, succession de précurseurs (peut-être des « protolangages » du genre souvent évoqués lors de l'Institut d'été) ? Et quand le codage en dur évolutif du langage dans nos gènes et notre cerveau a-t-il pris fin et que le codage en douceur historique par l'apprentissage et l'expérience a pris le dessus ?

3. Qu'est-ce que le langage ?

Avant de pouvoir essayer de répondre à l'une de ces questions, nous allons devoir essayer de comprendre ce dont nous essayons d'expliquer les origines : qu'est-ce que le langage ? Aucun des contributeurs à l'Institut d'été ne s'est aventuré à définir explicitement le langage, mais il y a eu quelques définitions implicites. Certains d'entre eux ont été très larges - ce que Fitch (ce volume), avec Chomsky, appelle la « Faculté de langue, large (FLB) » (Hauser et al 2002). Cela engloberait non seulement la phonologie, la grammaire, la sémantique et la pragmatique, mais toutes les autres structures et compétences impliquées ou dépendantes du langage, de la parole et de l'ouïe à la perception et à l'action, y compris la socialisation et la chasse, la fabrication et l'utilisation d'outils, la communication, le pointage, l'imitation, le mime, la lecture de l'esprit, et leurs nombreux substrats et précurseurs neuronaux et génétiques, tels qu'enracinés dans les voies dorsales et ventrales du cerveau, les neurones canoniques et les neurones miroirs, en nous-mêmes, dans nos espèces cousines les singes, et dans notre espèces ancêtre, les hominidés, les hominidés et peut-être les katydidés.

Si tout cela est du langage, ou une partie ou un produit précurseur du langage, nous visons une cible si vaste que nous pouvons difficilement la manquer. Mais après avoir réussi à le frapper, il n'est pas évident de savoir quel jeu nous avons abattu.

À cette notion large du langage s'opposent des notions plus étroites (Fitch's "Faculty of Language, Narrow" (FLN)), comme la parole. Ou, encore plus minime, le « minimalisme » dont nous avons entendu parler ici à plusieurs reprises (par exemple, par Jackendoff, ce volume), mais non décrit. Nous n'essaierons pas non plus de décrire le minimalisme, car nous ne le pouvons pas. Mais de ce point de vue, bien qu'il ne s'agisse pas de l'ensemble du langage, la propriété quintessentielle du langage est la grammaire universelle (UG), un ensemble complexe de règles qui ne peuvent être acquises explicitement à partir de l'expérience de l'enfant parce que l'enfant ne produit ni ne reçoit nulle part. suffisamment d'informations ou de commentaires correctifs pour apprendre les règles de l'UG de manière inductive, par essais et erreurs. Donc UG doit être inné (Harnad 2008).

Si l'UG est au cœur du langage et est inné plutôt qu'instruit, cela transformerait une grande partie de la question de l'origine du langage en question de l'origine de l'UG. Cette question a déjà été posée (par exemple, par l'un d'entre nous !) il y a 35 ans, lors de la première conférence sur les origines des langues à New York (Harnad 1976). Et la réponse de Noam Chomsky était alors plus ou moins qu'il n'y a pas besoin de poser ou de répondre à cette question (Chomsky 1976).

Depuis lors, certaines personnes ont quand même essayé de répondre à la question. Mais expliquer l'origine évolutive de l'UG se heurte à certains problèmes, car l'UG n'est pas le genre de chose - comme les ailes, les membres, le cœur ou les yeux - pour laquelle une histoire évolutive simple peut être racontée sans énormément d'ourlets ad hoc, hawing, et le flou. D'autres options consistent à nier l'existence du GU, ou à affirmer qu'il peut être appris après tout, et donc qu'il n'y a pas lieu de s'inquiéter de la façon dont il aurait pu évoluer.

Nous essaierons d'éviter les pièges de la vision trop large et trop étroite du langage en proposant non pas une définition du langage mais un test pour déterminer si quelque chose est ou non un langage. Cependant, il faut d'abord comprendre que notre test concerne le langage naturel, tel que l'anglais, le français, la langue des signes américaine ou le proto-indo-européen. Il ne s'agit pas de langages formels artificiels tels que les mathématiques, la logique ou les langages de programmation informatique. Ces langages artificiels ont des définitions formelles, mais nous suggérons qu'en réalité tous ne sont que des parties ou des sous-ensembles du langage naturel.

3.1. Le pouvoir de dire tout ce qui peut être dit

Alors, quel est notre test pour savoir si quelque chose est un langage naturel ? Il est basé sur un critère proposé indépendamment par Jerrold Katz (1976) et Steklis & Harnad (1976), également il y a 35 ans lors de la conférence NY New York Academy. C'est un critère dont il a fallu 35 ans à son auteur pour comprendre les implications.

La version de Katz était la thèse de la « glossabilité » : une langue naturelle est un système de symboles dans lequel on peut exprimer n'importe quelle proposition. Une proposition est un énoncé, sujet plus prédicat, qui a une valeur de vérité, vraie ou fausse. « 2+2=4 » est une proposition ; tout comme "le chat est sur le tapis". Il en va de même pour chaque séquence de mots dans ce texte qui se termine par un point. (Les questions et les impératifs sont de légères variantes, mais à peu près le même genre de chose.) Un fait très général doit également être souligné ici qui sera important pour ce que nous dirons plus tard : chaque proposition est également une déclaration d'inclusion de catégorie. En d'autres termes, dire que A est B revient à dire que A est un sous-ensemble, un membre ou une partie de B.

Notre version du même critère que la thèse de glossabilité de Katz était la thèse de la "traductibilité" : tout ce que vous pouvez dire dans n'importe quelle langue naturelle peut également être dit dans n'importe quelle autre langue naturelle - bien qu'il soit important d'ajouter, pas nécessairement dit dans la même langue. nombre de mots. La traduction mot à mot n'est souvent pas possible, comme vous l'avez découvert si vous avez utilisé Google Traduction. Une langue peut dire certaines choses moins économiquement qu'une autre. Mais il peut encore tout dire.

Pour les lecteurs qui ont des doutes et qui pensent qu'il y a quelque chose qu'on peut dire dans une autre langue qu'on ne peut pas dire en anglais : s'il vous plaît, dites-nous — en anglais — ce qu'est ce quelque chose, et pourquoi on ne peut pas le dire. Vous constaterez que vous avez généré votre propre contre-exemple.

3.2. Que serait le « protolangage » ?

Maintenant, avec ce test pour savoir si quelque chose est ou non un langage – un système dans lequel vous pouvez dire tout ce qui peut être dit – considérons immédiatement l'une des notions qui est invoquée à plusieurs reprises dans ce volume : les « protolangages ». Rappelons que le thème de l'Institut d'été était l'origine du langage. Si une langue naturelle est un système de symboles dans lequel vous pouvez exprimer n'importe quelle proposition, qu'en est-il d'un protolangage ? Si vous ne pouvez pas exprimer toutes les propositions dans un protolangage, lesquelles ne pouvez-vous pas exprimer, et pourquoi pas ? (Nous laisserons cela aussi comme un exercice auquel les lecteurs pourront réfléchir par eux-mêmes, mais nous prévoyons que l'exercice ne réussira pas, et la raison de son échec sera importante pour notre tentative d'aller au cœur de ce qui est et n'est pas une langue.)

Alternativement, si l'on peut exprimer toutes les propositions dans un protolangage, alors pourquoi l'appeler « protolangage » ? Car alors la question à laquelle nous nous adressons dans cet institut deviendrait simplement : quelle est l'origine du protolangage ? Parce que, comme on dit, ça ne peut pas être des tortues (ou des têtards) tout en bas.

Donc, si vous acceptez notre critère pour ce qui constitue une langue naturelle, nous avons maintenant réduit la question de savoir quelle est l'origine du langage à la question de savoir quelle est l'origine d'un système de symboles dans lequel vous pouvez dire tout ce qui peut être dit en n'importe quelle langue naturelle. Quand est-ce arrivé? Où cela s'est-il passé? Pourquoi est-ce arrivé? Comment est-ce arrivé? Et quel était l'énorme avantage adaptatif qu'il conférait - un avantage suffisamment grand pour avoir abouti (au cours d'une période relativement courte de temps d'évolution) à ce que cette capacité et cette propension soient encodées dans les génotypes et encéphalisées dans le cerveau de chaque membre normal de notre espèce. ?

Nous ne pourrons pas vous dire quand et où cela a commencé à se produire ; mais nous ne voyons aucune raison de ne pas accepter les preuves des archéologues qui soulignent que, alors qu'il existe depuis longtemps des preuves d'un certain nombre de pratiques humaines uniques telles que la fabrication d'armes, d'outils et d'autres artefacts depuis des centaines de milliers d'années ( qui peuvent ou non déjà coexister avec le langage), il est probable qu'au moment où ces pratiques humaines uniques ont commencé à se multiplier rapidement (il y a entre 50 000 et 250 000 ans), les êtres humains avaient déjà un langage - et que cette rapidité la croissance des connaissances et de la culture était en fait l'un des symptômes des avantages adaptatifs que la langue elle-même nous conférait.

3.3. Qu'est-ce qu'un système de symboles ?

Désormais, les outils et les armes - et les moyens de les fabriquer - sont clairement des inventions. La langue elle-même était-elle une invention ? Avons-nous inventé un système de symboles dans lequel vous pouvez exprimer n'importe quelle proposition ? Eh bien, dans un sens, nous devons avoir, mais pas tout à fait dans le même sens que nous (beaucoup plus tard) avons inventé l'écriture ou l'impression ou le Web. Pour voir cela, nous devons examiner plus attentivement ce qu'est un système de symboles. Nous avons mentionné précédemment que par langage naturel, nous n'entendons pas des langages formels artificiels tels que les mathématiques, la logique ou les langages de programmation informatique : ces langages formels font déjà partie du langage naturel.

La définition formelle d'un symbole, cependant, peut être empruntée à ces langages artificiels (Harnad 1990) : un symbole est un objet, un objet de forme arbitraire. Mais un symbole formel ne peut exister ou être défini ou décrit isolément. Un symbole fait essentiellement partie d'un système de symboles, un ensemble d'objets de ce type, ainsi qu'un ensemble de règles pour manipuler ces objets - les combiner et les recombiner en formes composites, basées sur des règles qui ne fonctionnent que sur les formes des symboles arbitraires, pas leurs significations. Certaines des combinaisons de symboles seront « bien formées » selon les règles, et d'autres ne le seront pas. Les règles pour les combiner et pour déterminer quelles combinaisons sont bien formées sont appelées règles "formelles" ou "syntaxiques", car elles ne sont basées que sur la forme et, comme nous l'avons noté, la forme des symboles est arbitraire.

Qu'est-ce que cela signifie? Arbitraire par rapport à quoi ? Eh bien, jusqu'à présent, les règles syntaxiques semblent n'être que les règles d'un jeu formel, un jeu de manipulation de symboles arbitraires en les combinant et en les recombinant. Mais pourquoi jouerions-nous à un jeu aussi formel ? Nous ne nous dirigeons pas ici vers l'idée que le précurseur ou le moteur du langage naturel n'était qu'un jeu. D'ailleurs, nous discutons encore des langages formels, pas encore de la pleine puissance des langages naturels. Mais même les langages formels consistent en plus qu'une simple syntaxe. Non seulement certaines combinaisons de symboles sont syntaxiquement bien formées et d'autres non. Mais ceux qui sont syntaxiquement bien formés ont aussi une sémantique : ils peuvent être systématiquement interprétés comme signifiant quelque chose.

L'arithmétique est un exemple familier de système de symboles formels. Vous avez des symboles comme 0, 1, +, -, =. La combinaison « 0 1 – + » est mal formée, alors que la combinaison « 0 +1 =1 » est bien formée. "0+1=1" se trouve aussi être vrai, alors que "1+1=1" est bien formé mais faux. Nous avons donc besoin de deux symboles supplémentaires, T et F, pour formuler encore un autre ensemble de règles syntaxiques, cette fois non pas pour déterminer quelles combinaisons sont bien formées, mais pour déterminer quelles combinaisons bien formées sont vraies et lesquelles sont fausses.

Ce n'est encore que de la syntaxe et se compose de certains axiomes (qui sont des chaînes de symboles auxquels le symbole True est attribué) et de règles syntaxiques pour combiner des chaînes de symboles bien formés en chaînes plus longues appelées dérivations ou preuves. Les preuves elles-mêmes sont toutes simplement syntaxiques aussi : vous ne pouvez pas dire que 2+2=4 est vrai simplement parce que vous le « savez » ou simplement parce que vous pouvez le « voir ». Vous devez donner la preuve, qui n'est qu'une chaîne de symboles régis par des règles. Mais néanmoins, si vous avez choisi les bonnes règles syntaxiques et les bons axiomes, alors toutes et seulement les vraies propositions de l'arithmétique seront calculables en utilisant uniquement les règles syntaxiques.

(En fait, pas tous, à cause du théorème d'incomplétude de Goedel, mais n'abordons pas cela ici, car ce n'est pas vraiment pertinent pour le point que nous illustrons. Si tout le monde était aussi familier avec le calcul propositionnel ou le calcul des prédicats qu'ils le sont avec l'arithmétique, nous aurions pu utiliser l'un ou l'autre pour notre exemple formel d'un système de symboles, et cela aussi aurait été entièrement syntaxique, ainsi que vrai, sauf qu'il serait également complet, et donc non vulnérable au théorème d'incomplétude de Goedel .)

Ainsi, l'arithmétique est un ensemble de symboles, manipulés uniquement syntaxiquement, c'est-à-dire uniquement sur la base de leurs formes, et non de leurs significations. Pourtant, les symboles bien formés et les combinaisons de symboles ont tous des significations, à savoir toutes les vraies propositions de l'arithmétique.

3.4. Arbitraire de la forme, autonomie de la syntaxe et du sens

Nous pouvons maintenant voir le sens dans lequel les « formes » des symboles eux-mêmes sont arbitraires : 0 n'est pas « façonné » comme le néant, 3 n'a pas la forme d'une trinité, le signe égal n'a pas la forme d'une égalité, et ainsi de suite. La preuve de 2+2=4 n'a pas non plus la forme d'une vérité. Les symboles et les combinaisons de symboles ont simplement la propriété remarquable que si les règles syntaxiques sont bien choisies, elles peuvent être systématiquement interprétées comme les vraies propositions de l'arithmétique. Nous aurions pu choisir des objets avec d'autres formes pour nous servir de symboles. Notre choix est simplement notre système de notation arbitraire, sur lequel nous sommes tous d'accord, par convention. Mais les règles syntaxiques, si elles étaient justes, donneraient le même résultat dans n'importe quel système de notation.

Remarquons que dans un système de symboles formels nous avons une véritable « autonomie de syntaxe », au sens où les règles régissant les manipulations de symboles sont complètement indépendantes et formelles : elles n'ont aucun recours au sens. Pourtant, ils sont systématiquement interprétables comme signifiants - interprétables par nous, les utilisateurs du système de symboles formels, qui savons ce que signifient réellement 2 et égal et vrai. Mais quand on utilise 2 ou égal comme mots en langage naturel, ce n'est plus seulement la manipulation de symboles basée sur des règles syntaxiques opérant sur leurs formes arbitraires, comme dans un langage formel. En langage naturel, nous manipulons également les mots en fonction de leur signification.

Le langage naturel, lui aussi, a façonné arbitrairement des symboles, convenus par convention, ainsi que des règles syntaxiques qui déterminent ce qui est bien formé et ce qui ne l'est pas. Et ses symboles sont également systématiquement interprétables comme signifiants. (Certaines personnes soutiennent que la syntaxe du langage naturel est également autonome par rapport au sens Koster 1986 ; il y a peut-être plus de raisons de faire des réserves à ce sujet, mais supposons que cela soit également vrai.)

Ce qui est certainement vrai, c'est que lorsque nous manipulons des symboles du langage naturel (c'est-à-dire des mots) pour dire tout ce que nous voulons dire, nos manipulations de symboles sont régies par une contrainte supplémentaire, au-delà de la syntaxe qui détermine si ou non, ils sont bien formés : cette autre contrainte est la « forme » du sens des mots.

4. Catégorisation

À l'exception de quelques mots de fonction, tels que le et si et non, la plupart des mots d'un dictionnaire de langage naturel sont des mots de contenu, et en tant que tels, ce sont des noms de catégories. Les catégories sont des sortes : sortes d'objets, événements, actions, propriétés, états. Être capable de catégoriser, c'est être capable de faire la bonne chose avec le bon type de chose (Harnad 2005). Et les choses ont des formes. Et nous aussi. Donc, pour pouvoir faire la bonne chose avec le bon type de chose, notre cerveau doit être capable de distinguer les formes des membres des non-membres de chacune des catégories que nous possédons.

La catégorisation est si générale qu'elle couvre à peu près toutes nos compétences comportementales et cognitives - toutes celles qui dépendent d'une décision discrète ou catégorique. Cela exclut uniquement les compétences continues, telles que la marche, la natation, le basket-ball ; nous pouvons catégoriser certains des points de choix discrets de leurs actions dynamiques, mais les compétences elles-mêmes sont continues plutôt que catégorielles, et leurs "formes" dynamiques ne sont certainement pas arbitraires mais congruentes avec les objets et les états du monde réel sur lesquels elles opèrent - congruent avec ce que Gibson (1979) a appelé leurs « affordances », ou la forme de ce que les objets de nos actions permettent de faire avec eux, avec des corps qui ont la forme du nôtre.

La plupart de nos catégories ne sont pas innées. Nous devons apprendre quelles choses sont contenues dans les catégories animaux, plantes, hiboux, papillons, rochers, montagnes, arbres, tables, tremblements de terre, querelles, marcher, courir, nager, voler, ballons de basket, jouer au basket, vert, gros, égal, grand, à l'intérieur, sous, risqué, bonté, vérité et beauté.

Même les noms propres (comme Ferdinand de Saussure ou Noam Chomsky) nomment des catégories, dans le sens où chaque fois que vous voyez l'individu qui porte ce nom propre, il n'a pas l'air exactement identique à la dernière fois que vous l'avez vu : changements de position, vêtements changement, changement d'heure, toutes ces instances doivent être reconnues comme faisant partie d'une seule et même catégorie : les instances de la personne individuelle nommée.

4.1. Le problème de la mise à la terre des symboles

Toutes ces catégories de mots de contenu répertoriées dans nos dictionnaires ont des membres. Si nous savons ce que signifie un mot donné, nous savons quels sont et ne sont pas les membres de la catégorie qu'il dénote (bien qu'il n'y ait aucune ressemblance entre la forme du mot et la forme des membres de la catégorie qu'il dénote). nous apprenons le sens d'un mot? Eh bien, nous pouvons le rechercher dans un dictionnaire. La définition le définira pour nous - à condition que nous connaissions déjà le sens des mots utilisés dans la définition du mot. Sinon, pas de problème, nous pouvons également rechercher ces mots, et ainsi de suite. Mais, comme pour les soi-disant «protolangages», il ne peut pas s'agir de définitions jusqu'au bout.

C'est le problème de l’ancrage des symboles (Harnad 1990). Dans un système de symboles en langage naturel, certaines, au moins, des significations de certains mots doivent être acquises par d'autres moyens que la définition verbale. Le candidat naturel, bien sûr, est l'expérience sensorimotrice directe : puisque les mots sont les noms de catégories, nous pouvons apprendre qui en sont et qui ne sont pas leurs membres par induction d'essais et d'erreurs. Un exemple serait d'apprendre quels champignons sont comestibles et lesquels sont toxiques. Vous échantillonnez un petit morceau de champignon, attendez de voir si vous tombez malade ou si vous vous nourrissez, et vous continuez à échantillonner différents champignons assez souvent jusqu'à ce que votre cerveau ait appris à les distinguer de manière fiable (si vous ne vous êtes pas empoisonné ou affamé avant) . Lorsque nous apprenons avec succès une nouvelle catégorie par induction sensorimotrice, notre cerveau apprend à détecter la forme sensorimotrice de la ou des caractéristiques qui distinguent de manière fiable les membres des non-membres.

4.2. Simuler l'origine du langage

Cangelosi et Harnad (2001 ; Cangelosi et al. 2002) ont réalisé une simulation de vie artificielle de créatures acquérant des catégories par induction sensorimotrice dans un monde « jouet » avec trois types de champignons différents : A, B et C. Nous ne décrirons pas les détails. sauf pour dire que deux des catégories, A et B, ne pouvaient être apprises que directement, par induction d'essais et d'erreurs, les réseaux de neurones apprenant à détecter les caractéristiques qui distinguaient les membres des non-membres pour chacune des deux premières catégories de champignons ( A, non-A, B, non-B). Pour la troisième catégorie, C, il y avait deux façons de l'apprendre, car la règle d'appartenance à cette catégorie était simplement la conjonction de la règle pour A et pour B : un champignon était un C s'il était à la fois A et B ; sinon, c'était non-C.

 

Figure 1. Simulation de vie artificielle des avantages évolutifs de l'instruction par rapport à l'induction. Dans un monde de champignons simulés, les champignons de la catégorie "A" et les champignons "B" ne pouvaient être appris que par induction par essais et erreurs, mais les champignons de la catégorie "C" pouvaient être appris soit par induction, soit par instruction (C = A + B). En quelques générations, les créatures virtuelles qui avaient tendance à apprendre le C par instruction ont survécu et se sont reproduites plus longtemps que celles qui avaient tendance à apprendre le C par induction, démontrant les avantages adaptatifs de l'instruction par rapport à l'induction dans l'acquisition de nouvelles catégories (Cangelosi & Harnad 2001 ).

POUR LES FIGURES VEUILLEZ VOIR LA VERSION ANGLAISE

Nous mettons deux types de créatures en compétition dans notre monde de jouets : des créatures qui ne peuvent apprendre que par induction, grâce à un retour correctif résultant d'un long échantillonnage par essais et erreurs pour détecter les caractéristiques distinctives, et des créatures qui peuvent apprendre par induction ou instruction, en « entendant » des créatures qui connaissaient déjà les catégories A, B et C, « vocalisant » lorsqu'elles cueillaient des champignons C, parce qu'elles vocalisaient les noms A, B et C.

C'est un peu de la triche, car nous avons câblé les créatures pour qu'elles vocalisent les noms des catégories ; mais - puisque nous ne croyons pas que le langage ait commencé vocalement de toute façon - pensez à la catégorie "noms" non pas comme des vocalisations mais comme des actions observables. Comme indiqué précédemment, la catégorisation consiste à "faire la bonne chose avec le bon type de chose". Et bien sûr, nommer n'est qu'un type de « faire » - un type tardif et arbitraire. Dans la simulation, les créatures font quelque chose de différent avec les deux types de champignons ; ils accomplissent un acte sensori-moteur différent. Disons qu'ils ARROSENT les champignons A, qu'ils MARQUENT l'emplacement des champignons B et qu'ils MANGENT les champignons C. Appelons donc les trois sortes de champignons les champignons EAU, les champignons MARK et les champignons EAT, avec les « noms » édictés corporellement, en exécutant des actions non arbitraires sur les membres de la catégorie, plutôt que vocalement.

Comme nous l'avons dit, les catégories WATER et MARK ne pouvaient être apprises que par induction, donc toutes les créatures les ont apprises de cette façon - à la fois les apprenants par induction uniquement et les apprenants d'instruction. (C'est le symbole de mise à la terre.)

Mais ensuite, lorsqu'il s'agissait d'apprendre la catégorie EAT, cela aussi pouvait être appris de manière longue, difficile et risquée - en essayant de détecter les caractéristiques distinctives par induction sensorimotrice par essais et erreurs - ou cela pouvait être appris rapidement, en un essai : en observant que d'autres, qui connaissaient déjà la catégorie, ont exécuté WATER uniquement avec des champignons WATER, MARK uniquement avec des champignons MARK, et WATER+MARK+EAT avec des champignons EAT. C'est l'apprentissage par l'instruction symbolique.

Lorsque nous avons mis les apprenants en induction uniquement en concurrence avec les apprenants en instruction, en quelques générations, les apprenants en instruction avaient survécu et reproduit plus que les apprenants en induction, dont il ne restait plus de survivants. (Nous avons qualifié les apprenants d'instruction de "voleurs" pour des raisons laissées au lecteur. Voici un indice : contrairement au vol de nourriture, le "vol" de catégories - éviter d'avoir à faire l'induction en suivant l'instruction à la place - est un crime sans victime ; en effet , les bénéfices de l'instruction dépendent essentiellement du mutualisme ; Poynder & Harnad 2007.)

4.3 De la pantomime à la proposition : le passage du montrer au dire

Ceci est donc notre hypothèse sur comment et pourquoi le langage a commencé. Comme beaucoup d'autres dans ce rapport, tous les composants cognitifs essentiels semblent déjà avoir été en place chez d'autres hominidés il y a 250 000 ans - tout comme beaucoup d'entre eux sont également présents chez nos cousins ​​singes contemporains ainsi que chez d'autres espèces sociales intelligentes aujourd'hui : la capacité d'apprendre les traits distinguant les catégories par induction sensorimotrice ; la capacité d'apprendre par l'observation et l'imitation ; la capacité de pointage, d'attention partagée et de lecture dans les pensées ; une forte tendance à la coopération des parents dans l'élevage des jeunes à développement tardif; et la possession à la fois de "neurones canoniques" (qui reconnaissent ce que vous pouvez faire avec quoi) et de "neurones miroirs" (qui reconnaissent quand un autre organisme fait le même genre de chose que vous faites).

Beaucoup de ces composants cognitifs (et probablement d'autres aussi) étaient déjà disponibles avant le début du langage (bien que certains d'entre eux puissent également être des effets plutôt que des causes du langage). Il se pourrait bien que nos ancêtres aient eu le pouvoir de communiquer par pantomime avant l'avènement du langage ; mais vous ne pouvez pas transmettre de nouvelles catégories par la seule pantomime. Tout ce que vous pouvez faire est de mimer des objets, des événements et des actions et, dans une certaine mesure, des propriétés et des états (y compris des requêtes et des menaces).

 

5. Combiner et communiquer les catégories

Le pouvoir du langage a-t-il été inventé ou découvert ? Le pouvoir du langage (selon notre hypothèse) était, en premier lieu, le pouvoir d'acquérir une nouvelle catégorie composite d'autres personnes qui connaissaient déjà les anciennes catégories à partir desquelles la nouvelle était composée. La combinaison la plus simple est la conjonction : un membre de C est membre à la fois de A et de B. Les premières catégories combinatoires étaient probablement des catégories "extensionnelles", ce qui signifie que les membres de C sont appris à être les membres de A qui sont également membres de B. Mais puisque les membres de A sont détectés par les détecteurs de caractéristiques appris de notre cerveau pour A et que les membres de B sont détectés par nos détecteurs de caractéristiques pour B, les membres de C peuvent être détectés en combinant simplement les détecteurs de caractéristiques pour A et pour B. Cela pourrait être détecté passivement, par l'apprentissage par observation, comme dans nos simulations, l'apprenant notant simplement qu'il est plus rapide d'apprendre ce qu'est un C en observant les actions de ceux qui savent déjà ce qu'est un C - en notant qu'ils faites ce que vous devez faire avec un C avec tout ce qui se trouve être à la fois un A et un B. (Cela ne fonctionne, bien sûr, que si vous savez déjà ce que sont un A et un B.)

Mais comme les hominidés étaient des créatures beaucoup plus sociales que nos simulacres de butineurs de champignons, l'apprentissage n'aurait pas dû être aussi passif. Les parents qui connaissaient déjà A, B et C - par exemple la mère de l'apprenant - seraient motivés pour enseigner à l'apprenant C. Et puisque A, B et C sont des actions manifestes (contrairement à notre simulation, où il ne s'agissait que de vocalisations), la mère serait motivée à attirer l'attention de l'apprenant sur les combinaisons de catégories non seulement en exécutant les trois actions sur les objets eux-mêmes, mais aussi en les mimant en l'absence des objets.

Nous suggérons que c'est ainsi que la proposition est née. Les apprenants peuvent avoir commencé à saisir de nouvelles catégories composites grâce à un apprentissage passif par observation. Mais une fois que le connaisseur - motivé pour aider les parents ou les collaborateurs à apprendre en partageant les catégories - est devenu activement impliqué dans la communication des catégories composites, cela est devenu un enseignement intentionnel plutôt qu'accidentel, l'enseignant mimant activement les nouvelles descriptions de catégorie à l'apprenant. La catégorie « noms » deviendrait également plus courte et plus rapide – moins iconique et plus arbitraire – une fois que leur intention propositionnelle (l'« attitude propositionnelle ») était interprétée et adoptée mutuellement par l'enseignant et l'apprenant.

Il est intéressant d'observer les grands singes contemporains lorsque les chercheurs tentent de leur enseigner le langage. Il semble incontestable qu'ils n'apprennent jamais le langage ; - sinon, malgré les excuses qu'elle leur a données, les chimpanzés de Sue Savage-Rumbaugh auraient pu assister à l'Institut d'été pour discuter de l'origine du langage avec le reste d'entre nous, tout comme n'importe quel chasseur-cueilleur contemporain nouvellement découvert des profondeurs de la jungle amazonienne pourrait rejoindre la "conversation" (ce mot à la mode et galvaudé, mais assez approprié ici !).

Les chimpanzés ont des catégories. Nous continuons à les entraîner à «nommer» leurs catégories (que ce soit avec des gestes, des objets symboliques, des claviers d'ordinateur ou des mots) - même à combiner ces noms en chaînes quasi-propositionnelles. Et les chimpanzés nous obligent s'ils ont faim ou s'ils en ont envie. Mais ce qui est frappant, c'est qu'ils ne prennent jamais vraiment la balle linguistique et courent avec. Ils ne semblent tout simplement pas motivés à le faire, même s'ils semblent parfois « comprendre », localement, pour des cas individuels.

5.1. La disposition à proposer : Intelligence ou motivation ?

Nous ne savons pas si les chimpanzés comprennent vraiment. Ils obtiennent les associations et les contingences ; mais les reçoivent-ils sous forme de propositions, avec des valeurs de vérité ? C'est difficile à dire. Ce qui est le plus déroutant, c'est pourquoi ils ne semblent pas saisir le pouvoir qui est entre leurs mains lorsqu'ils commencent à combiner systématiquement des symboles pour définir de nouvelles catégories. Ce qui semble manquer, ce n'est pas l'intelligence mais la motivation, voire la compulsion, à nommer et à décrire.

(Peut-être que quelque chose comme la signalisation non systématique, locale et instrumentale de ces chimpanzés entraînés est ce que les partisans du «protolangage» ont à l'esprit - mais si c'est le cas, il échoue à notre test de capacité à dire tout et n'importe quoi précisément parce qu'il ne s'agit pas vraiment de «dire ” quoi que ce soit : Nous (avec nos cerveaux biaisés par le langage) ne faisons que projeter cette glose propositionnelle dessus, comme si nous ajoutions compulsivement des sous-titres narratifs à un film muet.)

Interpréter A est B comme une proposition – comme affirmer quelque chose de vrai sur le monde, plutôt que de simplement produire une série d'associations à des fins instrumentales – peut avoir nécessité une nouvelle capacité cognitive, peut-être même une capacité à base génétique ; mais étant donné à quel point les hominidés étaient déjà intelligents et que toutes les pièces étaient déjà en jeu, une telle "mutation" pour adopter "l'attitude propositionnelle" - si une véritable mutation était effectivement nécessaire - n'est pas farfelue à imaginer. (Pas besoin d'une mutation pour UG, par exemple.)

Alors peut-être que c'est ce que l'évolution a fait avec notre espèce. Parce que nous étions plus sociables, plus coopératifs et collaboratifs, plus dépendants des parents - et pas nécessairement parce que nous étions beaucoup plus intelligents - certains d'entre nous ont découvert le pouvoir d'acquérir des catégories par instruction au lieu d'une simple induction, d'abord passivement, par hasard, sans le aide de toute prédisposition génétique. Mais ensuite, alors que ceux qui se trouvaient être plus motivés pour apprendre à acquérir et à partager des catégories de cette nouvelle manière toute-puissante ont commencé à profiter des avantages considérables qu'elle conférait - les avantages d'acquérir de nouvelles catégories sans le temps, l'énergie, l'incertitude et risque de les acquérir par induction sensorimotrice directe - L'évolution baldwinienne a commencé à favoriser cette disposition à apprendre et à utiliser des symboles pour nommer des catégories et à recombiner leurs noms afin de prédiquer et de proposer d'autres catégories, en raison des avantages adaptatifs que la description et le partage des catégories conféré. La tendance à acquérir et à transmettre des catégories par l'instruction s'est ainsi renforcée de plus en plus dans les génomes et les cerveaux des descendants de ceux qui étaient les plus motivés et disposés à apprendre à le faire. Et cela est devenu le cerveau « biaisé par le langage » de notre espèce.

Comme indiqué, la capacité ou la disposition à interpréter un A est un B comme une proposition, avec une valeur de vérité, peut avoir été soit une mutation, soit les primates peuvent déjà avoir eu la capacité et seulement besoin de l'avoir amplifiée sur le plan motivationnel et comportemental par Baldwinian. évolution. Le fait est que la pleine puissance du langage vient déjà avec le territoire propositionnel, une fois que vous commencez à nommer systématiquement vos catégories et à recombiner leurs noms en propositions décrivant ou définissant de nouvelles catégories composites. Le voyage commence par les avantages d'acquérir les catégories de subsistance et de survie immédiates de nos ancêtres paléolithiques par l'instruction plutôt que par l'induction, mais il mène de manière transparente au contenu de notre lexique mental contemporain (et futur) des catégories, tel que reflété dans notre tradition orale, et finalement notre tradition écrite, avec ses glossaires, dictionnaires, encyclopédies, manuels et manuels.

5.2. De la main à la bouche

Or la probabilité de découvrir d'abord ce pouvoir propositionnel illimité est incomparablement plus élevée dans la modalité gestuelle/pantomime, qui inclut déjà toutes les choses non arbitraires que nous faisons avec les catégories (concrètes) ; ces actes peuvent ensuite être court-circuités pour servir de noms de plus en plus arbitraires aux catégories, prêts à être recombinés pour définir de nouvelles catégories.

Mais une fois qu'une espèce a pris la balle linguistique dans la modalité gestuelle et a commencé à courir avec elle (linguistiquement, propositionnellement), les avantages de libérer ses mains pour porter autre chose que la balle, pour ainsi dire (plutôt que d'avoir à gesticuler en essayant pour faire tout le reste) - avec les avantages de nommer lorsque l'enseignant est hors du champ de vision de l'apprenant, ou à distance, ou dans l'obscurité - supplanterait rapidement les avantages du geste comme modalité de démarrage du langage ( Steklis et Harnad 1976). (On pourrait presque entendre les grognements de frustration si l'apprenant visé ne voyait pas, ou si les mains de l'enseignant étaient autrement occupées - les théories « yo-he-ho » et « pooh-pooh » de l'origine du langage parodiées par Max Mueller viennent à l'esprit.)

Par ailleurs, une fois le nom devenu arbitraire, sa « forme » – et donc sa modalité sensorielle – n'a plus d'importance. Ainsi, à mesure que le pouvoir du langage dans l'acquisition des catégories s'encéphalisait, la tendance à attribuer des noms arbitraires aux catégories - et à combiner leurs noms en propositions définissant de nouvelles catégories - a migré vers la modalité auditive, qui était déjà si admirablement préparée à cette tâche chez d'autres espèces. ainsi que la nôtre (bien qu'elle ait sans doute dû subir une période d'encéphalisation supplémentaire intensive, sous la pression sélective des avantages adaptatifs d'une parole de plus en plus efficace).

Notez qu'il n'y a rien qui ressemble vraiment à un "protolangage" dans tout cela - à moins que vous ne considériez que chaque fois qu'un langage lexicalise une nouvelle catégorie avec un mot, ou que sa syntaxe est modifiée, il est devenu un nouveau protolangage. Une langue n'est qu'un ensemble de symboles avec lesquels nous pouvons dire tout et n'importe quoi, que ce soit par des gestes ou par la parole, que ce soit rapidement ou lentement, et que ce soit avec un vocabulaire de beaucoup de symboles ou de peu.

5.3 Ancrage des symboles

Maintenant une question : combien d'induction devez-vous faire avant que le langage puisse entrer en jeu, sous forme d'instruction ? (Il est clair que notre simulation de jouet avec les trois catégories de champignons ne répond pas à cette question.) Étonnamment, un indice de réponse peut être latent dans nos dictionnaires contemporains, et la théorie des graphes peut nous aider à le déterrer. En éliminant d'abord tous les mots qui sont seulement définis, mais qui ne sont pas utilisés pour définir d'autres mots, puis en éliminant ensuite aussi successivement tous les autres mots qui peuvent être "atteints" par définition parmi les mots restants, nous avons dictionnaires réduits à leur « noyau de base » (Blondin Massé et al 2008 ; Blondin Massé & Harnad 2010) (Figure 2). Les mots du noyau sont ceux à partir desquels tous les autres mots du dictionnaire peuvent être définis, mais à l'intérieur desquels toute autre définition est circulaire, car les mots du noyau s'interdéfinissent entre eux (plutôt comme bon = pas mauvais et mauvais = pas bon) . Le noyau s'avère représenter environ 10% du dictionnaire. Il s'avère également que les mots du noyau sont appris significativement plus tôt que le reste des mots du dictionnaire, en plus d'être plus concrets, imageables et fréquents, tant à l'oral qu'à l'écrit (Picard et al. 2010). Mais le noyau n'est pas encore le plus petit nombre de mots à partir duquel tous les autres mots du dictionnaire peuvent être définis.

Figure 2. Extraction du noyau et du noyau de mise à la terre d'un dictionnaire.

POUR LES FIGURES VEUILLEZ VOIR LA VERSION ANGLAISE

Le tableau est un dictionnaire de jouets de 14 mots (pas un vrai dictionnaire) construit artificiellement pour illustrer comment un simple algorithme récursif peut réduire n'importe quel dictionnaire à sa base Noyau (plus grande ellipse sur la figure 2a) à partir duquel tout le reste des mots peut être atteint par définition seule (flèches). La plus petite ellipse est le noyau (trivial dans cet exemple jouet), un grand composant fortement connecté au sein du noyau qui s'avère émerger empiriquement dans de vrais dictionnaires. La figure 2b montre comment les mots sont à une distance définitionnelle croissante du noyau dans le dictionnaire des jouets. Dans les vrais dictionnaires (figure en bas à gauche), les mots du Kernel s'avèrent avoir été appris à un plus jeune âge, et sont plus concrets, imagés et fréquents que le reste du dictionnaire. La corrélation est tout ou rien entre le noyau et le reste du dictionnaire pour l'âge et la fréquence, alors qu'elle est graduée avec le degré de distance définitionnelle du noyau pour le caractère concret et l'imageabilité. Cela signifie qu'il y a des mots à l'intérieur du noyau mais à l'extérieur du noyau qui sont plus abstraits et sont appris tout au long du cycle de vie. Le noyau est unique, mais ce n'est pas le plus petit nombre de mots à partir duquel tout le reste peut être atteint par la seule définition : ce serait le minimum grounding set (MGS), qui n'est pas unique, et nous commençons à peine à l'extraire. dans de vrais dictionnaires. Le noyau fortement connecté n'est pas un MGS. Trouver le MGS équivaut au problème de la théorie des graphes consistant à trouver un ensemble de sommets de rétroaction minimum, qui est NP-complet pour les graphes en général, mais il existe des moyens de le résoudre (en cours) dans le cas particulier des dictionnaires, en raison de leur petite taille. taille et leur structure.

Nous avons seulement commencé à calculer le plus petit ensemble de définition (parce que le problème général de son calcul est NP-complet), mais nous savons que ce plus petit ensemble, contrairement au noyau, ne sera pas unique. Il y aura de nombreux ensembles alternatifs de la plus petite taille. Il semble, cependant, que chacun d'eux sera composé d'environ 500 mots. Cela signifie qu'avec environ 500 mots de contenu (noms de catégories) plus quelques mots de fonction, tels que and, not, if, etc., plus le pouvoir très important de la prédication - qui dans certaines langues est marqué par is, comme dans apple est rouge, mais dans certaines langues est omis, comme dans pomme rouge (sujet/prédicat), énoncé en adoptant « l'attitude propositionnelle » - nous pouvons définir tous les autres mots contenus dans nos dictionnaires contemporains (ainsi que ceux de toutes nos encyclopédies et tous les glossaires des manuels) et donc tous les mots de notre lexique mental.

Cela ressemble un peu à notre « test » pour savoir si quelque chose est un langage naturel : vous pouvez y exprimer n'importe quelle proposition. Quoi qu'il en soit, il semble qu'environ 500 noms de catégories plus quelques foncteurs et règles syntaxiques suffisent pour obtenir la pleine puissance expressive du langage.

6. Garder les pieds sur terre

Cependant, malgré ses avantages spectaculaires, l'apprentissage des catégories par le langage, par l'instruction symbolique, n'est pas tout à fait équivalent à leur apprentissage par induction sensorimotrice. Nous avons également des preuves comportementales et électrophysiologiques que, bien que les processus cérébraux sous-jacents des deux façons d'acquérir des catégories puissent avoir beaucoup en commun, les résultats de l'apprentissage des catégories par induction par rapport à l'instruction ne sont pas identiques (St-Louis & Harnad 2010). L'instruction nécessite beaucoup moins d'essais d'entraînement (en fait, une bonne instruction devrait permettre une catégorisation correcte dès la première tentative), mais il faut plus de temps pour appliquer l'instruction à chaque instance rencontrée, du moins au début ; le temps de réaction pour la catégorisation lorsqu'elle a été apprise par induction est plus rapide que lorsqu'elle a été apprise par instruction. Et bien sûr il ne peut pas s'agir d'instruction jusqu'en bas : l'instruction suppose déjà d'avoir toutes les catégories servant à définir la nouvelle catégorie. Même si, au fond, et en principe, seules 500 catégories auraient besoin d'être apprises directement par induction sensorimotrice, en pratique, il est clair que nous continuons à apprendre de nouvelles catégories de ces deux manières tout au long de notre cycle de vie. De plus, alors qu'une règle de catégorisation peut être apprise de manière purement symbolique, son application à des instances réelles reste sensorimotrice, sauf lorsque les instances ne sont nommées ou décrites que verbalement.

Ainsi, "dire" a remplacé "montrer" dans l'évolution humaine, mais, comme pour les présentations PowerPoint occasionnelles, cela aide toujours à soutenir, illustrer, compléter ou rafraîchir le récit avec quelques démonstrations. Après tout, l'expérience sensorimotrice directe - plutôt qu'un simple ouï-dire verbal indirect - est, au fond, toujours ce qu'est la vie, même pour Homo loquens.

POUR LES RÉFÉRENCES VEUILLEZ CONSULTER LA VERSION ANGLAISE

Blondin Massé et al (2012) Symbol Grounding and the Origin of Language: From Show to Tell. In: Origins of Language. Institut de sciences cognitives. UQÀM

 -----------------------------------------

Vincent-Lamarre, Philippe., Blondin Massé, Alexandre, Lopes, Marcus, Lord, Mèlanie, Marcotte, Odile, & Harnad, Stevan (2016). The Latent Structure of Dictionaries  TopiCS in Cognitive Science  8(3) 625–659

Le succès adaptatif des organismes dépend de la capacité de faire la bonne chose avec le bon type de chose. C'est la catégorisation. La plupart des espèces peuvent apprendre des catégories par expérience directe (induction). Seuls les êtres humains peuvent acquérir des catégories par ou i-dire (instruction). Les simulations de vie artificielle montrent l'avantage évolutif de l'enseignement par rapport à l'induction. Les expériences électrophysiologiques montrent que nos deux façons d'acquérir les catégories partagent encore certaines caractéristiques communes. Les analyses graphique-théoriques montrent que les dictionnaires sont constitués de mots plus concrets, acquis à partir de l'expérience directe; et le sens des mots dans le reste du dictionnaire peuvent être appris à partirs de la définition seule, en combinant les mots de base dans les propositions sujet / prédicat avec des valeurs véridiques (vrai/faux). Le langage est advenu lorsque le mime intentionnel a été converti en séquences arbitraires de noms de catégories partagées décrivant et définissant de nouvelles catégories via des propositions.

POUR UNE IDÉE PLUS DIRECTE DE QUOI IL S'AGIT: 

JOUEZ LE JEU DU DICTIONNAIRE

Saint-Gerand, J. P. (2014). Steven Pinker, L'instinct du langageQuestions de communication, (2), 236-237.

François, J. (2014). L’émergence et l’évolution du langage humain du point de vue des neurosciencesCorela. Cognition, représentation, langage, (12-2).

Savage-Rumbaugh, E. S., M Fields, W., Pasquier, R., Savy, P., & Schreiber, D. (2012). L'évolution et le développement du langage humain chez Homo symbolicus et Pan symbolicusLabyrinthe, (1), 39-79.

Harnad, S. (2004). Retour à la tradition orale: écrire dans le ciel à la vitesse de la pensée.

Vidéo du cours -- 30 mars 2021


PPT 2019:




Table ronde "Origines de l'humanité" avec Jean... by Ville-de-Saint-Tropez

Compte rendu de la conférence de Jean-Louis Dessalles à l'UQÀM.


Les origines du langage : une perspective néo-saussurienne 


D'autres vidéos langue française sur l'origine du langage