Mémoire/Version imprimable

Un livre de Wikilivres.
Aller à : navigation, rechercher
Ceci est la version imprimable de Mémoire.
  • Si vous imprimez cette page, choisissez « Aperçu avant impression » dans votre navigateur, ou cliquez sur le lien Version imprimable dans la boîte à outils, vous verrez cette page sans ce message, ni éléments de navigation sur la gauche ou en haut.
  • Cliquez sur Rafraîchir cette page pour obtenir la dernière version du wikilivre.
  • Pour plus d'informations sur les version imprimables, y compris la manière d'obtenir une version PDF, vous pouvez lire l'article Versions imprimables.


Mémoire

Une version à jour et éditable de ce livre est disponible sur Wikilivres,
une bibliothèque de livres pédagogiques, à l'URL :
http://fr.wikibooks.org/wiki/M%C3%A9moire

Vous avez la permission de copier, distribuer et/ou modifier ce document selon les termes de la Licence de documentation libre GNU, version 1.2 ou plus récente publiée par la Free Software Foundation ; sans sections inaltérables, sans texte de première page de couverture et sans Texte de dernière page de couverture. Une copie de cette licence est inclue dans l'annexe nommée « Licence de documentation libre GNU ».

Sections

Ebbinghaus : le pionnier

Les premières études sur la mémoire humaine ont étés réalisées par un certain Ebbinghaus, un philosophe/psychologue allemand des années 1885. Celui-ci a été le premier à créer une méthode expérimentale fiable pour étudier la mémoire. Son protocole expérimental était simple : il devait simplement mémoriser une liste de mots appris par cœur.

Pour éviter tout biais ayant trait à la complexité des mots, il décida de n'utiliser que des mots de la même longueur. Toutefois, pour éviter toute association entre les mots, il décida de n'utiliser que des mots sans aucune signification. Il décida de n'utiliser que des syllabes sans aucune sens. Les mots à mémoriser se présentaient donc sous la forme de syllabes, organisé en consonne-voyelle-consonne, dont la consonne ne se répète pas. Cela donnait des mots comme YAT, DUS, MIK, etc.

Il créa ainsi 2300 de ces mots, écrits sur des morceaux de papier. Il mis ces morceaux de papier dans un box, et commença les expériences. Les expériences se passaient comme suit : il retirait un morceau de papier du box, lisait le mot à haute voix, avec la même intonation à chaque fois, et rangeait le papier avant de passer au mot suivant. A chaque fois, le nombre de mots tirés du box était choisi au hasard. A la fin de la procédure, il prenait un morceau de papier et notait dessus tous les mots dont il se rappelait.

Ses investigations lui prirent un grand nombre de répétition, mais elles ne furent pas vaines. Ebbinghaus remarqua quelques régularités dans les mots dont il se rappelait. Dans ses expériences, Ebbinghaus fut le premier à découvrir les effets de position sériels, le sur-apprentisage, et les effets de ma répétition sur la mémoire.

Courbes de l'oubli[modifier | modifier le wikicode]

Dans ses expériences, Ebbinghaus mesurerait à intervalles réguliers ce qu'il avait retenu du matériel appris, et visualisait les résultats sur un graphique. Ce graphique est ce qu'on appelle une courbe de l'oubli.

Le bilan est que l'oubli s'effectue en deux phases : une phase d'oubli dans laquelle un grand nombre de connaissances sont oubliées, suivie d'une phase de stabilisation : on oublie vite, mais cet oubli s’arrête rapidement et les connaissances qui ont survécus sont apprises définitivement.

Les informations qui survivent à l'oubli sont alors très résistantes, et forment ce que l'on appelle le permastore. Ce mot fait référence au permafrost, à savoir l'état totalement gelé de certains sols dans les régions froides (en Sibérie, notamment) : tout se passe comme si les souvenirs finissait par geler, par se consolider si fortement en mémoire qu'ils ne peuvent plus être oubliés.

Le temps d'oubli varie beaucoup suivant le matériel appris. Une étude faite sur les connaissances en espagnol apprises durant la scolarité d'élèves américains a montré que la phase de déclin peut prendre 3 ans, avant que l'oubli ne se stabilise. Une autre étude (cf. Ellis, J.A.; Semb, G.B. & Cole, B. (1998). Very long-term memory for information taught in school), a montré que les élèves retiennent entre 30 à 20% de ce qu'ils ont appris en classe plusieurs dizaines d'années après avoir quitté l'école : le taux exact dépend fortement du niveau de maîtrise initial, ceux qui retiennent le mieux sont ceux qui ont appris facilement la matériel et qui n'ont pas eu de difficultés particulières à le comprendre. D'autres études sur la capacité à reconnaître ses anciens camarades de classe sur des photographies ont montré que l'oubli peut être encore plus lent, avec des courbes de l'oubli quasiment horizontales.

Répétition[modifier | modifier le wikicode]

Ebbinghaus chercha à savoir quel était le taux d'apprentissage en fonction du nombre de répétition. Par exemple, si l'on passe deux fois plus de temps sur le matériel à apprendre, apprend-on deux fois plus vite ? Ou bien est-ce que le cerveau sature et que l'efficacité décroit avec le nombre de répétitions ? Ou encore plus on répète, meilleure est l'efficacité de l'apprentissage ?

Pour le savoir, il compara le taux de rappel obtenu un jour après l'apprentissage de plusieurs listes de 16 syllabes : ces listes étaient revues respectivement 8, 16, 24, 32, 42, 53, et 64 fois. Le bilan était clair : le taux de rappel d'une liste était directement proportionnel au nombre de répétitions de celle-ci. Expérimentalement, Ebbinghaus remarqua que la répétition permet de lutter efficacement contre l'oubli : plus on répète quelque chose, plus on s'en souvient.

Cela a été confirmé par des expériences plus récentes, et notamment par l'étude de Bahrick et al. sur les connaissances en espagnol et l'effet permastore. Pour le vérifier, il regarda quel était le taux d'informations conservées, encore disponibles, en fonction du nombre de cours qu'on eu les participants. Ceux qui avaient vu une seule fois les mots dans leur scolarité avait un taux de rappel de presque zéro, ceux qui les avaient vu trois fois atteignaient 30%, et deux qui avaient vu cinq fois ces mots durant leur scolarité atteignaient 60% de réussite.

Ré-apprentissage[modifier | modifier le wikicode]

Dans ses expériences, Ebbinghaus remarqua aussi que réapprendre une liste de syllabes était plus facile suivant le nombre de répétitions. Dans ses expérience,s il apprenait des listes de syllabes, en contrôlant le nombre de répétitions, et regardait combien de temps il lui fallait pour réapprendre l'intégralité de la liste, une fois celle-ci totalement oubliée. Il obtient quelque chose dans le genre :

Tout se passait comme si les informations oubliées n'étaient pas totalement perdues et effacées de la mémoire : il en subsisterait une trace dans le cerveau qui peut faciliter les ré-apprentissages ultérieurs.

Sur-apprentissage[modifier | modifier le wikicode]

Dans les premières expériences utilisant les courbes de l'oubli, Embinghaus a remarqué que le sur-apprentissage, à savoir continuer à revoir le matériel à apprendre une fois que celui-ci est totalement su, permettait de mémoriser plus longtemps et de diminuer l'oubli avec le temps.

Expérimentalement, cette technique marche, mais les effets semblent s'estomper après quelques semaines, voire quelques mois. L'étude ("The Effect of Overlearning on Long-Term Retention") a demandé à des étudiants de retenir des faits géographiques et des définitions de mots. Les étudiants qui avaient sur-appris retenaient mieux, mais les effets s'estompaient assez rapidement, quelques semaines plus tard. Une autre de ces études (The Effects of Overlearning and Distributed Practise on the Retention of Mathematics Knowledge) a testé la même chose, mais pour des exercices de mathématique. Le bilan est le même : pas d'effets à long terme.

Distribuer[modifier | modifier le wikicode]

Ebbinghaus a aussi regardé s'il y avait une différence entre l'apprentissage massé, et l'apprentissage distribué. L'apprentissage massé consiste à apprendre le matériel sur une durée continue, tandis que l'apprentissage distribué consiste à faire de nombreuses pauses et à voir le matériel morceaux par morceaux.

Expérimentalement, il a constaté que l'apprentissage distribué démontait littéralement l'apprentissage massé : le seul fait de distribuer l'apprentissage peut permettre d'améliorer la mémorisation de plusieurs ordres de grandeurs. Cette supériorité de la distribution sur l'apprentissage massé s'appelle le spacing effect.

Les origines de cet effet ne sont pas claires : il semblerait que cet effet aurait plusieurs explications. Ceci dit, ce phénomène est particulièrement robuste, et apparait de de nombreuses formes d'apprentissage.

Effets de position sériels[modifier | modifier le wikicode]

Ebbinghaus fût aussi le premier à découvrir l'effet de position sériel. Cet effet apparait dans certaines conditions expérimentales : on demande à des cobayes de mémoriser une liste de mots, prononcés ou lus dans l'ordre. Immédiatement après la lecture de la liste, on demande aux sujets de rappeler le plus grand nombre de mots possible. Il s'agit donc de rappel libre : on ne donne pas d'indice au cobaye pour faciliter le rappel, et le rappel peut se faire dans un ordre différent de celui de la liste.

Pour résumer, les effets de position sériels font que la courbe de rappel des mots en fonction de leur place dans la liste ressemble à ceci :

Primacy effect[modifier | modifier le wikicode]

Les mots ne sont pas rappelés de la même manière suivant leur position dans la liste : les tout premiers et tout derniers mots sont les mieux mémorisés. Le fait que les mots au début de la liste soient mieux mémorisés s'appelle le l'effet de primauté.

Cela vient du fait que les éléments du début de la liste ont pu être répétés mentalement par le cobaye plus souvent que les autres, durant toute la durée de l'expérience, facilitant leur mémorisation. Pour obtenir une véritable preuve expérimentale, les psychologues ont demandés à des groupes de cobayes de prononcer à haute voix les mots qu'ils répétaient lors de la présentation de la liste. Le bilan est clair : les premiers éléments de la liste sont répétés plus souvent que les autres. Qui plus est la corrélation entre nombre de répétition et taux de rappel est presque parfaite.

Recency effect[modifier | modifier le wikicode]

Pour finir, les mots situés à la toute fin de la liste, ceux vus en dernier, sont rappelés plus souvent que les autres : c'est l'effet de récence. La probabilité de rappel est même supérieure à celle observée avec l'effet de primauté. Toutefois, il faut savoir qu'il existe deux types d'effets de récence.

Le tout premier a lieu quand on demande au cobaye de rappeler les mots immédiatement après la présentation. Dans ces conditions, on s’aperçoit que les cobayes se rappellent facilement les derniers éléments de la liste. La probabilité de rappel est même supérieure à celle observée avec l'effet de primauté. Augmenter la longueur de la liste ou diminuer la vitesse de lecture diminue l'effet de primauté, mais n'a aucune effet sur l'effet de récence. Le nombre des éléments rappelés dans ces conditions est relativement stable chez une même personne : quelque soit le cobaye, il ne dépasse jamais les 10 mots, et la moyenne tourne autour de 7 mots + ou - 2.

Pour expliquer cet effet de récence, certains psychologues de l'époque d'Ebbinghaus ont supposé l'existence de la mémoire à court terme qui ne dure que quelques secondes, et dont la capacité serait limitée : les derniers éléments rappelés sont accessibles directement depuis la mémoire à court terme, tandis que les autres doivent être repêché depuis une autre mémoire à plus long terme. D'ailleurs, on peut le vérifier en effectuant une tache qui vide la mémoire à court terme juste après la présentation des mots : l'effet de récence s'atténue fortement.

Ceci dit, les expériences récentes ont montré que l'effet de récence ne disparait pas totalement. La conséquence, c'est qu'il y a une seconde raison à l'effet de récence, qui explique cet effet de récence résiduel.


Différentes mémoires

De nos jours, la vision d'Ebbinghaus est toujours acceptée, mais n'est plus considérée comme suffisante. Les effets de position sériels ont longtemps posé quelques problèmes aux psychologues acquis aux théories d'Ebbinghaus.

Expliquer l'effet de primauté ne posait pas de problème, mais pour l'effet de récence, c'était autre chose. Cet effet de récence était très difficile à manipuler : quoique les psychologues fassent, celui-ci restait sans aucune forme de changement : aucun paramètre ne semblait pouvoir agir sur lui. Certains psychologues avaient tentés d'expliquer cet effet de récence en postulant l'existence d'une mémoire à court terme, d'une durée de quelques secondes à quelques minutes, dont la capacité serait limitée.

Diverses expériences ont définitivement montré que la mémoire n'était pas unique, et qu'un humain disposait de plusieurs sous-mémoires. Les expériences sur le proviennent surtout de l'observation de patients cérébrolésés. Certains de ces patients devenaient incapables de mémoriser de nouvelles informations sur le long terme, tout en gardant de faibles capacités de mémorisations sur des périodes de quelques secondes ou quelques minutes.

Le cas le plus spectaculaire est celui des amnésiques qui ont perdu toute possibilité de former des souvenirs ou d’apprendre des faits. Le cas le plus connu est celui du patient H.M, un patient dont l'observation a révolutionné les neurosciences et les conceptions sur le fonctionnement de la mémoire. Après une opération censée soigner ses graves crises d'épilepsies, ce patient avait perdu toute possibilité de former de nouveaux souvenirs ou d'apprendre de nouveaux faits : il oubliait tout après quelques secondes. Sa mémoire était pourtant intacte : il se souvenait de tout ce qui se passait avant son opération.

Le bilan est très net : ces patients ont bel et bien un effet de récence fortement prononcé, mais aucun effet de primauté. Ils sont capables de se rappeler les 9/5 derniers mots d'une liste, mais pas les autres.

De cette constatation, la mémoire fut scindée en plusieurs sous-mémoires : une mémoire à court terme, et une mémoire à long terme. Les scientifiques interprètent l'effet de récence, et les observations sur les amnésiques, comme la présence de plusieurs mémoires. Un premier modèle de mémoire naïf est né : le modèle modal d' Attkinson et Schiffrin. Dans ce modèle, on retrouve trois mémoires :

  • les mémoires sensorielles
  • la mémoire à long terme
  • et une mémoire à court terme.

Mémoire sensorielles[modifier | modifier le wikicode]

Une idée reçue qu'on entend souvent dans les médias ou dans la bouche des professeurs, c'est qu'il existerait des mémoires auditives, visuelles, kinesthésiques, dont l'efficacité varierait chez les individus. Cette idée reçue date des années 1920.

Dans les faits, il existe bien des mémoires similaires : un humain dispose de mémoire sensorielles, qui retiennent des informations sensorielles durant une durée très courte.

Il en existe trois types :

Elles correspondent aux mémoires auditives, visuelles, et kinesthésiques. Mais ces mémoires s'éloignent grandement du portrait qui en est fait dans la vulgarisation grand-public.

Elle peuvent retenir un quantité d'informations sensorielle qui n'est pas négligeable. Mais elles ont une durée de rétention des informations qui est assez brève. Au delà de 2/3 secondes, ces mémoires ont totalement perdues leur contenu.

Une bonne partie du contenu de ces mémoires n'est pas perçue consciemment. L'attention, notre capacité à nous concentrer, va faire un tri parmi le contenu de ces mémoires sensorielles pour n'en retirer que les informations essentielles. Mais une bonne partie des informations stockées dans les mémoires sensorielle n'atteint pas la conscience et est oublié.

Un certain traitement automatique est effectué sur le contenu de ces mémoires, mais celui-ci est un traitement automatique, ne faisant pas intervenir la conscience : ce peut être des processus de détection des contours d'objets pour la mémoire visuelle, des processus de détection de la tonalité ou de l’intensité sonore pour la mémoire auditive, etc.

Mémoire à court terme[modifier | modifier le wikicode]

Les mémoires à court terme servent à stocker des informations provenant de l'extérieur durant quelques secondes voire quelques minutes. Prenons un exemple simple : vous voulez composer un numéro de téléphone que vous ne connaissez pas. Pour ce faire, vous allez mémoriser ce numéro avant de la composer. Essayez de vous en souvenir quelques minutes après : vous aurez oublié : il aura quitté la mémoire à court terme.

Ces mémoires à court terme suivent en quelque sorte les mémoire sensorielles. Une partie des informations en mémoire sensorielles vont ainsi gagner le droit de rejoindre la mémoire à cour terme, afin d'y subir quelques traitements. Le choix de ces informations est assez complexe, et est géré par l'attention sélective.

Depuis, on a découvert que cette mémoire à court terme était composé de plusieurs sous-systèmes. Certains sont ainsi spécialisée dans les informations sonores, d'autres dans la vision, etc.

Mémoire à long terme[modifier | modifier le wikicode]

Les mémoires à long terme correspondent à la mémoire du langage courant, ce dont un se souvient. Ces mémoires à long terme sont des mémoires à longue durée : ce qui est stocké dans ces mémoires s'oublie difficilement, et forme des souvenirs, connaissances, habiletés, très résistante à l'oubli. Elles conservent les informations durant une grande période.

Mais contrairement à ce que l'on croit, il existe divers types de mémoires à long terme. Des observations ont montré que les troubles de la mémoire pouvaient toucher certaines formes de mémoires à long terme et pas d'autres. Depuis, la recherche sur le fonctionnement du cerveau a clairement montré que les différentes formes de mémoire sont localisées dans des zones distinctes du cerveau. En conséquence, les modèles se sont progressivement enrichis, et on considère dorénavant que la mémoire est loin d'être unique.

La découverte de ces formes de mémoire provient des études de patients amnésiques, comme H.M. Ces patients sont capables d'apprentissages moteurs, d'apprendre à faire des mouvements ou des automatismes bien déterminés. On fait ainsi la différence entre mémoires explicites, et implicites.

Mémoire implicite[modifier | modifier le wikicode]

La mémoire implicite correspond aux apprentissages que l'on ne peut pas mettre en parole. Généralement, ces mémoires implicites stockent des automatismes, des conditionnements, qui s'utilisent sans avoir besoin d'attention. Ce sont des mémoires qui mémorisent des informations sans qu'on en prennent conscience, et dont la récupération se fait aussi sans intervention de la conscience.

Les recherches sur le fonctionnement du cerveau semblent indiquer que mémoires implicites et explicites n’obéissent pas aux mêmes processus, et qu'elles sont gérées dans des zones différentes du cerveau. Pour donner un exemple, le patient H.M, dont on a parlé dans le chapitre sur la mémoire à court terme, ne pouvait pas mémoriser dans sa mémoire explicite. Par contre, sa mémoire implicite était totalement intacte.

La reconnaissance des mots en est un bon exemple. Le meilleur moyen de montrer que la reconnaissance des mots est un processus automatique provient des taches d'effet stroop. Cet effet nous dit que dans certains cas, les automatismes vont interférer avec les processus mentaux conscients. Prenons un exemple : essayez de donner la couleur dans laquelle sont écrits les mots suivants :

Vert Rouge Bleu Jaune Bleu Jaune

Bleu Jaune Rouge Vert Jaune Vert

Logiquement, la seconde liste devait être plus dure. Cela vient du fait que les mots de la seconde liste sont plus souvent coloriés dans des couleurs qui ne correspondent pas au mot écrit (vert colorié en rouge, par exemple), tandis que la majorité des mots de la première liste ont une couleur qui leur correspond (rouge écrit en rouge, par exemple). Pour les mots écrits dans une couleur qui ne leur correspond pas, la reconnaissance automatique du mot va venir perturber le processus d'identification de la couleur: le cerveau devra alors faire un effort pour réprimer la lecture automatique du mot pour se concentrer sur sa couleur (chose qui est assez difficile, vu que les lecteurs normaux ne sont pas trop habitué à ce genre d'exercice).

Il existe diverses sortes de mémoires implicites :

  • l'habituation et la sensibilisation.
  • La mémoire procédurale est celle des mouvements, des habitudes automatiques.
  • La mémoire des conditionnements du découvertes par Pavlov et ses collègues. C'est celle qui stocke les "réflexes" acquis, ou réflexes conditionnés.
  • La mémoire perceptive intervient dans la reconnaissance auditive des sons, et la reconnaissance visuelle des objets.

Mémoire explicite[modifier | modifier le wikicode]

La mémoire explicite, ou déclarative, correspond aux mémoires dont on peut verbaliser le contenu, le mettre en mots. Cette mémoire est souvent découpée en deux mémoires séparées :

  • La mémoire épisodique est celle qui stocke nos souvenirs, ce qui nous arrive. Elle nous permet de nous rappeler des événements vécus, avec leur contexte. En quelque sorte, c'est la mémoire auto-biographique. Le stockage des informations dans cette mémoire est automatique : cela ne fait pas intervenir la conscience.
  • A coté, on trouve la mémoire sémantique, qui stocke nos connaissances, des faits sur le monde, des informations abstraites.


Cerveau

On peut se demander où est stockée notre mémoire dans notre corps. La réponse, vous la connaissez surement : c'est notre système nerveux central qui se charge de la mémoire.

Les différentes mémoires sensorielles sont gérées en partie par le cerveau, et en partie par les différents organes des sens. Par exemple, le fond de la rétine est partiellement impliqué dans la mémoire sensorielle visuelle, avec le phénomène de persistance rétinienne. De même, le nerf auditif et les cellules du fond de l'oreille seraient impliquée dans la mémoire sensorielle auditive.

Les mémoires à court terme et les mémoires à long terme sont totalement gérées dans notre cerveau, centre stratégique de la mémoire.

Pour comprendre le fonctionnement de la mémoire, nous allons souvent donner des explications basées sur le fonctionnement du cerveau. Aussi, nous allons poursuivre ce tutoriel par un petit descriptif du cerveau, et dire quelles sont les zones du cerveau qui sont utilisées pour la mémorisation.

On peut considérer que le cerveau d'un humain est composé de quatre grandes structures, elles-mêmes découpables en aires cérébrales.

On trouve ainsi :

  • le tronc cérébral
  • le cervelet
  • le système limbique
  • le cortex

Tronc cérébral[modifier | modifier le wikicode]

Le tronc cérébral est directement relié à la moelle épinière. Il contient des aires cérébrales chargées de gérer des comportements de base :

  • le cycle veille-sommeil ;
  • le vomissement ;
  • la respiration ;
  • les battements cardiaques ;
  • la sensation de la douleur ;
  • la localisation des sons ;
  • et bien d'autre choses.

Mais il n'est presque pas impliqué dans la mémorisation.

Cervelet[modifier | modifier le wikicode]

Le cervelet est une sorte de petit sous-cerveau placé en arrière du crane, d'où son nom "cervelet", qui veut dire "petit cerveau".

Celui-ci est impliqué dans diverses fonctions. Il est notamment chargé de gérer la coordination des mouvements, et notamment la motricité fine. Sans lui, les mouvements sont grossiers, peu précis, lents.

Il n'est donc pas étonnant que celui-ci soit aussi impliqué dans l'apprentissage moteur : c'est le siège de la mémoire procédurale, celle des automatismes moteurs. Il est aussi impliqué dans certains apprentissages, comme le fameux conditionnement de pavlov que nous verrons dans quelques chapitres.

Il aurait d'autres fonctions, et interagirait avec d'autres zones du cerveau chargées de la régulation émotionnelle, et des comportements intellectuels.

Celui-ci est composé d'un ensemble de poches, dans lesquelles des couches de neurones sont repliées sur elles-mêmes.

A lui seul, il contient autant de cellules que tout le cerveau réunis, tout en occupant seulement 10 de la taille du cerveau.

Système limbique[modifier | modifier le wikicode]

Le système limbique est un ensemble de zones cérébrales enfouie profondément dans le cerveau, à l'intérieur.

Ces zones cérébrales sont impliquées dans les comportements émotionnels, comme la sensation de peur, le plaisir, etc. Une partie de ces zones sert aussi dans la mémorisation, et quelques forme de mémoire sont stockées dans certaines aires du système limbique : c'est le cas de la mémoire topographique (les lieux).

Il est lui-même découpé en plusieurs sous-zones, et est composé d'un grand nombre de sous-structures. Mais seule une petite partie d'entre elles va nous intéresser.

Hippocampe[modifier | modifier le wikicode]

Pour commencer, nous allons voir l'hippocampe, une structure située ici :

Celui-ci est composé de plusieurs couches de neurones.

Cette structure est l'endroit dans lequel siège la mémoire topographique.

De plus, c'est l'hippocampe qui sert à faire passer des informations des mémoires à court terme vers la mémoire à long terme explicite. Cela est attesté par des expériences d'imagerie cérébrale, ainsi que l'étude de patients dont l'hippocampe est atteint : ces patients ont perdu toute possibilité de former des souvenirs ou d’apprendre des faits. Le cas le plus connu est celui du patient H.M, un patient dont l'observation a révolutionné les neurosciences et les conceptions sur le fonctionnement de la mémoire. Après une opération censée soigner ses graves crises d'épilepsies, ce patient avait perdu toute possibilité de former de nouveaux souvenirs ou d'apprendre de nouveaux faits : il oubliait tout après quelques secondes. Sa mémoire était pourtant intacte : il se souvenait de tout ce qui se passait avant son opération. Il était aussi capable d'apprentissages moteurs, d'apprendre à faire des mouvements ou des automatismes bien déterminés, mais pas plus.

Amygdale[modifier | modifier le wikicode]

Ensuite, on trouve l'amygdale, impliquée dans la réponse émotionnelle.

Cette amygdale a une influence sur la mémorisation dans les apprentissages de pavlov.

Striatum[modifier | modifier le wikicode]

Et enfin, on trouve le striatum, siège de la mémoire procédurale avec le cervelet.

Cortex[modifier | modifier le wikicode]

Le cortex est la zone la plus extérieure du cerveau, et forme une sorte de couche qui surplombe toutes les autres structures.

Le cortex est découpé en deux hémisphères, séparés par une "fissure", un sillon.

Ces deux hémisphères ne sont toutefois pas isolés, et peuvent communiquer entre eux par l'intermédiaire d'un ensemble de synapses et de neurones, réunis dans une structure que l'on appelle le corps calleux. Ce corps calleux est posé au dessus du système limbique.

Lobes[modifier | modifier le wikicode]

Chacun de ces hémisphères est lui-même découpé en plusieurs zones, des lobes, séparés par des sillons. Ces lobes sont au nombre de 4.

On trouve ainsi :

  • le lobes pariétal ;
  • le lobe frontal ;
  • le lobe temporal ;
*et le lobe occipital.

Pour retenir la position des différents lobes, vous pouvez utiliser les moyens mnémotechniques suivants :

  • temporal : sous la tempe ;
  • frontal : sous le front ;
  • occipital : sous l'occiput, à savoir l'arrière de la tête.

Ces quatre lobes vont jouer un rôle dans la mémoire. Par exemple, le lobe temporal est fortement impliqué dans la mémoire sémantique. De même, le lobe frontal est le lieu où se situe les différentes mémoires à court terme. Quand au lobe occipital, il est impliqué dans la mémoire perceptive visuelle, et dans la mémoire sensorielle visuelle.

Résumé[modifier | modifier le wikicode]

Chacune de ces structure cérébrale est impliquée dans une forme de mémoire bien précise.


Neurones et synapses

Si le cerveau est le siège de la mémoire, cela ne nous dit pas comment il fait pour retenir nos souvenirs, comment il mémorise nos leçons de mathématiques, comment il mémorise nos apprentissages moteurs, etc. Pour cela, il faut descendre un niveau en dessous, et regarder de quoi est fait le cerveau.

Neurones[modifier | modifier le wikicode]

Comme tous les autres organes, le cerveau est composé de cellules. Les cellules du cerveau (et du système nerveux en général) sont toutefois un peu spéciales, et ont des particularités. Ces cellules sont ce qu'on appelle des neurones.

Il existe un grand nombre de neurones différents, qui se différencient par leur taille, leur forme, ou quelques autres paramètres. Mais tous ces neurones gardent malgré tout des points communs quant à leur forme.

Par exemple, un neurone ressemble à ceci :

Le système nerveux et le cerveau sont constitués d'un grand nombre de neurones du genre, reliés entre eux.

Influx nerveux[modifier | modifier le wikicode]

Ces neurones échangent des informations, codées par des influx nerveux, des sortes de "courants électriques", qui passent de neurone en neurone, et se propagent à travers tout le système nerveux. Ces influx nerveux sont ensuite traités par les neurones.

Le traitement effectué par un neurone sur un influx nerveux est particulièrement basique. Le neurone fait la somme de tous les influx nerveux qui arrivent sur ses dendrites à un instant donné. Si cette somme dépasse un seuil fixé à l'avance, alors celui-ci émet un nouvel influx nerveux sur son axone. Dans le cas contraire, il n'émet rien.

Ces influx nerveux ne sont pas des courants électriques, mais correspondent à des variations de la tension électrique de la membrane du neurone. Lorsque le neurone ne fait rien, une tension d'environ -70 millivolts est présente sur sa membrane.

Lorsqu'un influx nerveux passe, cette tension augmente localement.

Cet influx nerveux va ensuite se propager à travers le neurone, de proche en proche. L'influx nerveux émit par un neurone est ce qu'on appelle un potentiel d'action. Tous les potentiels d'action ont exactement la même forme, la même intensité.

Ils ressemblent tous à ceci :

Ces potentiels d'action ont tous la même amplitude. L'influx nerveux n'est donc pas proportionnel à la réponse. L'information n'est pas encodée dans le cerveau par la grandeur des amplitudes, mais par leur fréquence. Par exemple, la luminosité d'un endroit de la rétine sera transmise par une suite d'influx nerveux d'autant plus fréquents que la luminosité est élevée.

Ces influx nerveux proviennent de la membrane du neurone. Cette membrane sépare l’intérieur du neurone de l'extérieur. Entre l'intérieur et l'extérieur, il y a un déséquilibre concernant le nombre de certains ions : par exemple, on aura plus de potassium à l'intérieur qu'à l'extérieur. C'est ce qui explique le potentiel de repos de -70 millivolts.

Pour créer un potentiel d'action, la membrane du neurone contient des canaux ioniques, qui peuvent s'ouvrir et laisser rentrer certains ions.

Synapses[modifier | modifier le wikicode]

Ces neurones sont reliés entre eux par ce qu'on appelle des synapses. Les synapses peuvent relier les neurones entre eux de diverses façons :

Dans la majorité des cas qui vont nous intéresser, les synapses vont connecter l'axone d'un neurone aux dendrites d'un autre. Suivant la synapse, le transfert d'un influx nerveux va se propager à travers la synapse de deux manières différentes.

Synapses électriques[modifier | modifier le wikicode]

Dans le cas le plus rare, la synapse est électrique. Les deux membranes des neurones sont collées l'une contre l'autre, et les canaux ioniques sont alignés.

Ainsi, les ions générés par les potentiels d'action peuvent directement passer dans l'autre neurone. La conduction est alors électrique : le premier neurone envoie un courant d'ions dans l'autre neurone.

Synapses chimiques[modifier | modifier le wikicode]

Mais dans la majorité des cas, les synapses sont des synapses chimiques. Avec ce type de synapse, les deux neurones sont séparés par un vide qui sépare les deux neurones : la fente synaptique. La communication s'effectue alors par l'intermédiaire de substances chimiques déversées par le neurone émetteur dans la synapse, que l'on appelle des neurotransmetteurs. Il existe un grand nombre de neurotransmetteurs : dopamine, sérotonine, glutamate, acétylcholine, histamine, adrénaline, noradrénaline, etc. Suivant les neurones, les neurotransmetteurs produits peuvent varier, et certains neurones ne produisent qu'un seul type de neurotransmetteurs. Tout neurone contient des stocks de neurotransmetteurs, qui se régénèrent relativement rapidement. Ces stocks sont de petites capsules qui contiennent toutes la même quantité de neurotransmetteurs, on les appelle des vésicules synaptiques.

Lorsqu'un potentiel d'action arrive sur la synapse, les canaux ioniques vont s'ouvrir et faire rentrer du calcium dans la cellule. Ce calcium va alors déclencher toute une série de réactions chimiques qui vont faire fusionner les vésicules synaptiques avec la paroi de la cellule : les neurotransmetteurs vont alors diffuser à travers la fente synaptique. Ces substances chimiques, les neurotransmetteurs, vont alors parcourir l'espace qui sépare les deux neurones, et vont aller agir sur le neurone récepteur, celui-ci déclenchera un potentiel d'action. Cette action à distance est possible parce que la membrane du neurone récepteur contient des récepteurs, capables de détecter la présence d'un neurotransmetteur. Ces récepteurs sont souvent spécifiques à un neurotransmetteur bien particulier, et ne peuvent détecter qu'un ou deux neurotransmetteurs bien précis. Par exemple, certains récepteurs seront sensibles à la dopamine, mais pas à la sérotonine ou au glutamate.

Ces récepteurs sont plus ou moins reliés à des canaux ioniques : quand un neurotransmetteur est détecté, le récepteur va agir sur un ou plusieurs canaux ionique, qui s'ouvrira. Si le neurone émetteur envoie suffisamment de neurotransmetteur, un grand nombre de canaux ioniques s’ouvriront et un potentiel d'action sera généré.

Ces récepteurs peuvent se classer en deux types :

  • les récepteurs ionotropiques ;
  • les récepteurs métabotropes.

Avec les récepteurs ionotropiques, le récepteur et le canal ionique ne font qu'un : les deux sont fusionnés dans une seule molécule. Quand le neurotransmetteur se fixe sur le récepteur, cela va changer de forme, et se déformer : il s'ouvrira et laissera les ions passer.

Avec les récepteurs métabotropes, le récepteur est physiquement séparé des canaux ioniques, et doit agir sur eux avec l'aide d'un intermédiaire. Cet intermédiaire est le plus souvent une protéine.

Mécanismes fonctionnels de la mémoire[modifier | modifier le wikicode]

À eux seuls, les neurones et synapses permettraient d'expliquer le fonctionnement de la mémoire à long terme : elle serait basée sur la structure des réseaux de neurones. Tout ce qui est dans notre mémoire serait stocké sous la forme de liaisons entre neurones, par les synapses. Apprendre consisterait simplement à ajouter ou supprimer des neurones ou des synapses.

Plasticité cérébrale[modifier | modifier le wikicode]

Contrairement à ce que l'on croyait autrefois, le cerveau garde la possibilité de créer de nouveaux neurones. On ne nait pas avec un stock de neurones à la naissance, et ceux-ci peuvent se régénérer si besoin. De plus, il maintenant prouvé que des synapses peuvent apparaitre ou disparaitre, ce qui est une des mécanismes de base de modification des réseaux de neurones. Ces mécanismes d'apprentissage sont donc plausibles.

Plasticité synaptique[modifier | modifier le wikicode]

Un autre mécanisme d'apprentissage en mémoire à long terme serait basé sur un phénomène qu'on appelle la plasticité synaptique. Ce dernier est à l'origine de variations d'efficacité des synapses : celles-ci peuvent transmettre plus ou moins bien l'influx nerveux. Au fil du temps, l'efficacité de certaines synapses peut augmenter ou diminuer.


Habituation, et sensibilisation

Comme je l'ai dit auparavant, la plasticité synaptique serait un des fondements de la mémoire à long terme, avec le fait de créer de nouvelles synapses. Mais ce qu'un bon scientifique voudrait, ce serait des preuves expérimentales qui prouvent que la plasticité synaptique est clairement à l'origine de la mémoire.

Pour faire ces expériences, le scientifique est face à un dilemme. Il existe de nombreuses formes d'apprentissage, qui vont de l'apprentissage moteur (mouvements), perceptifs (vision, ouïe, etc), aux apprentissages complexes. Et certains sont plus facile à étudier que d'autres. Les apprentissages les plus simples sont ce qu'on appelle des apprentissages non-associatifs, et sont des cibles de choix pour commencer à étudier la mémoire. Il en existe de deux :

  • l'habituation ;
  • et la sensibilisation.

Habituation[modifier | modifier le wikicode]

La majorité des expériences s'est faite surtout sur l'Aplysie. Ces expériences peuvent aussi utiliser n'importe quelle espèce animale, mais l'aplysie a été choisie pour une raison très simple : il dispose de 939 neurones, pas un de plus, pas un de moins. Avec un aussi faible nombre de neurones, les chercheurs sont capables d'étudier la totalité du système nerveux de l'animal, et de le comprendre. De plus, ces neurones sont très gros et sont donc facile à manipuler dans les expériences. Et c'est sans compter que ces neurones ont tous la même place dans tous les aplysies.

Il s'agit d'un petit mollusque qui ressemble à ceci :

Cette aplysie possède un petit siphon, qui permet d'aspirer l'eau sous le mantelet qui recouvre son ventre. Quand on appuie sur le siphon, ce mantelet se contracte. Quand on appuie sur le siphon, ce mantelet se contracte. Maintenant, si on répétè l'appui sur le siphon à intervalles réguliers, le mantelet se contracte de moins en moins : l'animal s’habitue progressivement aux stimulus répétés sur le siphon.

Dans tous ces exemples, l'animal finit par réagir de moins en moins fort à des stimulus répétés. C'est une première forme de mémoire à long terme : l'habituation. Cette habituation dépend fortement de l'intensité du stimulus : généralement, plus le stimulus est faible, plus l'animal s'habitue rapidement. De même, la distribution dans le temps des stimulus influe beaucoup sur la rapidité d'habituation et sur son intensité : l'animal s'habituera d'autant plus rapidement que les stimulus sont éloignés dans le temps.

Cette forme de mémoire n'est pas spécifique à l'aplysie, et est au contraire un phénomène général, qui s'applique à toutes les espèces. Par exemple, on peut prendre les chiens de chasse, qui apprennent progressivement à ne pas paniquer à des bruits forts. Dans le même genre, les bébés humains peuvent aussi s’habituer à des signaux environnementaux, comme la présence de personnes connues. Dans tout les cas, l'habituation ne fait pas intervenir le cerveau, et ne met en cause que les voies réflexes, à savoir les nerfs et neurones qui transmettent les influx nerveux dédiés aux réflexes.

Il faut toutefois noter qu'il existe deux formes d'habituation : une habituation a court terme, qui disparait en quelques minutes, voire quelques heures, et une habituation à long terme, qui reste beaucoup plus longtemps. Ces deux formes d'habituation n'ont pas les mêmes causes.

Physiologie de l'habituation à court terme[modifier | modifier le wikicode]

Pour comprendre comment l'habituation peut émerger des circuits neuronaux de l'aplysie, les chercheurs ont commencé par voir quels sont les neurones dédiés à ce comportement dans l'aplysie. Pour faire simple, ce circuit neuronal peut être décomposé en trois parties :

  • un ensemble de neurones détecteurs, qui s'activeront lorsqu'on appuie sur le siphon ;
  • des neurones effecteurs qui vont servir à rétracter la branchie ;
  • et entre le deux, on trouve une petite couche d’inter-neurones.

Dans ce circuits, les chercheurs ont effectué quelques mesure, en même temps qu'ils habituaient l'animal à un appui répété sur le siphon. Le bilan est très clair : les synapses voient leur efficacité diminuer progressivement avec le temps, et cette baisse prend exactement le même temps que l'habituation. Cette baisse d'efficacité est une première forme de plasticité synaptique à court terme : la dépression synaptique.

Pour vérifier l'origine de cette dépression, Gingrich et Byrne ont fait quelques observations au microscope électronique sur des synapses déprimées : le nombre de synapses ne variait pas avec l'habituation, pas plus que le nombre de vésicules synaptiques. Par contre, le nombre de vésicules vides avait augmenté. Cette dépression vient donc du fait que les neurones situés avant la synapse usent leur stock de neurotransmetteurs assez vite : la quantité de neurotransmetteur libéré dans la synapse diminue avec les stimulations. On pense que ce mécanisme serait à l'origine des phénomènes d'habituation sur les autres espèces. Cela explique pourquoi l'habituation ne dure pas : les stocks de neurotransmetteurs se reconstituent avec le temps.

Physiologie de l'habituation à long terme[modifier | modifier le wikicode]

L'habituation à court terme n'est toutefois pas la seule forme d'habituation chez l'aplysie. Si l'on répété les stimulations de manière répétée et espacées dans le temps, on constate que l’habituation perdure sur de très longues durées : on parle alors d'habituation à long terme. Celle-ci a une cause différente de l'habituation à court terme. Les expériences d'observations au microscope électronique sont claires : les neurones ayant subis une habituation à long terme contiennent moins de synapses fonctionnelles : les connexions entre neurones ont tendance à s'affaiblir avec l'habituation à long terme;

Sensibilisation[modifier | modifier le wikicode]

Un autre phénomène apparait dans d'autres circonstances. Dans certains cas, répéter une stimulation de manière répétée ne va pas diminuer le réflexe avec le temps, mais va carrément l'augmenter. Et cette augmentation peut prendre des proportions assez importantes. On est alors face à un phénomène de sensibilisation : l'animal devient de plus en plus sensible avec le temps.

Prenons encore une fois un exemple avec l'aplysie. Prenons un animal dont le réflexe de contraction du siphon s'est habitué. En même temps qu'on appuie sur le siphon, envoyez un choc électrique sur la queue de l'animal. La conséquence est d'avoir totalement supprimé l'habituation. Pire : il arrive que le réflexe de contraction de la branchie soit encore plus vigoureux qu'avant Et cette sensibilisation ne disparait pas si vite que cela : elle peut perdurer jusqu'à quelques heures, voire plus encore si on répète la séance de torture.

Déjà, on remarque que la sensibilisation n'apparait pas au même endroit que l'habituation : ces deux comportements demandent des conditions de mise en place différentes. Cela vient du fait que ces deux processus n'agissent pas sur les mêmes réseaux de neurones.

Niveau cellulaire[modifier | modifier le wikicode]

Cette fois-ci, ce n'est pas la plasticité synaptique qui est à l'origine de la sensibilisation. Le mécanisme de sensibilisation est du à la participation de nouveaux neurones dans le circuit décrit plus haut. En réalité, le circuit de l'aplysie ressemble à celui-ci :

Les neurones de la queue, du siphon, et les interneurones sont reliés comme ceci :

Comme vous le voyez, les neurones de la queue font contact un peu avant la synapse entre neurones de la queue et les interneurones/neurones du siphon. La synapse relie donc le bouton synaptique du neurone sensoriel (en réalité, il y a un inter-neurone entre les deux, mais peu importe...), et la fin de l'axone du neurone sensoriel du siphon et des interneurones.

Lorsque le neurone de la queue émet des influx nerveux, ceux-ci seront transformés dans la synapse en sérotonine. Cette sérotonine sera alors captée par l'axone des interneurones et des neurones sensoriels du siphon, et entrainera des modifications durables de la transmission synaptiques : celle-ci libérera un plus grand nombre de neurotransmetteurs de façon durable, et transmettra donc plus facilement les influx nerveux entre siphon et neurones moteurs. D'où la sensibilisation.


Conditionnements

L'habituation et la sensibilisation sont des apprentissage dits non-associatifs, qui se contentent d'augmenter ou de diminuer l'intensité d'un réflexe ou d'un comportement acquis. Mais ces deux mécanismes agissent sur des comportements déjà existants, comme des réflexes. Ils ne permettent pas d'apprendre de nouveaux comportements. Mais il existe évidemment des mécanismes qui nous permettent d'apprendre des comportements un peu plus évolués. Parmi ceux-ci, le conditionnement classique, ou conditionnement Pavlovien, fut le premier à être découvert.

Expériences[modifier | modifier le wikicode]

Pour montrer à quoi peut ressembler ce conditionnement de Pavlov, nous allons prendre quelques expériences, qui serviront d'exemples.

Expérience des chiens de Pavlov[modifier | modifier le wikicode]

Tout commença dans les années 1890 : un scientifique du nom de Pavlov s'était mis en tête d'étudier la sécrétion de sucs gastriques par les chiens. Voilà qui est bien éloigné de la mémoire, me direz-vous. Mais tout ne se passa pas comme prévu.

Dans ses expériences, Pavlov faisait ses études avec l'aide d'un appareil qui recueillait la salive des chiens. Logiquement, les chiens commencent à saliver lorsqu'ils ont leur repas sous les yeux : il s'agit d'un réflexe programmé chez les chiens qu'utilisait Pavlov dans ses expériences. La simple vision de la nourriture suffit à les faire saliver, ce qui est détectable par les appareils dont disposait Pavlov.

Mais, chose étonnante, plus l'expérience durait, plus les chiens commençaient à saliver avant leur repas. On pourrait penser que ceux-ci étaient capables d'anticiper leur repas, et que ce n'était pas quelque chose d'important. Mais Pavlov voulu en avoir le cœur net, et il commença à faire quelques expériences.

Au final, le résultat était étonnant : les chiens étaient prévenus de leur repas en faisant sonner une petite cloche. Pavlov s’aperçut que c'était le fait d'entendre le son de cette cloche qui faisait saliver les chiens. Si on leur donnait leur repas sans faire sonner cette cloche les chiens ne salivaient pas. Le réflexe de salivation, autrefois spécifique à la vue de la nourriture, s'était généralisé au son de la cloche.

Expériences sur des rats[modifier | modifier le wikicode]

Comme autres expériences, on peut citer celles effectuées sur des rats (ou d'autres animaux). Dans celles-ci, les rats étaient placés dans une cage, dont le sol était électrifié. Les rats recevaient des chocs électriques non mortels de temps à autre. A chacun de ces chocs, les rats s'immobilisent : quand les rats sont face à une situation stressante, leur premier réflexe est de s'immobiliser.

Les expériences consistaient à envoyer des flashs lumineux un peu avant la décharge électrique. D'ordinaire, les flashs lumineux, s'ils sont de faible intensité, ne donnent pas de réponse d'immobilisation. Au pire, ces expériences faisaient en sorte d'habituer les rats aux flashs lumineux avant de les soumettre aux chocs électriques.

Après avoir présenté des flashs lumineux simultanés à des décharges électriques un nombre de fois suffisant, on observe une chose assez intéressante : les rats vont s'immobiliser à chaque flash, même si celui-ci n'est pas accompagné ni suivi de décharge électrique. Le flash seul suffit !

Expériences sur des humains[modifier | modifier le wikicode]

D'autres expériences ont étés faites sur des humains. La plus connue d'entre elle fut faite dans les années 1920 sur un enfant du nom de Albert. A l’époque, on ne se souciait pas trop des problèmes d'éthiques posés par l'expérimentation humaine. Cet enfant n'avait aucune aversion face à la fourrure blanche. Il pouvait manipuler des rats blanc sans problèmes : cela avait même tendance à l'amuser. Par contre, des bruits soudains avaient tendance à lui faire peur et parfois à le faire pleurer. Réaction normale : qui ne sursaute pas face à un bruit soudain ?

Lors des expériences, les expérimentateurs ont fait en sorte qu'à chaque fois que le petit Albert manipulait un rat à fourrure blanche, un bruit soudain retentisse dans la pièce de l'enfant. Après quelques essais, la simple présentation de quelque chose ressemblant à de la fourrure blanche suffisait à faire peur à l'enfant et à le faire pleurer.

Principe[modifier | modifier le wikicode]

Pavlov fit d'autres expériences sur ses chiens et en arriva à une conclusion. Il réussît à décrire un mécanisme d'apprentissage capable de détourner certains réflexes pour les généraliser à d'autres : le conditionnement classique. Celui-ci est une mécanisme d'apprentissage qui permet de généraliser certains réflexes ou comportements. Toutes les expériences citées au dessus montrent ce mécanisme de conditionnement classique.

Vocabulaire[modifier | modifier le wikicode]

Généralement, un réflexe est déclenché par ce qu'on appelle un stimulus. Le terme stimulus peut désigner tout et n'importe quoi : c'est un terme général qui signifie "modification de l'environnement que l'organisme peut percevoir d'une manière ou d'une autre". Un flash lumineux, un choc électrique soudain, un jet d'eau dans les paupière, un petit marteau de médecin qui tombe sur votre genou : tout cela, ce sont des stimulus.

Conditionnement de premier ordre[modifier | modifier le wikicode]

Le mécanisme du conditionnement classique se base sur des réflexes ou des comportements pré-existants. Par exemple, un animal, ou un être humain, va naitre avec un certain nombre de réflexes pré-existants, génétiquement programmés. De même, il a acquis des comportements avant le conditionnement. Les stimulus qui déclenchent ces réflexes ou ces comportements sont ce qu'on appelle des stimulus inconditionnels : ils déclenchent systématiquement le comportement ou le réflexe.

A coté, certains stimulus ne déclenchent pas de réflexes de manière naturellement, sans apprentissage. Ces stimulus sont appelés des stimulus neutres.

Avant l'apprentissage, le stimulus était associé à une réponse : un réflexe, un comportement, etc.

stimulus inconditionnel- comportement

Le conditionnement de Pavlov apparait lorsqu'un stimulus neutre est présenté à peu-prêt en même temps qu'un stimulus inconditionnel. Dans ce cas, les deux stimulus seront associés.

stimulus neutre - stimulus inconditionnel- comportement

Au final, à force de répéter cette association, le stimulus neutre finira par déclencher le comportement tout seul, sans la présence du stimulus inconditionnel. Le stimulus neutre devient un stimulus conditionné.

stimulus conditionné - comportement

Conditionnement de second ordre[modifier | modifier le wikicode]

Le conditionnement peut aussi impliqué un stimulus neutre, que l'on associe progressivement à un autre stimulus conditionné : c'est un conditionnement de second ordre.

  • stimulus conditionnel n°1- comportement
  • stimulus neutre - stimulus conditionnel n°1- comportement
  • stimulus conditionnel n°2 - comportement

Deux types de conditionnement[modifier | modifier le wikicode]

Ce conditionnement peut prendre deux formes :

  • un conditionnement moteur ;
  • et un conditionnement émotionnel.

Par conditionnement moteur, on veut dire que l'animal ou l'humain qui subit un conditionnement apprend à réagir à un stimulus conditionnel en effectuant un mouvement donné.

Par conditionnement émotionnel, on veut dire que le comportement mis en œuvre dans le conditionnement sera une réaction émotionnelle : une réaction de peur, par exemple. Ce conditionnement émotionnel est purement implicite, et ne fait absolument pas appel à la mémorisation consciente.

Pour le prouver, on peut mentionner une expérience faite par le neurologue Damasio. Celui-ci a pris des patients amnésiques, qui avaient des lésions à l'hippocampe, qui étaient incapables de former des souvenirs ou de mémoriser des faits. Ils étaient notamment incapables de mémoriser les visages, et oublient les personnes qu'ils rencontrent : is peuvent avoir vu des centaines de fois une personne et avoir longuement parlé avec eux, tout se passe comme s'ils rencontraient était un inconnu. L'expérience était très simple. Le patient était ainsi traité durant quelques semaines par deux infirmiers : le premier avait reçu pour consigne d'être légèrement méchant avec le patient, tandis que l'autre devait avoir un comportement agréable. A la fin de la semaine, on montrait une photographie des deux infirmiers au cobaye. Celui-ci avait bien sûr oublié les infirmiers et prétendait le les avoir jamais vus quand on leur présentait la photographie. Mais quand on leur demandait lequel des deux infirmier semblait le plus sympathique, 90% des cobayes prenait l'infirmier gentil : on est bien loin des 50% qu'aurait donné un oubli.

Ces deux types de conditionnement peuvent avoir lieu en même temps. Par exemple, si le stimulus inconditionnel est un choc électrique donné à un rat, le rat conditionnera le stimulus conditionnel avec une sensation de peur, ainsi qu'avec une réponse d'évitement du choc électrique.

Phénomènes liés au conditionnement[modifier | modifier le wikicode]

Le conditionnement classique est souvent associé à divers phénomènes d'oubli, de généralisation, ou d'apprentissage bloqué. Nous allons voir ceux-ci dans la partie qui suit.

Extinction[modifier | modifier le wikicode]

Si le conditionnement classique est une forme de mémoire, alors, comme pour toute mémoire, il peut être soumis à l'oubli. Ceci dit, cette forme d'oubli est un peu spéciale : on l'appelle l'extinction. Cette extinction apparait lorsque le stimulus neutre est présenté seul, sans le stimulus inconditionnel qui a servi lors de l'apprentissage. Si on répète cette présentation un grand nombre de fois, l'animal oublie progressivement l'association entre les deux stimulus et le conditionnement semble disparaitre.

Si je dis semble disparaitre, c'est pour une raison très simple. Si un conditionnement a subit une extinction, il n'a pas disparu pour autant. Il suffit parfois de présenter le stimulus conditionné/neutre avec le stimulus inconditionnel pour faire réapparaitre le conditionnement : c'est le phénomène de récupération spontanée. Des fois, il arrive qu'un stimulus conditionnel censé être éteint réapparaisse. Ce phénomène de réapparition est d'autant plus probable quand le stimulus conditionnel est plus fort que la normale. Cependant, la réponse réapparue a tendance à s’éteindre encore plus rapidement que la réponse conditionnée originale, et finit par totalement disparaitre en cas de récupération spontanées consécutives.

Ce phénomène d'extinction peut permettre à un conditionnement avec un stimulus inconditionnel d'être remplacé par un nouveau conditionnement avec le même stimulus. On appelle ce remplacement un phénomène de discrimination.

Généralisation[modifier | modifier le wikicode]

Un conditionnement implique un stimulus neutre, qui devient un stimulus conditionné. Mais la mémoire des conditionnement n'est pas aussi sélective qu'on pourrait le penser. Il arrive souvent que l’association ne se fasse pas qu'avec le stimulus, mais que tout stimulus semblable soit aussi conditionné. Par exemple, reprenons le cas d'Albert. Celui-ci avait été conditionné à avoir peur des rats à fourrure blanche. Dans les faits, Albert avait été conditionné à avoir peur de tout se qui ressemble à de la fourrure blanche. Au final, Albert avait peur de choses aussi diverses que la barbe d'un père noël (testé et approuvé), ou du manteau blanc de sa mère. Un conditionnement a ainsi tendance à se généraliser à tout stimulus semblable au stimulus conditionnel.

Blocage[modifier | modifier le wikicode]

Conditionner un animal est parfois difficile en raison de phénomène de blocage. Celui-ci arrive quand on présente trois stimulus à l'animal :

  • un stimulus inconditionnel ;
  • un stimulus conditionnel ;
  • et un stimulus neutre.

Dans ces conditions, le conditionnement entre le stimulus inconditionnel et le stimulus neutre est bloqué : l'animal ne répond pas au stimulus neutre. Si je dis qu'il est bloqué, c'est parce que contrairement à ce qu'on croit, le conditionnement pourrait avoir eu lieu quand même. Si on fait en sorte d'éteindre le stimulus conditionnel concurrent, l'animal se met alors à répondre au stimulus neutre.

Vitesse d'apprentissage[modifier | modifier le wikicode]

L'animal qu'on cherche à conditionner va donc apprendre une association entre deux stimulus. Mais on peut se demander à quelle vitesse se fait cet apprentissage : combien de fois doit-on présenter les deux stimulus en même temps ? Et bien cela dépend d'un grand nombre de paramètres.

Biais associatif[modifier | modifier le wikicode]

Certains stimulus sont plus facile à associer à un réflexe inconditionnel que d'autres. Par exemple, il est plus facile d'associer un aliment particulier avec la nausée qu'avec un flash lumineux. C'est ce que l'on appelle un biais associatif.

Répartition temporelle[modifier | modifier le wikicode]

Le premier est la répartition temporelle des stimulus. Plus haut, j'ai dit que le stimulus neutre et le stimulus inconditionnel sont présentés à peu-prêt en même temps. Toute la subtilité est dans le " à peu-prêt en même temps " : est-ce un peut avant, un peu après, ou autre chose ? On peut avoir diverses situations :

Types de conditionnements
Type Description Image Rapidité d'apprentissage
Simultané Les deux stimulus sont présentés en même temps. Très longue : l'animal met beaucoup de temps à apprendre.
Différé Le stimulus neutre est présenté un peu avant le stimulus inconditionnel, mais est maintenu jusqu'à ce que le stimulus inconditionnel aie lieu. C'est la méthode de conditionnement la plus rapide : l'animal est conditionné très vite.
De trace Le stimulus neutre est présenté un peu avant le stimulus inconditionnel, mais n'est pas maintenu jusqu'à ce que le stimulus inconditionnel aie lieu. Relativement efficace.
Rétroactif Le stimulus neutre est présenté un peu après le stimulus inconditionnel. Très longue : l'animal met beaucoup de temps à apprendre, et il faut un grand nombre de répétition du conditionnement.

Ensuite, le passé de l'animal va jouer un rôle, suivant qu'il aie déjà été conditionné ou non.

Effet de familiarité[modifier | modifier le wikicode]

Si jamais un animal a subit un grand nombre de présentations du stimulus neutre, sans le stimulus inconditionnel, alors l'apprentissage est plus lent. Et l'apprentissage est d'autant plus lent que le nombre de présentation antérieures du stimulus neutre est élevé. En clair : plus un stimulus neutre est familier, plus difficile est le conditionnement. Cela viendrait du fait que plus un stimulus est familier, moins l'animal y prête attention.En conséquence, le stimulus neutre est moins associé au stimulus inconditionnel.

Ré-apprentissage[modifier | modifier le wikicode]

Comme je l'ai dit, il arrive qu'un conditionnement s’éteigne. Dans certains cas, il arrive que des phénomènes de récupération spontanée apparaissent, mais ils ne sont pas systématiques. Dans certains cas, le cobaye doit être reconditionné. Dans ce cas, le réapprentissage est plus rapide que le premier apprentissage. Mieux : plus le cobayes a été reconditionné dans son passé avec le même stimulus, plus il réapprend vite.

Ce réapprentissage est aussi beaucoup plus facile si l'extinction et le conditionnement n'ont pas lieu dans le même contexte. Par exemple, si on conditionne un animal dans une chambre, et qu'on le déconditionne dans un milieu ouvert, alors on observe un phénomène étrange : l'animal peut répondre au stimulus conditionnel dans la chambre, et répondra moins voire pas du tout dans le milieu ouvert. Même chose si les conditionnements et déconditionnement ont lieu dans deux endroits similaires mais légèrement différents.

Effets de contexte[modifier | modifier le wikicode]

Il arrive aussi que le contexte d'apprentissage joue d'autres tours du même genre. Par exemple, en présentant uniquement le stimulus inconditionnel dans le même contexte d'apprentissage, ou dans un contexte similaire, on observe une récupération spontanée du stimulus conditionnel, censé s'être éteint. De même, reconditionner un animal est plus rapide si le contexte d'apprentissage et de ré-apprentissage sont similaires ou identiques. On fait donc face à un effet important : le contexte joue fortement sur les apprentissage et sur le rappel (ici, l'apparition de la réponse conditionnée).

Niveau cérébral[modifier | modifier le wikicode]

Ce mécanisme de conditionnement classique est très courant chez nombre d'espèces animales : des rats, des vers de terre, des insectes en sont capables. Il semblerait qu'il s'agisse là d'un phénomène de mémoire primitif. Dans ces conditions, on pourrait croire que le mécanisme de conditionnement classique est bien connu au niveau cellulaire et cérébral. Il n'en est rien. Ceci dit, les chercheurs ont réussit à identifier quelques aires cérébrales qui semblent impliquées dans cette forme primitive d'apprentissage.

Comme je l'ai dit plus haut, un conditionnement, quel qu’il soit, fait intervenir deux réponse de l'animal :

  • soit un mouvement moteur, déclenché par le stimulus ;
  • soit une réponse émotionnelle : la peur par exemple.

Conditionnement émotionnel[modifier | modifier le wikicode]

Pour donner un exemple, certains comportements seraient du à un conditionnement émotionnel. Les phobies des araignées et des souris, ou autres animaux du genre en seraient un exemple elles naitraient de conditionnements classiques. D'ailleurs, les thérapies contre les phobies ou les peurs et angoisses permanentes sont basées sur les principes du conditionnement de Pavlov. Or, les deux conditionnements ne sont pas gérés par les mêmes zones du cerveau.

Le conditionnement émotionnel implique l'amygdale, située dans le système limbique. Pour rappel, il s'agit d'une zone du cerveau impliquée dans les réactions émotionnelles. D'ailleurs, les rares patients ayant une amygdale lésée sont incapable de conditionner un stimulus avec une réponse émotionnelle de peur.

Conditionnement moteur[modifier | modifier le wikicode]

Le conditionnement moteur est géré par le striatum, ainsi que le cervelet et les aires cérébrales chargée de la gestion du mouvement. De plus, il semblerait que l'association motrice entre un stimulus inconditionnel et un stimulus neutre se fasse dans le cervelet. La majorité des expériences qui semblent montrer l'implication du cervelet sont celles qui utilisent un réflexe de clignement des yeux : on envoie un jet d'eau dans les paupière pour faire cligner les yeux d'un cobaye, et on présente un stimulus neutre en même temps.

Il faut préciser que le conditionnement de trace est un peu à part : l'hippocampe est impliqué.


Habiletés

Après avoir vu la mémoire des conditionnements, nous allons passer à une autre forme de mémoire : celle de comportements moteurs, perceptifs ou cognitifs automatiques que l'on appelle des habilités. Ces habilités sont ces comportements que l'on peut effectuer sans intervention de la conscience : il s'agit de réponses automatiques, quasiment inconscientes, que l'on a pas besoin de démarrer explicitement. La mémoire de ces habilités s'appelle la mémoire procédurale.

La mémoire procédurale est donc la mémoire des automatismes autre que les conditionnements. Ceci dit, les informations destinées à la mémoire procédurale ne rentrent pas dans celle-ci directement : au début de l'apprentissage, la mémoire à court terme est impliquée. Au tout début, les compétences à faire acquérir sont appliquées consciemment et récupérées depuis la mémoire explicite, et utilisent la mémoire à court terme. Puis, progressivement, ces compétences en font de moins en moins appel à l'attention : elles s'automatisent de plus en plus. Au final, les apprentissages implicites montrent une amélioration de leur performance avec la pratique : on devient de plus en plus rapide à force de répétition.

Mémoire motrice[modifier | modifier le wikicode]

On entend souvent dire que "le vélo, ça ne s'oublie pas". Et bien c'est vrai : savoir faire du vélo est une compétence stockée dans une mémoire particulièrement solide. Cette mémoire, c'est celle qui stocke les mouvements habituels que l'on a à faire dans notre vie quotidienne, comme faire du vélo, marcher, appuyer sur une pédale de frein, etc. Elle stocke toutes nos habiletés motrices, des suites de mouvements devenues automatiques. C'est la mémoire motrice.

Cette mémoire concerne surtout les sportifs, les ouvriers, les musiciens, etc. Faire passer des mouvements dans cette mémoire s'effectue d'une manière les plus simple qui soit : il suffit de répéter le mouvement jusqu'à ce qu'il rentre. On peut prendre l'apprentissage du vélo, par exemple : c'est à force de répéter qu'on finit par savoir faire du vélo. Bien sur, c'est pas forcément facile, et ça fait toujours mal au début, mais on finit par y arriver.

Programmes moteurs[modifier | modifier le wikicode]

Le résultat de cet apprentissage, c'est une sorte de séquence motrice : les mouvements sont découpés en sous-mouvements planifiés à l'avance. En somme, notre cerveau stockerait des séquences ré-remplies de mouvements, qu'il est capable de réutiliser à loisir. Sans cette capacité à retenir des séquences de mouvements, notre cerveau devrait recalculer les mouvements à effectuer à chaque fois que l'on voudrait faire un mouvement : les temps de réactions seraient très élevé, et ce n'est pas ce qu'on observe.

Néanmoins, même si ces programmes sont programmés, le cerveau peut les adapter en fonction des informations qui lui parviennent par ses sens : il peut tirer partie de ces informations pour calibrer le mouvement et l'adapter à son environnement.

Ces programmes moteurs contiendraient des descriptions de toute une classe de mouvements similaires. Ces classes de mouvements seraient mémorisés par une structure mnésique qui contiendrait :

  • la séquence de mouvements élémentaires à effectuer ;
  • les durées de chaque mouvement ;
  • la force de chaque mouvement.

D'autres paramètres pourraient être fournis à ces programmes moteurs, afin de spécifier quel est le mouvement exact à effectuer : cela permettrait de sélectionner un mouvement parmi tout ceux représentés par ce programme moteur généralisé.

Diverses théories ont tenté d'expliquer l’exécution de ces programmes moteurs. 0 l'heure actuelle, j'ai connaissance de deux grandes théories, couramment admises sur ces programmes moteurs :

  • la théorie des schémas moteurs de Richard Schmidt (1975) ;
  • et les modèles de type Multiple paired forward and inverse .

La première théorie suppose que les programmes moteurs sont composés de deux sous-parties : un programme de séquencement des mouvements, un programme de reconnaissance qui spécifie quelles sont les résultats de chaque étape du mouvement, qui sert à vérifier que le premier programme a bien fait son travail.

Le premier programme contiendrait :

  • les conditions initiales du mouvement ;
  • les paramètres comme la vitesse du mouvement et sa force ;
  • des informations sensorielles, qui permettront de prédire les conséquences du mouvement ;
  • le résultat final du mouvement.

Apprentissage moteur[modifier | modifier le wikicode]

Il existe diverses théories sur l'apprentissage moteur implicite, dont la plus connue est celle de Fitts et de ses collègues (1954). Celle-ci a reçue de nombreuses validations expérimentales, et a été légèrement étendue, pour tenir compte de l'influence de la mémoire explicite dans l'apprentissage moteur.

D'après cette théorie, un apprentissage moteur se déroule en trois phases :

  • une phase cognitive dans laquelle on mémorise les étapes du mouvement ;
  • une phase associative, dans laquelle on enchaine les étapes du mouvement ;
  • et une phase autonome, dans laquelle le mouvement s'est automatisée.

La phase cognitive va :

  • découper le mouvement à apprendre en sous-mouvements élémentaires,
  • et déterminer comment planifier l’exécution de ces sous-mouvements.

Le cerveau va en quelque sorte théoriser le mouvement et en former une représentation mentale du mouvement. Cette représentation mentale du mouvement, cette séquence motrice, est mémorisée en mémoire à long terme et utilise la mémoire de travail. Lors de cette phase, la mémoire de travail est fortement utilisée pour mémoriser les étapes du mouvements à effectuer, ainsi que pour les planifier.

La phase associative va ensuite répéter le mouvement à apprendre afin d'affiner cette représentation mentale du mouvement.

Durant cette phase, le retour sur performance a son importance : le cobaye apprend plus vite quand il arrive à se souvenir de ses erreurs passées. Cela a été montré par des expériences sur des patients amnésiques, qui ne pouvaient pas faire passer de nouvelles informations de la mémoire de travail vers la mémoire à long terme. Vu que ces patients ne pouvaient pas mémoriser leurs erreurs, ils avaient du mal à ne pas les reproduire, ce qui ralentissait l'acquisition de la séquence motrice.

Une fois l'ensemble terminé, le mouvement est alors automatisé : son exécution ne fait plus intervenir la conscience.

Dans le cerveau[modifier | modifier le wikicode]

Si on sépare cette mémoire implicite des autres, c'est tout simplement sur la base d'observations cérébrales, qui montrent que les zones du cerveau activée par l'apprentissage ou la récupération en mémoire procédurale sont spécifiques.

Les zones du cerveau qui sont impliquées dans l'apprentissage moteur sont :

  • le striatum et les ganglions de la base ;
  • le cervelet ;
  • et potentiellement certaines zones comme l'hippocampe.


Modèles catégoriels de la mémoire sémantique

Les premières expériences sur la mémoire, faites par Ebbinghaus, donnait un portrait assez simple de la mémoire : plus on répète, mieux on mémorise. Les expériences de l'époque étaient relativement rudimentaires, et n'avait pas cherché à voir si la nature du matériel jouait sur la mémorisation.

Mais tout changea vers les années 1932, année de la première publication des travaux de Bartellet, un psychologue anglais. Celui-ci a travaillé sur l'apprentissage de matériel relativement complexe : cartes, schémas, textes, histoires, etc. Ses expériences furent les premières à montrer l'influence de la signification et des connaissances antérieures sur la mémorisation. Par la suite, les expériences sur la catégorisation, ainsi que sur la mémoire sémantique, ont radicalement changé notre vision de la mémoire explicite.

Une mémoire basée sur des catégories[modifier | modifier le wikicode]

La mémoire sémantique peut contenir une grande quantité d'informations, qu'elles soient visuelles, verbales, sémantique, ou autre. De nombreuses théories existent concernant le stockage des informations en mémoire sémantique. Toutefois, presque toutes tombent d’accord sur un point : le mécanisme de stockage évite la redondance au maximum : le cerveau humain est capable de rassembler les informations qu'il perçoit en groupes ayant une signification bien précise. Ce que le cerveau stocke, ce sont des catégories, des groupes d'informations correspondant à un concept, une catégorie, des idées abstraites, etc. En somme, le cerveau est capable de mémoriser le sens de ce qu'il perçoit, il mémorise la signification de ce qu'il rencontre.

Ce mécanisme nous permet de classer les informations de l'environnement en représentations mentales. Lorsque notre cerveau perçoit des choses via la vision ou l’ouïe, il organise sa perception en fonction des catégories qu'il reconnait dans l'image ou le son perçu. Ainsi, le cerveau peut détecter ce qui est nouveau dans l'image, et ne mémoriser que cela. Par exemple, à chaque fois que vous voyez un chat dans la rue, vous ne stockez pas toutes les informations relative au chat : il peut détecter ce qu'il sait déjà sur ce chat, et ne stocker que ce qui est nouveau. Cela sert à éviter d'enregistrer plusieurs fois la même information en mémoire à long terme. Sans ce mécanisme, la mémoire se remplirait rapidement.

Cela permet aussi de faire des prédictions et des déductions : a chaque fois que je rencontre une situation, un objet, ou un concept déjà connu, je peux accéder à mes connaissances sur cette entité depuis ma mémoire à long terme, et les réutiliser. Par exemple, si je catégorise un ensemble de perceptions comme étant un homme armé, je sais que je dois décamper ou me cacher le plus rapidement possible. Cela permet d'effectuer des inférences, des raisonnements, ou de résoudre des problèmes.

Représentations psychologiques[modifier | modifier le wikicode]

Au niveau psychologique, divers modèles de catégories mentales existent.

Prototypes[modifier | modifier le wikicode]

En 1970, deux psychologues, Eleanor Rosch et George Lakoff, ont effectués diverses observations et ont sorti un article nommé "Cognitive Representation of Semantic Categories". Une nouvelle théorie de la catégorisation était née : la théorie cognitive du prototype.

Nos deux psychologues qui ont crée la théorie du prototype ont demandés à 200 étudiants de noter un ensemble d'objets sur une échelle de 1 à 5. La question déterminant la note était : est-ce que cet objet est un bon exemple de meuble. Et la liste était presque intégralement remplie de meubles. On pourrait croire que la notation des meubles variait suivant l'étudiant, suivant sa culture (les étudiants étaient de diverses nationalités), son environnement socioprofessionnel, etc. Mais en fait, on trouvait très peu de différences : les réponses étaient presque identiques, et étaient peu corrélées avec les diverses variables mentionnées plus haut.

Quelque soit l'étudiant, certains objets étaient plus mis en avant et était considérés par tous comme étant plus des meubles que les autres. Il y a donc un effet de typicalité : certains objets sont considérés comme de meilleurs représentants d'une catégorie. Cela a fait naître l'idée suivante. Nos catégories sont représentées par un objet idéal, le prototype, qui définit à quoi doit ressembler un objet de la catégorie. Ce prototype est une sorte de représentant idéal de la catégorie, l'objet parfait.

Lorsqu'on veut savoir si un autre objet appartient à cette catégorie, celui-ci est comparé au prototype : plus celui-ci est proche, plus on considérera que l'objet appartient à la catégorie. Cette comparaison peut privilégier certains attributs sur d'autres, ou ne pas mêler d'attributs du tout. Ainsi, une chaise sera un meilleur exemple de meuble qu'un rideau, vu qu'il est plus proche de ce prototype idéal. Une armoire sera assez proche du prototype et sera considérée comme un meuble, mais moins qu'une chaise.

Exemplars[modifier | modifier le wikicode]

Certains psychologues pensent toutefois qu'une catégorie est stockée sous la forme d'un rassemblement d'exemplaires. Prenons l'exemple d'un chien. La première fois qu'un enfant voit un chien, le cerveau stocke toutes les informations sur ce chien en mémoire. A chaque fois que cet enfant voit d'autres chiens, il enregistrera encore toutes les informations de ces chiens dans des compartiments séparés en mémoire à long terme. Ces chiens seront associés au mot chien, mais seront stockés indépendamment : ils forment des exemplaires de la catégorie "chien".

A chaque fois qu'on veut savoir si un objet appartient à une catégorie, le cerveau va "ouvrir" la catégorie, et vérifier tous les exemplaires. Si il trouve un exemplaire identique à ce qu'il perçoit, alors il reconnait l'objet. Sinon, l'objet n'est pas dans la catégorie.

Visiblement, cette théorie prédit que la mémoire finit par se remplir à chaque fois qu'on croise un nouvel exemplaire d'un membre d'une catégorie. De plus, la catégorisation d'un objet prend énormément de temps et nécessite beaucoup de comparaisons.

Dans les faits, cette théorie pose quelques problèmes, mais a quelques confirmations expérimentales. Il semblerait qu'humain utilise à la fois exemplaires et prototypes. Les catégories ayant beaucoup d’éléments utilisent des prototypes, tandis que les catégories utilisant peu d’éléments se contentent d'une liste d’exemplaires. Il semblerait que l'exemplaire soit le mécanisme de catégorisation principal chez les enfants en bas-age, avant d'être supplanté par la catégorisation par prototypes au cours de la croissance.

Théories hybrides[modifier | modifier le wikicode]

D'autres théories mélangent les apports des deux théories précédentes, et supposent l'existence de plusieurs prototypes par catégories. Par exemple, la catégorie cuillère aurait deux prototypes : un pour les cuillères en bois (souvent longues), et un autre pour les "petites" et "moyennes" cuillères en métal.

En tout cas, on est loin de la représentation des catégories par des règles, qui permettraient de définir si un objet appartient ou non à une catégorie. En somme, tenter de définir des catégories par des définitions, sans donner de nombreux exemples, est définitivement voué à l'échec.

Catégories dans le cerveau[modifier | modifier le wikicode]

Chez certains de ces patients, qui ont des lésions au lobe temporal, on observe des troubles de la reconnaissance de certains objets : quand on leur montre un objet, ils sont incapable d'en donner le nom ou de donner la moindre information sémantique sur l'objet en question. Par contre, ils perçoivent l'objet correctement : les zones du cerveau dédiées à la perception ne sont pas touchée, ce qui fait que le patient peuvent décrire à quoi ressemble l'objet, donner sa couleur, des détails sur sa forme, etc. Seul la signification semble touchée par les lésions cérébrales.

Chez certains patients, il semble que l'on observe des troubles sélectifs, qui ne touchent que certaines catégories. Ainsi, certains patients auront des troubles de la reconnaissance pour des objets appartenant à des catégories bien précises, et seulement celles-ci. On a des exemples de patients qui ne peuvent pas reconnaitre des objets animés, alors que les objets inanimés ne leur posent aucun problèmes. Et chez certains patients, c'est l'inverse : les objets inanimés posent problèmes, alors que les objets animés sont reconnaissables.

Reste à savoir comment sont stockées ces catégories en mémoire sémantique dans notre cerveau. Si l'on en croit les expériences effectués par les neuro-scientifiques, ainsi que les observations sur des patients ayant des lésions au cerveau, chaque concept est stocké dans le cerveau par un ensemble d'informations élémentaires, que l'on appelle des traits sémantiques. Chacun d'entre eux stocke une information spécifique. Par exemple, l'information "le chat a des poils", l'image mentale d'un chat, le son miaou, etc : tout cela forme des morceaux irréductibles d'information. Ces traits sémantiques sont des petits morceaux d'informations, qui peuvent être des informations sensorielles (images, sons, odeurs, etc), voire des informations plus évoluées. Par exemple, le concept canari contiendra des traits sémantiques sensoriels : couleur jaune ; et des informations plus élaborées : peut voler.

Les traits sémantiques sensoriels sont stockés dans les aires du cerveau concernées : les odeurs dans l'aire du cerveau spécialisée dans la mémorisation des odeurs, les images dans le cortex visuel, les sons dan le cortex auditif, etc. Au final, tout ces traits sémantiques sont dispersés dans tout le cortex cérébral. Les catégories sont formée par un point de convergence de ces traits sémantiques, qui sont reliés entre eux dans un région du cortex : on soupçonne que la zone de convergence serait le cortex temporal, situé sous la tempe.

De manière générale, les petit enfants construisent les catégories dans leur cerveau en commençant par assembler entre eux des informations sensorielles, visuelles, sonores, etc. Au fur et à mesure du développement, les catégories contiennent de plus en plus de traits sémantiques abstraits.

Réseaux sémantiques[modifier | modifier le wikicode]

Mais la mémoire sémantique n'est pas qu'une simple armoire de concepts empilés les uns sur les autres. Si c'était le cas, se rappeler quelque chose nécessiterait de rechercher le matériel à rappeler dans toute la mémoire sémantique : cette recherche serait vraiment longue et inefficace. Or, se rappeler de quelque chose n'est pas si difficile. Les modèles actuels de la mémoire sémantique résolvent ce problème en supposant que la mémoire est structurée de manière à faciliter le rappel.

Mais quelle est cette structure qui permet un rappel si efficace ? Il suffit de se rappeler ce que l'on a vu au tout début de ce livre : les procédés mnémotechniques, qui favorisent la mémoire, se basent sur un principe qui veut que la mémoire fonctionne par association. La mémoire sémantique est intégralement constituée d'un réseau de concepts, reliés entre eux par des associations : l'ensemble forme ce qu'on appelle un réseau sémantique.

Modèles taxonomiques[modifier | modifier le wikicode]

D'après les théories hiérarchiques de classes, les catégories sont reliées entre elles par ce qu'on appelle des taxonomies. Dans celles-ci, si une catégorie est une sous-catégorie d'une autre, la sous-catégorie est appelée la catégorie fille, et l'autre la catégorie mère. Dans une taxonomie, une catégorie est reliée à une autre si elle est une catégorie-fille ou une catégorie-mère.

Quelques observations semblent supporter cette théorie : toutes les cultures utilisent des hiérarchies de catégories de ce genre. Mieux : ces taxonomies sont presque identiques à travers les cultures. Des comparaisons ont étés faites sur les taxonomies d'animaux sauvages : entre les équipes de taxonomistes envoyés dans la jungle, et les taxonomies des cultures locales, il n'y a pas beaucoup de différences.

Les hiérarchies, les taxonomies, peuvent avoir un nombre indéfini de niveaux, regroupés en trois grands sous-ensembles , trois « niveaux d'abstraction » :

  • le niveau superordonné, qui correspond aux catégories les plus générales ;
  • le niveau basique, qui correspond aux sous-catégories du niveau superordonné ;
  • et un niveau sous-ordonné, qui contient des sous-catégories des catégories du niveau basique.

Plus on remonte dans la hiérarchie, plus le niveau devient sur-ordonné, et moins il devient sur-ordonné. Les niveaux basiques étant alors autant sur que sous ordonnés.

Modèle à base de distance sémantique[modifier | modifier le wikicode]

Quelques expériences semblent toutefois montrer que la hiérarchie taxonomique n'est pas toujours respectée, même en dehors du rejet lié à des relations d'opposition. Ces expériences sont des expériences de chronométrie mentale. Le principe est simple : on donne une phrase à un cobaye, et il doit dire si celle-ci est vraie ou fausse. L'expérimentateur mesure le temps mis par le cobaye pour répondre : plus le temps mis à répondre est long, plus le cerveau a dû parcourir de nœuds dans la mémoire sémantique pour tomber sur le bon.

De ces expériences, il ressort quelques observations : plus un concept est familier, plus on peut vérifier les phrases qui y rapportent rapidement, sans que la position dans la hiérarchie taxonomique n'y change quoique ce soit. De plus, la hiérarchie est violée dans certains cas spécifiques. Par exemple, il est plus lent de vérifier la véracité de la phrase "un chien est un mammifère", que pour la phrase "un chien est un animal", alors que les théories hiérarchiques prédisent l'inverse. De nombreux phénomènes d'inversion de catégorie similaires ont étés documentés et seraient assez fréquents : ils montrent bien que la hiérarchie taxonomique n'est pas toujours respectée, et est au mieux approximative : d'autres types d'associations peuvent exister.


Schémas, scripts, et frames

Si concevoir la mémoire sémantique comme un réseau de catégories est un bon modèle, certains chercheurs considèrent que cette vision est un peu trop réductrice. Pour palier à certaines limitations des modèles à base de réseaux sémantiques, les chercheurs ont inventé la théorie des schémas.

Celle-ci considère que nos connaissances sur les objets et événements n'est pas stocké dans des catégories basées sur des propriétés ou dans des réseaux basés sur la similarité : les catégories sont en réalité plus élaborées, et les réseaux contiennent une plus grande variété de liens. L'ensemble forme ce qu'on appelle un schéma.

Expériences[modifier | modifier le wikicode]

L'influence des schémas pré-existants sur la mémoire fût montrée par Bartllet dans son expérience sur la mémorisation des histoires. Dans celle-ci, il a demandé à des cobayes de lire un texte, qui narrait une légende indienne. Dans cette légende, une bonne partie des détails de l'histoire sont relativement étranges pour un occidental, et sont assez exotiques, pas vraiment familiers.

Or, Bartellet a constaté divers phénomènes dans diverses épreuves de rappel et de compréhension du texte :

  • Les détails étranges du texte étaient souvent oubliés ;
  • quand ils n'étaient pas oubliés, ces détails étaient rationalisés, et les cobayes étaient certains que leur version, plus « cohérente » culturellement parlant, était celle lue dans le texte ;
  • les détails cohérents culturellement, familiers, étaient parfaitement retenus.

Dans cette expérience, on voit que quelque chose a favorisé la mémorisation des détails familiers, et inhibé les détails bizarres, non-familiers. Tout se passe si le cerveau avait tenté d'intégrer les nouvelles informations avec les connaissances antérieures, et avait filtré les informations incohérentes.

Des résultats de cette expérience, Bartellet supposa l'existence de structures mnésiques, qu'il appela schémas.

Schémas et mémorisation[modifier | modifier le wikicode]

Ces schémas font que l'on retient mieux ce qui est familier, ce qui colle avec nos connaissances antérieures, nos prédictions, notre culture. La morale, c'est que plus de nouvelles informations sont cohérentes avec ce que l'on sait déjà, mieux on les retient, tandis qu'on retient mal ce qui est incohérent avec nos connaissances antérieures (bizarre, étrange, pas naturel, non-intuitif, etc).

Mais ces schémas, si utiles pour raisonner et réutiliser les connaissances apprises, peuvent aussi nuire à la mémorisation ou la compréhension. Si les nouvelles informations ne s'encastrent pas bien dans un schéma, on aura tendance à les tordre pour les faire rentrer, en oubliant certains détails, en en modifiant d'autres, etc. Par exemple, refilez une liste de symptômes à apprendre à un médecin. Débrouillez-vous pour que cette liste de symptômes ne corresponde à aucune maladie connue. En même temps, faites en sorte qu'en enlevant 2 symptômes, la liste corresponde à une maladie connue du médecin. Quelque semaines plus tard, le médecin se rappellera uniquement des symptômes de la maladie courante, pas des deux autres.

Types de schémas[modifier | modifier le wikicode]

Les théories actuelles sur les schémas sont multiples, et diverses représentations de ces schémas sont possibles en mémoire sémantique. Dans tous les cas, ces schémas sont constitués d’éléments, reliés entre eux par des relations plus ou moins logiques. Mais leur organisation varie suivant que ces schémas représentent des objets, des systèmes, ou des événements.

Frames[modifier | modifier le wikicode]

Les schémas qui représentent des objets ou des systèmes sont ce qu'on appelle des frames. Il s'agit d'ensembles de cases, chaque case représentant un élément de l'objet ou du système. Fait intéressant, ces cases peuvent contenir des schémas. Par exemple, pour un objet ou système peut être composé de sous-objets assemblés ensemble. Dans la plupart des schémas, chaque part de l'objet modélisé dans le schéma correspondra à une case du schéma : chaque case contiendra un schéma du sous-objet associé. En somme, un schéma a une organisation plus ou moins hiérarchique, qui correspond plus ou moins à la structure du concept mémorisé.

Ensuite, les relations entre les cases font partie du schéma : celui-ci encapsule les relations entre les différentes cases, ce qui permet de concevoir celui-ci comme un tout logique. Ces relations, encapsulées dans le schéma, peuvent permettre de faire des inférences et des déductions. Il arrive que de tels schémas soient utilisés dans les taches de raisonnement : ces schémas ont alors la capacité de simuler le fonctionnement de l'objet ou du système considéré. Ces simulateurs mentaux sont appelés des modèles mentaux.

Certaines de ces cases sont obligatoires, et servent à stocker les invariants communs à toute une classe de phénomènes, d'objets, ou de concepts. Les autres cases sont des détails, des informations facultatives et contextuelles, qui peuvent varier suivant la situation.

Fait intéressant, les cases vides peuvent être remplies avec des informations par défaut, si jamais aucune information contextuelle ne peut les remplir. Ce mécanisme permet d'inférer, de faire des déductions qui vont permettre de remplir les vides, de délier les non-dits de certaines situations. La meilleur des preuves, c'est que l'on peut se rappeler de choses qui n'étaient pas dans le matériel appris à l'origine : si on rattache une situation à un schéma, ces cases remplies par défaut peuvent ressortir lors d'un rappel ultérieur du matériel original.

Scripts[modifier | modifier le wikicode]

Il existe une autre forme de schéma mental, dédiée aux événements : les schémas d'action, ou scripts. Ces scripts sont des schémas composés d'une séquence d'étapes organisées dans un certain ordre. Ils permettent de mémoriser comment effectuer quelque chose. Par exemple, un étudiant en mathématique aura un script qui mémorise la suite d'opérations à effectuer pour résoudre une équation du second degré : d'abord calculer le déterminant, regarder son signe, récupérer la formule adéquate en mémoire, puis l'appliquer. Dans cet exemple, on remarque qu'il s'agit d'étapes relativement abstraites : cela se généralise à beaucoup de scripts.


Processus de rappel

La mémoire sémantique est donc relativement structurée. Mais comme cette structure se construit-elle, et comment l'utiliser pour se rappeller de quelque chose ?

L'utilisation de la mémoire explicite se base sur trois capacités :

  • premièrement, le matériel à apprendre est encodé : il est traduit en une trace mnésique stockée dans le cerveau ;
  • ensuite, cette trace doit être consolidée dans le cerveau : durant une période de quelques minutes à quelques heures, l'information et fragile et peut s'effacer relativement facilement en cas de dommage au cerveau ;
  • et enfin, on peut se rappeler de l'information stockée : c'est la capacité de rappel.

Dans ce qui va suivre, nous allons voir ces trois phases dans le détail.

Encodage sémantique[modifier | modifier le wikicode]

Le mécanisme de rappel est relativement simple : il consiste à activer les catégories en mémoire. Par activation, on veut dire que le réseau de neurones qui stocke un concept peut émettre des influx nerveux. La quantité d'activation reçue par une catégorie détermine sa facilité à être rappelé : plus l'activation est forte, plus la probabilité de rappel de la catégorie activée est grande. De plus, le concept possède une certaine force, qui définit si il est plus ou moins facile à rappeler, à activation égale.

Cette activation ne reste pas en place : elle va se propager à travers le réseau sémantique, en passant par les associations, les synapses. Celles-ci peuvent alors propager plus ou moins bien l'activation suivant leur force. Il arrive que par endroit, un concept reçoive de l'activation en provenance de plusieurs associations. Les activations convergentes s'additionnent. En somme, certains concepts servent de points de convergence dans le réseau sémantique.

Mine de rien, la structure du réseau sémantique a une influence sur la propagation de l'activation diffusante : elle détermine la disponibilité d'un concept. Plus un concept est accessible par un grand nombre d'associations dans un réseau sémantique, plus on peut s'en rappeler facilement ou l'utiliser dans des raisonnements ou pour résoudre des problèmes.

Les points de départ de l'activation dans le cerveau sont des informations placées en mémoire à court terme : ces informations vont activer les concepts adéquats en mémoire, et vont ainsi servir de points de départs pour l'activation. Ces informations sont appelées des indices de récupération.

Rappel versus reconnaissance[modifier | modifier le wikicode]

Premier challenge pour l'activation diffusante : la différence entre rappel et reconnaissance. Prenons deux groupes de cobayes, auxquels on fait apprendre la même liste de mots. On peut vérifier leur mémorisation de deux manières :

  • on peut leur donner un indice avant de leur demander de se rappeler un mot précis. Il s'agit alors d'une tache de rappel indicé ;
  • mais on peut aussi leur montrer des mots, et leur demander de dire si ce mot était dans la liste. Il s'agit d'une tache de reconnaissance.

Les deux ne mènent pas aux mêmes résultats :

  • prévenir les deux groupes qu'il seront interrogés augmente le taux de rappel, mais ne joue pas sur le taux de reconnaissance ;
  • le taux de réussite sera toujours nettement supérieur dans la tache de reconnaissance ;
  • l'effet de fréquence et de familiarité joue en rappel, pas en reconnaissance ;
  • on n'observe pas de phénomènes d'interférences sémantiques en reconnaissance, alors qu'on en a en rappel ;
  • on observe beaucoup plus de faux positifs en reconnaissance.

Cette notion d'indice de récupération permet d'expliquer la différence de performances entre rappel libre, rappel indicé, et reconnaissance. Pour donner un exemple, prenons deux groupes de cobayes auxquels on fait apprendre une liste de mots : le premier groupe devra se rappeler les mots de la liste lors d'une interrogation, le second aura droit à des indices, et le troisième devra reconnaître les mots de la première liste insérés dans une nouvelle liste.

Effet d’amorçage sémantique[modifier | modifier le wikicode]

Dans certaines expériences d'apprentissages de listes de mots, les scientifiques ont cherchés à vérifier si donner des indices permettait vraiment de faciliter le rappel. Ils ont pris deux groupes, qui devaient nommer des mots appris 20 minutes avant. Le premier groupe avait droit à un indice proche sémantiquement du mot à rappeler, l'autre groupe n'avait pas d'indices. D'autres expériences ont travaillé différemment. Ces expériences demandaient à des cobayes d'apprendre des paires de mots. Ces cobayes étaient ensuite répartis en deux groupes : un auquel on demandait de rappeler les paires de mots complètes, et un autre auquel on donnait le premier mot de chaque paire comme indice.

Évidemment, donner des indices proches permettait de faciliter le rappel. Mieux : si on donne un indice faux, ou particulièrement éloigné du mot à rappeler, cela n'a pas d'effet. Le fait que donner des indices favorise le rappel s'appelle l'effet d’amorçage sémantique.

L'activation diffusante explique à merveille le fait que donner un indice favorise le rappel : l'indice de récupération donné va activer des indices proches du concept, ce qui va augmenter l'activation finale du concept cible, facilitant son rappel. Par contre, activer un concept trop lointain ne permettra pas à l'activation de converger vers le concept cible. Mais cela ne permet d'expliquer qu'une faible portion des phénomènes d’amorçage, et d'autres modèles existent (modèle compond-cue, episodic retrieval, expetency sets, etc).

Mémoire reconstructive[modifier | modifier le wikicode]

Mais ce processus d’amorçage peut aller encore plus loin : il peut donner des illusions de rappel. On peut se rappeler de choses qui n'étaient pas dans le matériel appris à l'origine, et croire que ces informations en faisaient bel et bien partie.

Par exemple, lisez cette suite de mots :

   bonbon
   aigre
   caramel
   amer
   bon
   goût
   dent
   joli
   miel
   soda
   chocolat
   cœur
   gâteau
   manger
   tarte

Maintenant, je prend des mots de cette liste, que je mélange avec des nouveaux mots. J'obtiens ceci :

   goût
   point
   sucré
   chocolat
   caramel
   gentil

Et oui : vous avez certainement, comme 90% des cobayes de cette expérience, cru que sucré était dans la liste initiale !

Encoding specificity principle[modifier | modifier le wikicode]

Les associations présentes en mémoire sont souvent des associations sémantiques : elles relient deux informations avec des relations logiques, catégorielles, ou sémantiques. Ainsi, donner un indice proche sémantique de l'information cible permet de faciliter le rappel.

Mais il existe un autre mécanisme d'encodage : l'indice et la cible sont associés s'ils sont présents en même temps dans la mémoire de travail. Ainsi, plus les indices de récupération du contexte sont proches de ceux utilisés lors de l'encodage, plus le rappel est facile. En clair : plus le contexte de rappel est similaire au contexte d'encodage, plus le rappel est facilité. Ce biais dans le fonctionnement de la mémoire s'appelle le 'principe d'encodage spécifique.

Pour donner un exemple, essayez d'apprendre des paires de mots, les mots d'une même paire n'ayant aucun lien logique entre eux. Et bien donner le premier mot de la paire en indice sera plus efficace que de donner un mot sémantiquement relié à la cible : le premier mot de la paire a été automatiquement associé avec le mot cible, même si ces deux mots n'ont aucun lien logique entre eux.

Il est intéressant de remarquer que cet effet ne donne pas vraiment de meilleurs résultats dans les tâches de reconnaissances : seules les tâches de rappel indicé et libre permettent de montrer un effet significatif de l'encodage spécifique. Certains chercheurs expliquent cela par le fait que les indices de récupérations du contexte de l'encodage ne seraient utilisés que lorsque les autres indices de récupération ne seraient pas suffisants pour déclencher le rappel. Le choix des indices de récupération utilisés serait plus ou conscient, et dédié aux circuits qui prennent en charge la mémoire de travail.

Environmental context dependant forgetting[modifier | modifier le wikicode]

Le premier effet est simplement l'effet de contexte : le rappel est plus facile quand on est placé dans le même environnement que lors de l'apprentissage. Cela vient du fait que le lieu d'apprentissage, les objets présents dans les contexte d'encodage, l’expérimentateur, etc : sont encodé avec le contexte, et servent d'indices de récupération.

Pour donner un exemple, il faut savoir que l'on se rappelle mieux de quelque chose si l'on se trouve dans l'endroit dans lequel on l'a appris. Quelques expériences ont ainsi comparé deux groupes de cobayes, qui devaient apprendre une liste de mots. Après avoir appris la liste, on leur donnait un temps de repos d'un jour, et on faisait passer un test de rappel aux deux groupes. Les cobayes du premier groupe passaient le test dans la salle dans laquelle ils avaient appris, alors que le second passait le test dans une autre salle. Le premier groupe avait des résultats 15 à 20 % supérieurs.

L'effet a aussi été observé en faisant varier non pas la salle de classe, mais l'expérimentateur. Si l'examinateur est la même personne que celle qui a surveillé l'apprentissage, le rappel est meilleur. Certains psychologues ont même étés jusqu'à garder la même salle, mais ont changé l'ordre des tables. L'effet restait !

Et on peut citer d'autres expériences du même genre, qui évaluaient la présence d'une odeur. Lors de l'apprentissage de la liste par les cobayes, les expérimentateurs ont diffusé une odeur particulière dans la pièce. Lors du test, un groupe sentait cette odeur juste avant le rappel, pas l'autre groupe. Le groupe qui a senti d'odeur a toujours des résultats supérieurs. Comme quoi, le coup de la madeleine de Proust, c'était pas du chiqué !

On avait vu un effet similaire dans le chapitre sur le conditionnement de Pavlov : le contexte jouait fortement sur l'apparition d'une réponse à un stimulus conditionné. Plus le contexte était similaire au contexte d'apprentissage, plu l'animal pouvait répondre fortement à un stimulus conditionné.

State dependant forgetting[modifier | modifier le wikicode]

Aussi bizarre que cela puisse paraitre, l'état physiologique joue aussi le rôle d'indice de récupération. Par exemple, Goodwin et ses collègues (1969) ont soulés un groupe de 48 cobayes, et leur ont fait apprendre des listes de mots lors de leur ivresse. Quelques temps plus tard, ils les ont séparés en deux groupes : un qui avait décuvé, et un saoul. Le groupe ivre rappelait nettement plus de mots que le groupe sobre.

En 1970, Bustamate a réitéré l'expérience, mais en utilisant deux groupes de cobayes : un qui avait recu de amphétamines, et un autre de simples barbituriques. Ces deux groupes rappelaient plus de mots lorsqu'ils étaient sous l'emprise de la même drogue que celle consommée avant apprentissage de la liste de mots.

Pire : Overton (1974) a montré que des rats qui avaient appris à trouver la sortie d'un labyrinthe sous l'emprise d'une drogue ne trouvaient pas la sortie une fois les effets de la drogues passés. Par contre, réinjecter la drogue dans les rats leur faisait trouver la sortie du premier coup !

Mood-dependent forgetting[modifier | modifier le wikicode]

L'humeur a aussi son influence. Par exemple, demandez à des groupes de cobayes de mémoriser des listes de mots : certaines contiennent uniquement des mots positifs (gentil, agréable, douceur, frère, amitié), et une autre des mots déprimants. Réunissez deux groupes de cobayes, un de ces groupe contenant des extravertis baignant dans la joie de vire, et l'autre un ramassis de méchants dépressifs. Le groupe dépressif retiendra nettement mieux la liste déprimante, alors que le groupe de bonne humeur retiendra mieux la liste agréable.

Cognitive context-dependent forgetting[modifier | modifier le wikicode]

D'autres biais du même genre peuvent survenir avec la langue d'apprentissage. Par exemple, se rappeler quelque chose lors d'un test dépend de la langue d'apprentissage. Si on vous fait apprendre quelque chose en allemand, vous aurez plus de facilité à donner la réponse si la question est posée en allemand qu'en français. Cet effet a été mis en évidence chez des étudiant anglais-espagnols bilingues (Marian and Fausey, 2006), mais peut certainement se généraliser à tout le monde.


Processus d'encodage

Avec la théorie des réseaux sémantique, et l'activation diffusante, on peut expliquer comment s'effectue le processus de mémorisation.

Répétition de maintien[modifier | modifier le wikicode]

Les premiers modèles de mémoire prédisaient que la probabilité de mémorisation d'une information dépendait de son temps de passage en mémoire à court terme. Le fait de la répéter mentalement devait donc augmenter ce temps de maintien et permettre une mémorisation durable.

Cette forme de répétition consistant à répéter une information à l'identique s'appelle la répétition de maintien. Il s'agit d'une forme de répétition utilisée dans le par cœur, la répétition d'exercices, etc. Malheureusement, cette répétition de maintien ne permet pas de créer de nouvelles associations, ni d'enrichir les réseaux sémantiques : elle joue sur la disponibilité de l'information, mais pas sur son accessibilité.

Mais les expériences faites sur le sujet ont montrées qu'il n'y avait strictement aucun effet : on peut répéter autant de fois qu'on veut une information en mémoire à court terme, cela ne marche pas, ou mal. Globalement, la répétition de maintien est la méthode la mémorisation la plus inefficace : tous les psychologues considèrent qu'il s'agit d'un moyen inefficace pour maintenir des informations en mémoire à long terme déclarative.

Par exemple, demandez à deux groupes de cobayes d'apprendre une liste de mots. Faites en sorte que le premier groupe ne soit exposé qu'une seule fois à la liste tandis que l'autre groupe répétè la liste 9 fois. Le premier groupe rappellera 11 % des mots, tandis que l'autre rappellera 12,5 % de la liste.

Pour donner un exemple flagrant de la mauvaise efficacité de la répétition de maintien, des chercheurs ont demandés à des volontaires de décrire du mieux qu'ils pouvaient une pièce de un penny, un centime américain. De plus, ils leur ont posé quelques questions simples sur cette pièce. Bilan : les volontaires ne se souvenaient pas des détails de la pièce. Par exemple, ils ne savaient pas si le visage était tourné vers la droite ou la gauche. Pourtant, ces personnes voient cette pièce tous les jours.

Dans le même genre, on peut demander à des cobayes quelle est la disposition des chiffres (les touches) sur leur téléphone : le taux de fausses réponses est particulièrement élevé.

Autre expérience : prenez deux groupes de cobayes, le premier groupe de cobaye doit répéter mentalement chaque mot de la liste 20 fois avant de passer au suivant, tandis que les cobayes de l'autre groupe n'ont pas à répéter mentalement les mots de la liste. Aucune différence de performance entre les deux groupes.

Cela vient du fait que la répétition n'est qu'un mécanisme totalement passif, qui ne permet pas de mémoriser : la répétition de maintien sert uniquement à maintenir le matériel à apprendre en mémoire de travail plus longtemps, permettant ainsi de créer quelques associations résiduelles.

Pour le prouver, on peut regarder si les éléments de la liste interfèrent : et c'est ce qu'observe. Par exemple, des listes dont les mots sont phonétiquement proches sont plus difficiles à apprendre que les autres. De même, plus une liste est longue, plus le rendement de l’apprentissage est faible. Ensuite, on peut aussi remarquer que lorsqu'on demande au cobaye de ressortir les éléments dans l'ordre, l'efficacité du rappel est deux fois moindre.

Mais la preuve la plus spectaculaire vient des expériences de Tulving et Ehrlich. Dans ses expériences, Tulving présentait plusieurs fois une liste de mots, l'ordre des mots dans la liste était différent à chaque fois. Tulving remarqua qu'au bout d'un certain temps, l'ordre de rappel des mots par le cobaye se stabilisait : celui-ci rappelait les mêmes séquences de mots à chaque rappel. Ensuite, Ehrlich a crée une technique de déstructuration/reconstruction qui a définitivement prouvé l'influence des associations dans l'apprentissage par cœur. Le bilan est clair : le rappel plafonne rapidement.

Élaboration[modifier | modifier le wikicode]

A la place, les psychologues on découvert ce qui faisait que la mémorisation est plus ou moins facile : tout dépend de la profondeur de traitement de la tache. Grosso-modo, plus le matériel à mémoriser est soumis à un traitement profond, sémantique, mieux il est mémorisé. A l'inverse, si le matériel subit un traitement léger, peu sémantique, moins il sera consolidé.

Ce concept de profondeur de traitement a été "découvert" par Fergus I. M. Craik et Robert S. Lockhart en 1972, ainsi que par Craik et Tulving en 1975. Ces deux psychologues ont cherchés à savoir si le fait de traiter profondément l'information avait un effet sur la mémorisation.

Leur première expérience était une tâche d'apprentissage non-intentionnel : les cobayes n'était pas prévenus qu'il subissait une tache de mémorisation, et ne savaient pas qu'on allait les interroger ultérieurement. Les cobayes pensaient passer un simple test psychologique. Le test demandait aux cobayes de faire un traitement sur un mot particulier.

Suivant les cobayes, le traitement était :

  • soit un traitement structural, portant sur l'écriture du mot ;
  • soit un traitement orthographiques/phonétique ;
  • soit un traitement sémantique, portant sur la signification du mot.

Par exemple, si je projette le mot LAPIN sur un écran, je peux demander au cobaye de me dire si le mot est écrit en minuscules ou en majuscules : le traitement est structural. Je peux aussi lui demander si le mot rime avec montagne : le traitement est phonétique. Et enfin, je peux demander si le mot est un animal : le traitement est sémantique.

Chaque cobaye devait traiter 60 mots différents. A la fin les cobayes recevaient une interrogation surprise, dans laquelle on leur demandait de rappeler les mots qu'ils venaient de traiter.

Bilan :

  • 15 % de mots rappelés pour la tâche structurale ;
  • 48 % de mots rappelés pour la tâche orthographiques/phonétique ;
  • 81 % pour le traitement sémantique.

Les cobayes se rappelaient nettement mieux des mots lorsqu'ils effectuaient un traitement sémantique dessus. Autre détail : en reconnaissance, les temps de réponse étaient fortement inférieur pour les mots traités sémantiquement. De même, les cobayes répondent plus rapidement aux questions sémantiques qu'aux questions structurales, lors de la phase d'apprentissage.

Et ce résultat est assez solide. Augmenter le nombre de questions, présenter plus long temps les mots à traiter superficiellement, prévenir les cobayes à l'avance du test, voire les payer plus les cobayes pour qu'ils se rappellent des mots traités superficiellement. Rien à faire : le traitement sémantique surpasse les autres.

Ces expériences ont étés reproduites non pas avec des mots, mais avec des dessins, ou des photographies de visages. Les questions étaient alors légèrement modifiées. Comme taches légères, on demandait aux cobayes de dire s'il s'agissait d'une photo d'homme ou de femme (ce genre de reconnaissance s'effectue automatiquement, dans une zone spécialisée du cerveau). Comme traitement léger, on demandait si le visage était colérique, joyeux, etc; ce qui demande d'extraire la signification de certains traits particuliers du visage. Même résultat !

Pour les expériences sur des dessins, on présentait des dessins sans signification aux cobayes. Un premier groupe se faisait poser des questions sur les couleurs du dessin, et l'autre devait inventer une signification pour ce dessin. Le second groupe passait devant, avec un taux de rappel double.

D'autres expériences ont testé la différence entre répétition de maintien, et répétition d'élaboration. La répétition d’élaboration consiste à répéter le matériel à apprendre en l'associant à de nouvelles informations à chaque fois. A chaque répétition, des informations supplémentaires sont données sur le matériel, et sa compréhension s'améliore petit à petit. En gros, cette répétition force les cobayes à extraire de plus le sens et la signification de ce qu'ils apprenne : elle les force à en apprendre de plus en plus, à affiner leur compréhension, à améliorer leur connaissance d'un sujet. Bilan : cette forme de répétition est nettement plus efficace que la répétition de maintien.

L'explication de ce phénomène est simple. Plus on comprend, plus on fait attention à la signification du matériel à apprendre, aux liens qu'il a avec d'autres concepts, aux catégories auxquelles il appartient, à sa structure et son organisation. Cela permet de créer un grand nombre d'associations avec des informations préexistantes en mémoire. Ces associations servent alors de points de convergence directs permettant à l'activation de mieux faire son travail. La conséquence, c'est que comprendre est une stratégie de mémorisation très efficace.

Attention[modifier | modifier le wikicode]

L'attention aussi une influence sur l'encodage : plus on est attentif à quelque chose, mieux on mémorise. Mais bizarrement, cet effet ne provient que de la profondeur de traitement.

Ces expériences ont étés répétées en prévenant les cobayes qu'ils allaient être testés. Globalement, le taux de rappel augmentait, mais pas toujours. Les psychologues ont établi des protocoles expérimentaux dans lesquels ils pouvaient contrôler la profondeur de traitement. Bilan : pas de différence à profondeur de traitement égale.

La motivation et l'attention ne permettent de mobiliser plus d'attention sur le matériel à retenir, ce qui permet d'augmenter la profondeur de traitement, mais c'est le seul effet psychologique sur la mémorisation. Dans tous les cas, être attentif et concentré aide à mieux mémoriser dans pas mal de situations.

Stress[modifier | modifier le wikicode]

Le stress et l'activation physiologique ont aussi un effet sur la mémorisation.


Oubli

Le mécanisme de récupération des informations en mémoire est simplement l'activation diffusante, vue il y a quelques chapitres. Mais ce mécanisme n'est pas parfait : il arrive souvent que l'on oublie. Cela fait partie de la vie courante, et c'est notamment problématique lors d'un examen.

Mais pourquoi oublie-on ? Plusieurs mécanismes sont possibles, selon que l'on demande à un psychologue, un neurologue, ou un psychanalyste.

Théories psychologiques[modifier | modifier le wikicode]

A coté de des causes psychanalytiques et neurologiques, on trouve des raisons tenant compte de l'organisation de la mémoire sémantique et épisodique. Pour rappel, la mémoire sémantique et la mémoire épisodique sont composées de concepts ou catégories, reliées entre elles par des associations, parcourues par un mécanisme d'activation diffusante. On peut utiliser ces modèles pour comprendre pourquoi on oublie.

Trace decay[modifier | modifier le wikicode]

Première théorie : les information s'effacent progressivement de la mémoire si elles ne sont pas utilisées. Le seul moyen pour éviter cela serait la répétition, et le rappel fréquent. Avec cette théorie, l'information oubliée n'est plus disponible : elle n'existe plus.

Encodage et profondeur de traitement[modifier | modifier le wikicode]

Nombreux sont les psychologues qui pensent que l'oubli provient aussi d'un raté du processus de rappel, comme quand on a un mot sur le bout de la langue. Pour eux, le problème n'est pas la présence de l'information en mémoire, mais son accessibilité. L'information est en mémoire, simplement, l'activation n'arrive pas jusqu'au concept à rappeler, ou n'est pas suffisante pour générer un rappel. L'oubli peut donc venir d'une mémorisation mal faite, qui n'a pas suffisamment associé l'information dans le réseau sémantique : les indices de récupération ne sont pas suffisants pour activer le concept à rappeler.

Interférences[modifier | modifier le wikicode]

Il existe une dernière cause pour l'oubli : les phénomènes d'interférences. Ils surviennent quand l'apprentissage d'une information empêche le rappel d'une autre.

On a déjà abordé ce phénomène dans les chapitres précédents. Dans le chapitre sur la mémoire à court terme, on a vu que faire apprendre des listes de mots semblables phonologiquement diminuait le taux de rappel. De même, faire apprendre des listes de mots sémantiquement proches diminuait le taux de rappel en mémoire sémantique.

On avait expliqué ce phénomène ne disant que les informations s'associaient suivant leurs ressemblances, et que ces associations perturbaient le mécanisme de rappel. A partir des mêmes indices de récupérations, deux concepts associés ou proches dans le réseau sémantique peuvent s'activer simultanément. Ils entrent en compétition pour le rappel : les informations mémorisées interférent lors du rappel, diminuant leurs chances de rappel respectives.

L'interférence voit son intensité varier suivant la présence d'associations entre les informations à mémoriser. Plus des informations sont associées entre elles et/ou proches dans le réseau sémantique, plus elles ont de chances d'entrer en compétition. Cela explique le fait que l'interférence est très faible entre informations très différentes ou très ressemblantes. Par exemple, les apprentissages de deux listes de mots interféreront plus facilement si les mots des différentes listes sont conceptuellement proches. A l'inverse, rassembler des mots de la même catégorie dans la même liste diminue fortement l'interférence.

Quelques observations semble prouver l'existence de phénomènes d'interférence de type phonétique lors de l'apprentissage de listes de mots. Lors de l'apprentissage d'une liste de mots, l'effet de primauté est sensible au temps entre la représentation de deux mots. Si on compare deux groupes de cobayes avec des temps entre deux mots différents, on s’aperçoit alors que diminuer la vitesse de présentation diminue l'effet de primauté.

Autre observation qui colle bien avec la théorie de l'interférence : plus une liste de mots est longue, plus le taux de rappel diminue : une liste de 50 mots sera rappelée à 50 %, tandis qu'une liste de 100 mots ne sera rappelée qu'à 25 %. Ensuite, le rappel est plus faible pour des listes de mots qui se ressemblent phonétiquement. Enfin, dans ces conditions, l'effet de primauté perd de son influence.

Mais d'autres protocoles expérimentaux sont allés plus loin, et ont cherchés à savoir si l'ordre de présentation des informations jouait sur l'interférence. Selon l'ordre d’apprentissage des informations interférentes, on distingue deux types d'interférences : pro-active , et rétroactive.

Interférence pro-active[modifier | modifier le wikicode]

Dans l'interférence pro-active, d'anciennes connaissances empêchent la mémorisation de nouvelles idées. C'est ce qui explique que quelqu'un qui a appris l'anglais aura plus de mal à apprendre l'italien, par exemple.

Pour mettre cet effet en évidence, on peut utiliser diverses expériences. Déjà, on peut remarquer que plus une liste de mots est longue, plus le taux de rappel diminue. Une liste de 50 mots sera rappelée à 50 %, tandis qu'une liste de 100 mots ne sera rappelée qu'à 25 %. Mais ce n'est pas une preuve d'interférence.

Autre expérience : on prend deux groupes de cobayes, auxquels on fait apprendre des listes de mots. Le premier groupe doit apprendre deux listes : une liste A, et une liste B. Le second groupe doit se contenter d'apprendre la liste B. Pour limiter les biais, on fait en sorte que les cobayes aie un temps de repos entre l'apprentissage de chaque liste, et on décale le rappel.

Groupe Jour 1 Jour 2 Jour 3
Groupe 1 Apprentissage de la première liste Apprentissage de la seconde liste Rappel de la seconde liste
Groupe 2 Rien Apprentissage de la seconde liste Rappel de la seconde liste

Dans ces conditions, on remarque que le groupe qui a du apprendre deux listes a des résultats nettement moins bons : on passe de 70 à 40% ! De plus, rajouter des listes à apprendre augmente encore l'effet : rajouter un troisième jour diminue l'efficacité à 25%. Et ainsi de suite. Et cette conclusion se généralise dans d'autres expériences, qui ont montré que cet effet ne marche pas que pour des listes de mots.

Interférence rétro-active[modifier | modifier le wikicode]

On trouve aussi linterférence rétroactive, où de nouvelles connaissances forcent l'oubli des anciennes.

Pour mettre cet effet en évidence, on peut utiliser une expérience toute simple : on prend deux groupes de cobayes, auxquels on fait apprendre des listes de mots. Le premier groupe doit apprendre deux listes : une liste A, et une liste B. Le second groupe doit se contenter d'apprendre la liste B. Pour limiter les biais, on fait en sorte que les cobayes aie un temps de repos entre l'apprentissage de chaque liste, et on décale le rappel.

Groupe Jour 1 Jour 2 Jour 3
Groupe 1 Apprentissage de la première liste Apprentissage de la seconde liste Rappel de la premièreliste
Groupe 2 Apprentissage de la première liste Rien Rappel de la première liste

Dans ces conditions, le second groupe a un taux de rappel nettement moins bon. L'apprentissage de la seconde liste a interféré avec la première. Et cette conclusion se généralise dans d'autres expériences, qui ont montré que cet effet ne marche pas que pour des listes de mots.

Toutefois, l'effet voit son intensité varier suivant la situation. L'effet est très faible quand les listes de mots à apprendre sont très différentes. De plus, l'effet et beaucoup plus fort si les mots des différentes listes sont conceptuellement proches. A l'inverse, rassembler des mots de la même catégorie dans la même liste diminue fortement l'interférence. Bilan : la similarité, et la proximité sémantique des concepts joue sur leur interférence.

Troubles de la mémoire[modifier | modifier le wikicode]

A coté de ces raisons psychologiques, on trouve aussi des causes physiques, comme le vieillissement ou les accidents ou pathologies qui touchent le cerveau. Quelqu'un qui a eu un AVC aura évidemment des pertes de mémoires, pareil pour quelqu'un qui a une hémorragie cérébrale.

Amnésie[modifier | modifier le wikicode]

Un des troubles de la mémoire les plus spectaculaire est l'amnésie, qui se traduit par une forte perte de mémoire épisodique ou sémantique. Cette perte a lieu après des accidents, des agressions, des accidents vasculaires cérébraux, des hémorragies cérébrales, etc. Il existe deux types d'amnésie : rétrograde, et antérograde. L’amnésie antérograde est celle de l'oubli des événements avant l'agression, tandis que l'amnésie rétrograde est celle de l'oubli après l'incident.

Dans l'amnésie rétrograde, le patient perd des souvenirs ou des connaissances qu'il connaissait avant l'accident ou l'installation progressive de l'amnésie. Cette perte peut être plus ou moins importante, et dépend fortement des conditions de l'amnésie. Elle est due à des lésions dans le cortex temporal, et notamment dans l'hippocampe.

Pour les dommages très graves, le patient peut oublier ce qu'il s'est passé durant plusieurs années de sa vie. Mais le patient n'oublie pas tout : il garde quand même des souvenirs le concernant, et oublie seulement une partie de sa vie. Certains souvenirs sont aussi fortement conservés. Il est particulièrement rare d'oublier son nom et son prénom, contrairement à ce qu'on voit dans le films. De plus, les patients qui oublient leur nom ont malgré tout quelques souvenirs, même s'ils sont mal interprétés. Par exemple, ils vont être certains d'être passé par tel ou tel lycée, d'être né dans tel pays, etc. Généralement, ces souvenirs sont faux, et ne sont que des reconstructions basées sur des souvenirs réels, mais altérés.

Les pertes de mémoire successives à amnésie peuvent être très spécifiques. On peut ainsi oublier des informations sur une courte période de sa vie, ou oublier seulement les informations d'un domaine précis. Par exemple, certains patients ont des oublis de la mémoire sémantique limités aux objets d'une catégorie particulière.

Maladie neurodégénératives[modifier | modifier le wikicode]

A coté des lésions cérébrales, certaines maladies qui atteignent le cerveau ont tendance à entrainer des troubles de la mémoire plus ou moins importants. La maladie d’Alzheimer est la plus connue, mais on pourrait aussi citer la démence à corps de Levy, ou la démence sémantique.


Mémoire topographique

Enfin, nous devons aborder une sous-partie de la mémoire sémantique : la mémoire topographique, celle des lieux. Cette mémoire nous permet de reconnaitre les lieux déjà visités, et de savoir où nous sommes.

Expériences animales[modifier | modifier le wikicode]

Comme dit plus haut, la mémoire topographique est la mémoire des lieux, et nous permet de nous situer dans l'espace.

Expériences sur des rats[modifier | modifier le wikicode]

Les recherches sur cette forme de mémoire ont commencé dans les années 1930, grâce aux travaux de Tolman. A l'époque, la recherche sur le conditionnement battait son plein, et la recherche sur l'apprentissage était concentrée sur les recherches faites sur des rats, qui devaient s'orienter dans des labyrinthes et en trouver la sortie.

A l'époque, on croyait que les rats s'orientaient dans les labyrinthes grâce à des séries de conditionnements. Chaque coin du labyrinthe contenait quelques stimulus, qui conditionnaient le rats à passer par telle ou telle sortie. A force de conditionnements, le rat finissait par trouver la sortie du labyrinthe, et celle-ci était conditionnée par conditionnement opérant ou classique.

Mais cette théorie avait quelques problèmes : les rats apprenaient tout de même relativement vite, plus vire que ce que l'on pouvait attendre de conditionnements. De plus, certaines observations posaient problèmes.

Si on apprend à un rat à trouver la sortie d'un labyrinthe, celui-ci peut prendre jusqu'à une bonne dizaine ou centaine d'essais avant de trouver la sortie à coup sur. Maintenant, si on entraine un rat dans un labyrinthe, et que l'on bloque un passage stratégique dans le labyrinthe, le rat est censé devoir réapprendre de zéro, et retrouver son chemin à partir de rien.

Or, une fois mis dans cette situation, les rats mettent très peu de temps pour retrouver la sortie, et certains la trouvent directement du premier coup. Tout se passe comme s'ils savaient s'orienter dans le labyrinthe, et qu'ils cherchaient simplement une voie alternative à partir de leur position et de ce qu'ils ont mémorisé du labyrinthe. Tolman supposa que les rats avaient une forme de mémoire topographique, et qu'ils pouvaient utiliser des cartes mentales.

Expériences sur des singes[modifier | modifier le wikicode]

Par la suite, d'autres expériences virent le jour, non pas sur des rats, mais sur des singes. La première de ces expériences utilisa un protocole assez simple. L'expérimentateur promenait un singe sur son dos, dans un enclos assez grand, très grand (quelques kilomètres carrés). L'expérimentateur faisait beaucoup de détours, tournait en rond, et faisait en sorte d'avoir un trajet le plus bordélique possible.

Lors du trajet, l'expérimentateur cachait de la nourriture à un endroit bien précis, et faisait en sorte que le singe le voit cacher la nourriture. Ensuite, l'expérimentateur continuait sa promenade avec le singe sur les épaules. Par la suite, il relâchait le singe à un endroit très éloigné de la cachette de la nourriture.

Là, d'autres expérimentateurs regardaient, avec des systèmes de caméras, quel était le trajet du singe. Évidemment, celui-ci se précipitait sur la nourriture, comme un gros goinfre.

Mais chose surprenante, le singe ne refaisait pas le trajet de expérimentateur à l'envers : il prenait directement le chemin le plus court ! En clair : il avait mémorisé l'organisation de l'enclos lors de sa promenade et avait fabriqué un représentation suffisante pour lui permettre de s'orienter et de déterminer le chemin le plus court. Conclusion : les singes aussi ont une mémoire topographique.

Cognitive maps[modifier | modifier le wikicode]

Ces expériences ont menée les psychologue à créer les concept de carte cognitive : il s'agit d'une représentation mentale d'un ou de plusieurs lieux, qui permet de s'orienter et de se localiser dans l'espace. Pour résumer, ces cartes cognitives sont des schémas de lieux, dans le sens : schémas en mémoire à long terme comme on l'a vu il y a quelques chapitres).

D'après les théories sur le sujet[1], ces cartes cognitives sont composées d’éléments, les régions, reliées ensemble par des relations. Les éléments en question sont des régions, tandis que les relations sont les routes qui relient les régions entre elles Ces régions sont définies par des frontières, qui peuvent prendre différentes formes : ce peut être des frontières physiques, voire des frontières sans signification.

Dans le cerveau[modifier | modifier le wikicode]

Animaux et humains disposent donc d'une mémoire topographique. Mais comment se matérialise-elle dans le cerveau ? Ces dernières années, des expériences d'imagerie cérébrales ont levé le voile sur les mécanismes de cette mémoire dans le cerveau. Visiblement, la mémoire topographique semble être localisée dans l'Hippocampe.

Un des arguments en faveur de l'implication de l'hippocampe dans la mémoire topographique est que certains patients dont l'hippocampe est endommagé ne peuvent plus apprendre de nouveaux lieux, et encore moins se souvenir de lieux qu'ils connaissaient avant. Et des expériences sur des singes ou des rats ont montré que c'était la même chose sur les animaux de ces espèces. Toutefois, la mémoire topographique n'est pas touchée suivant la position de la lésion sur l'hippocampe. Si ce sont les zones dorsales qui sont touchées, alors la mémoire topographique sera touchée. Mais les lésions de l'hippocampe ventral n'ont aucune influence.

D'autres expériences ont montrées que le cerveau des chauffeurs de taxis londoniens avaient un hippocampe plus développé que des personnes normales. De plus, quand on demande à ces chauffeurs de visualiser un itinéraire entre deux endroits de la ville, l'hippocampe s'active fortement et on observe une augmentation du nombre d'influx nerveux et de décharges de neurones.

Mais la preuve vient surtout de l'observation de cellules de lieux dans l'hippocampe de nombreux animaux. Ces cellules de lieu sont des cellules qui émettent des influx nerveux uniquement quand l'animal ou l'humain est dans un lieu bien précis.

Références[modifier | modifier le wikicode]

  1. McNamara, Hardy and Hirtle (1989)


Mémoire à court terme

L'existence de la mémoire à court terme a été prouvée à de nombreuses reprises. Celle-ci peut stocker temporairement des informations, pour une durée de quelques secondes voire quelques minutes.

Capacité[modifier | modifier le wikicode]

La mémoire à court terme ne peut pas retenir un nombre illimité d'information : elle a une capacité finie.

On peut tenter d'estimer cette capacité en se basant sur l'effet de récence. Puisque la mémoire à court terme est à l'origine du rappel des derniers éléments, on peut en estimer sa capacité en regardant le nombre d’éléments concernés par l'effet de récence. Celui-ci tombe rapidement au-delà d'un certain seuil : ce seuil est appelé l'empan mnésique. Dans les expériences faites sur des adultes anglais, ce nombre ne dépasse pas 10, et a une moyenne de 7 +/- 2. Mais sur des adultes d'autres langues, ce nombre peut descendre ou monter suivant la langue. Ainsi, des expériences faites sur des chinois donnent un nombre légèrement plus élevé.

Influence de l'age[modifier | modifier le wikicode]

L'empan varie aussi selon l'age. Dans les 20 premières années de la vie, l'empan augmente progressivement avec l'age : l'enfant devient capable de mémoriser de plus en plus de choses simultanément, et ses performances intellectuelles s'améliorent grâce à cela. Chez les personnes agées, la MCT décline très lentement avec le vieillissement cérébral : l'empan devient de plus en plus faible. De plus, avec la diminution de l'empan, la durée de rétention diminue elle aussi.

Deux théories sont en compétition pour expliquer ce déclin. Une première stipule que le cortex pré-frontal, siège potentiel de la MCT, subirait le vieillissement cérébral, diminuant l'empan. Une autre dit que l'empan reste plus ou moins le même, mais que le cerveau ne sait pas faire le tri entre ce qui doit rentrer en MCT : beaucoup de chunks non-pertinents seraient conservés en MCT, diminuant l'empan utile.

Cette dernière théorie est facilement testable : il suffit de soumettre un cobaye de mémoriser uniquement les informations utiles dans une suite de mots. Par exemple, on peut lui demander de ne mémoriser que les mots commençant par un A. Ensuite, il suffit de demander au cobaye de prononcer à haute voix tous les mots de la liste qui lui reviennent à l'esprit, même ceux qu'il n'aurait pas du mémoriser. Le bilan est clair : les vieux ont tendance à prononcer plus de mots qu'ils n'auraient pas du mémoriser que les plus jeunes ou les moins vieux.

Vitesse d'accès[modifier | modifier le wikicode]

La mémoire à court terme est une mémoire rapide. Ceci dit, on peut se demander si le temps d'accès à la mémoire dépend de son occupation. Fonctionne-elle séquentiellement ou en parallèle ? Pour vérifier cela, Sternberg a crée une expérience assez simple. Il a demandé à quelques cobayes de mémoriser de petites suite de chiffres, tenant en MCT. Ensuite quelques secondes plus tard, un signal lumineux demandait aux cobayes de répéter à haute voix un des chiffres, la tonalité indiquant la position du chiffre dans la liste.

Bilan : tant qu'on reste dans les limites de la MCT, plus la liste est longue, plus le rappel est long. En clair : plus la MCT est encombrée, plus le rappel prend de temps. Cela peut laisser penser que la MCT est fondamentalement séquentielle : on peut scanner celle-ci pour se rappeler de son contenu, mais y accéder en parallèle. D'autres chercheurs ont toutefois crées des modèles de MCT dans lesquels on peut accéder en parallèle aux éléments en MCT. Seulement, plus la mémoire est encombrée, plus le processus de rappel flanche et prend du temps.

Durée de rétention et oubli[modifier | modifier le wikicode]

Prenons un exemple simple : vous voulez composer un numéro de téléphone que vous ne connaissez pas. Pour ce faire, vous allez mémoriser ce numéro avant de la composer. Essayez de vous en souvenir quelques minutes après : vous aurez oublié. Le numéro de téléphone aura quitté la MCT. Mais combien de temps reste-il en MCT ?

Il est évident que le contenu de la MCT semble s'effacer avec le temps. Pour mesurer cette vitesse d'effacement, les chercheurs doivent tenir compte du fait que le cobaye peut répéter mentalement les informations à mémoriser, augmentant la durée de rétention en MCT. Pour supprimer ce biais, ils utilisent ce qu'on appelle la tache de Brown-Petterson.

Elle consiste à demander à un cobaye de mémoriser un mot qui s'affiche sur un écran, accompagné d'un stimulus visuel. Pour empêcher le cobaye de répéter, on lui demande ce compter à rebours à la cadence d'un chiffre toute les demi-secondes. Quelques secondes après, on envoie un stimulus lumineux sur l'écran, et le sujet doit prononcer le mot qu'il a mémorisé.

Dans cette situation, plus le temps passe, plus le cobaye oublie. Le rappel est d'environ 90% quand le délai entre les deux est inférieur à 1/2 seconde. il tombe à 50 % après 3 secondes, 40% après 6 secondes, 20% après 9 secondes, et il tombe à 10/8 % après.

la durée de conservation semble donc proche de la dizaine de secondes, un peu plus ou un peu moins suivant les personnes. Le fait de compter à rebours fait légèrement interférence, et diminue donc la durée de rétention, mais on peut considérer que ces chiffres sont fiables.

Mais quelles sont les raisons de l'oubli en MCT ? Il existe diverses explications.

Displacement[modifier | modifier le wikicode]

La Displacement Theory nous dit que, vu que la MCT a une capacité finie, les nouvelles informations qui y rentrent éjectent les anciennes. Cette théorie rend parfaitement compte de l'effet de récence obtenu avec les expériences sur des listes de mots. D'après cette théorie, les mots entrent dans la MCT uns par uns, dans l'ordre de prononciation par l'expérimentateur. Les derniers entrants vont donc pousser les mots plus anciens en dehors de la MCT, qui ne conserve donc que les mots les plus récents.

Interférences[modifier | modifier le wikicode]

La théorie des interférence propose une autre explication. Celle-ci est née des expériences sur des listes de mots semblables. Des mots semblable sont associés ensemble, à cause de leur ressemblances phonétiques. Mais contrairement à ce que l'on pense, cela n'améliore pas le rappel. Les mots, associés ensemble, vont interférer les uns avec les autres. Quand on voudra se rappeler un mot, des mots semblables entreront en compétition pour la récupération et le tout se terminera par un oubli.

Pour vérifier cela, il suffit de faire une petite expérience : on compare deux groupes, un auquel on donne une liste de mots dissemblables, et un autre groupe auquel on donne une liste de mots semblable. La taille de la liste est suffisamment faible pour rester totalement en MCT : 7 éléments. Les résultats sont meilleurs dans le premier groupe. Dans le second groupe, les mots rappelés sont souvent ceux qui ont peu de ressemblances phonétiques avec les autres mots de la liste.

D'autres expériences jouent sur l'effet de contiguïté, vu plus haut. Pour rappel, celui-ci nous dit que les mots situés les uns à coté des autres dans la liste sont souvent rappelés ensemble, dans le même ordre. Du moins, c'est le cas si les mots ne sont pas semblables. Si les mots ont une ressemblance phonétique (chat versus ça), alors le taux de rappel est plus bas. Tout se passe comme si les informations en MCT interféraient les unes avec les autres. Qui plus est, plus les informations sont ressemblantes, plus elles interférent facilement. La création d’associations entre informations en MCT peut donc être une cause d'oubli. D'après les expériences, ce serait même une cause majeure d'oubli.

Trace Decay[modifier | modifier le wikicode]

Les expériences montrent que l'oubli est progressif : la quantité de chunks oubliés augmente avec le temps. Passé un certain temps, on peut être certain que les chunks rappelés proviennent de la MLT. La Trace Decay Theory dit que les chunks mémorisés en MCT s’affaiblissent avec le temps : s'ils ne sont pas répétés, ils s'effacent graduellement. La répétition serait donc un bon moment pour conserver les chunks en MCT.

Cette théorie semble évidente, mais il faut la tester scientifiquement. C'est ce que les psychologues Waugh & Norman ont fait : dans leurs expériences de 1965, ils ont tenter de réfuter scientifiquement cette théorie. Manque de chance, les choses sont plus compliquées que prévu.

Pour faire leurs expériences, ils ont suivi le protocole suivant. Ils ont pris un groupe de cobaye et leur ont fait lire des séries de 16 chiffres (sur ordinateur). Après un léger temps, les cobayes entendaient une sonnerie, qui leur indiquait la position d'un chiffre dans la liste. Après cela, expérimentateur leur présentait d'autres chiffres durant un certain temps. Les chiffres en question étaient corrélés avec le chiffre à rappeler, donner l'occasion à l'interférence de s'exprimer.

Mais le temps entre la présentation de deux chiffres joue aussi. En augmentant le temps de présentation des digits, l'effacement des chunks est censé jouer. Pour tester la trace theory, il suffit de regarder l'influence du temps de présentation entre deux chiffres sur le rappel, et tenter de démêler cela de l'interférence par des calculs statistiques.

Manque de chance, l'effet principal semble être l'interférence. L'effacement progressif des chunks joue pour une faible part dans l'oubli. Aujourd'hui, les preuves de la trace theory sont encore considérées comme trop faible pour être probante. Il doit sans nul doute exister un effet de diminution des chunks, mais il est très difficile à mesurer efficacement. Le problème vient du fait que le cobaye peut répéter mentalement un chunk pour compenser l'effacement. Or, supprimer cette répétition va induire une interférence, source d'oubli. Il est donc difficile de savoir d'où provient l'oubli dans une tache de Brown-peterson : interférence ou oubli graduel ?

Interface avec la mémoire à long terme[modifier | modifier le wikicode]

Diverses expériences ont montré un lien entre mémoire à court terme en mémoire à long terme.Par exemple, les mots les mieux rappelés dans la mémoire à court terme sont souvent ceux qui sont les plus fréquents dans le langage courant. Plus on utilise un mot, plus celui-ci a de chances de rester dans la mémoire à court terme et de résister à l'oubli. C'est ce qu'on appelle l'effet de fréquence.

De plus, le rappel est supérieur pour les vrais mots que pour les faux mots : c'est l'effet de lexicalité. Par exemple, mémorisez les suites de mots suivantes :

   shampoing, voiture, champ, bal, lance-roquette
   rata, scronno, munu, carrac, shullp

On voit bien avec cet exemple que les mots présents dans notre lexique mental est plus facile.

Dans le même genre, le fait de grouper des mots en catégories sémantiques permet de mieux retenir ceux-ci. Faites apprendre des listes de 8 mots à des cobayes : le rappel sera supérieur sir les mots sont classés en catégories sémantiques, avec les 4 premiers mots appartenant à une catégorie, et les 4 restants à une autre. Mettez-les dans le désordre, et les performances s'effondrent.

Chunking[modifier | modifier le wikicode]

Mais plus intéressant, on trouve aussi des effets de chunking. La charge de la mémoire de travail varie beaucoup suivant la taches utilisée ou l'état des connaissances antérieures : la mémoire à court terme peut regrouper des ensembles d'informations très complexes, et les considérer comme une entité unique. Ces entités uniques en mémoire de travail sont appelées des chunks. Le processus de regroupement en chunks est fortement influencé par les connaissances antérieures.

Dans la majorité des cas, les chunks sont directement des connaissances antérieures. Peu importe le nombre d’éléments ou de relations qu'ils entretiennent entre eux : une information déjà mémorisée en mémoire à long terme est considérée comme un tout en mémoire de travail.

Par exemple, essayez de mémoriser ces suites de nombres :

   54 63 24 33 98 
   3852 7453 7467 8964 1827

La seconde est plus compliquée que la première parce que les nombres à quatre chiffres sont peu fréquents et ne se sont pas installés en mémoire à long terme, contrairement aux nombres à deux chiffres.

Même chose pour les joueurs d'échecs : les joueurs professionnels ont mémorisés un grand nombre de configurations de jeu, ainsi que le coup à jouer quand ils sont dans la configuration. Dans ces conditions, la charge cognitive est très faible, comparé à un débutant qui va remplir sa MCT rien qu'en essayant de deviner quoi faire avec seulement deux-trois pièces.

Modèle de Cowan et engel[modifier | modifier le wikicode]

Un psychologue du nom de Cowan a proposé une théorie de l'intégration entre mémoire à long terme et mémoire à court terme. Ce modèle reprend les théories sur le fonctionnement de la mémoire à long terme explicite. La mémoire à long terme explicite contiendrait ainsi des concepts, reliées entre eux dans un réseau sémantique. Ces concepts pourraient alors s'activer grâce à l'activation diffusante.

Le gestionnaire de la mémoire de travail, le fameux superviseur attentionnel, décide de porter plus ou moins d'attention sur chacun des concepts activés en mémoire sémantique. Les concepts peu activés n'ont pas droit à la moindre attention de la part du superviseur attentionnel. Par contre, les concepts très fortement activés, peuvent être sélectionnés : ils reçoivent alors une certaine quantité d'attention , et deviennent accessibles à la conscience. Ainsi, la mémoire de travail n'est autre que la portion activée de la mémoire à long terme, sur laquelle le superviseur attentionnel porte son attention.


Mémoire de travail

De nos jours, la vision d'une MCT unitaire a fait long feu. Aujourd'hui, on préfère parler de mémoire de travail. Cette mémoire de travail est similaire à une MCT, à part qu'on prend en compte l'influence des processus attentionnels et des processus de traitement de l'information en MCT. Différents modèles de mémoire de travail existent.

Le modèle de la MCT ne semble pas expliquer toutes les observations, et notamment les expériences de double tache. Dans ces expériences, il est demandé à un cobaye de traiter simultanément des informations provenant de plusieurs sources dans sa mémoire à court terme.

Dans sa première expérience de ce type, Baddeley utilisa plusieurs groupes de cobayes. Ceux-ci devaient mémoriser les informations présentées sur un écran et les rappeler quelques secondes plus tard. Le premier groupe de cobaye ne voyait que des mots sur l'écran, le second des icônes carrées dont il devait prononcer la couleur, et le troisième voyait à la fois icônes et mots et devait prononcer soit les couleurs, soit les mots affichés. Les différents groupes n'avaient pas exactement la même performance à ce test : le groupe 1 est capable de mémoriser environ 4 icônes, le groupe 2 peut mémoriser 7 mots, et le groupe 3 peut rappeler environ 7 mots et 4 icônes. Cette observation ne va pas dans le sens d'une mémoire à court terme unitaire, à capacité limitée fixe.

Pour expliquer ce genre d'observations, Alan Baddeley et Graham Hitch ont proposés un modèle contenant plusieurs mémoires à court terme. La séparation en plusieurs mémoires à court terme semble attestée par des études neuro-scientifiques.

Dans ce modèle, la mémoire à court terme est scindées en plusieurs sous-systèmes :

  • un sous-système verbal : la boucle phonologique ;
  • un sous-système visuel : le calepin visuo-spatial
  • et un dernier un sous-système généraliste : le superviseur attentionnel, chargé de gérer ces deux sous-mémoires.

Boucle phonologique[modifier | modifier le wikicode]

La boucle phonologique est spécialisée dans le stockage et le traitement des informations verbales et symboliques : mots, chiffres, lettres, syllabes, etc. Elles est impliquée dans la lecture, l'écriture, la compréhension orale, le calcul mental, l'apprentissage de la langue maternelle, et des autres langues. Des études ont montré une corrélation entre le développement de la boucle phonologique et développement du langage. De plus, des études faites sur des patients ayant une boucle phonologique atteinte par des lésions cérébrales montrent que ceux-ci ont de fortes difficultés à acquérir la vocabulaire d'un nouveau langage, alors que leur mémoire verbale à long terme n'est pas touchée.

La boucle phonologique serait composée de deux sous-systèmes :

  • un entrepôt phonologique, qui sert de mémoire temporaire,
  • et un système de répétition, chargé de répéter mentalement le contenu de l’entrepôt phonologique.

La séparation entre ces deux composants semble attestée par des études sur des patients ayant des dommages aux cerveau : sur certains, seul un de ses composant est touché. De plus, des études d’imagerie semble montrer que ces deux composants sont situés à des endroits différents dans le cerveau. Cette séparation est cohérente avec les études d'imagerie cérébrale, qui localise les processus articulatoire et la compréhension des mots dans des aires cérébrales différentes. Il semblerait que l'aire chargée de l'articulation (et donc dans le processus de répétition articulatoire) soit l'aire de Broca, localisée dans la partie gauche du cerveau, vers le milieu des tempes. L'aire chargée du stockage serait l'aire cérébrales de Wernicke.

Entrepôt phonologique[modifier | modifier le wikicode]

L'existence de l'entrepôt phonologique provient des expériences sur les listes de mots, chiffres, lettres. A vrai dire, c'est cette mémoire à court terme qui était étudiée dans les expériences mentionnées jusqu'à présent. Les expériences d'interférences semblent montrer que cet entrepôt phonologique stocke bel et bien des informations verbales, et non sémantiques : des mots phonétiquement proches interférent fortement, tandis que des listes de mots proches sémantiquement proches n’interfèrent pas. Ceci dit, si on empêche le cobaye de répéter mentalement avec une tache de Brown-peterson, les informations sémantiques sont mieux rappelées, mêmes pour de petites durées.

Système de répétition articulatoire[modifier | modifier le wikicode]

L'existence du système de répétition phonologique est attesté par les expériences de suppression de répétition subvocale. Pour commencer, on peut constater que les séries de mots qui se mémorisent le plus facilement sont celles dont les mots sont courts à prononcer : c'est le word length effect. Pour vérifier que la boucle phonologique est bien impliquée dans cet effet, il suffit d’empêcher le cobaye de répéter mentalement les mots qui lui sont donnés. Pour cela on ajoute une tache de Brown-petterson entre chaque mot. L'effet de la longueur du mot disparait : les mots longs sont alors aussi bien rappelés que les mots courts.

Pour estimer la durée de ce processus de répétition subvocale, on peut essayer de se baser sur la longueur à partir de laquelle un mot commence à être difficilement mémorisable. Cette longueur dépend des personnes, qui peuvent lire ou parler plus ou moins vite. Mais dans tous les cas, le taux de mémorisation chute brutalement pour les mots qui mettent plus de 2 secondes à prononcer.

Ensuite, d'autres expériences ont testé la suppression de la répétition à haute voix. Il apparait que l'on mémorise mieux les listes de mots quand elles sont prononcées à haute voix que silencieusement. De même, on observe un phénomène d'interférence avec la parole. Juste après chaque présentation d'un mot, on demande aux cobayes de prononcer un autre mot que celui à mémoriser à haute voix : la mémorisation dans la boucle phonologique est alors fortement affectée, et devient inférieure à celle obtenue avec une tache de Brown-petterson.

Calepin Visuo-spatial[modifier | modifier le wikicode]

Le calepin visuo-spatial est le sous-système de la mémoire de travail chargé de mémoriser des images et les stimulus visuels. Ce calepin peut stocker diverses informations : la couleur, la forme, la vitesse, et la position d'un objet vu par le système visuel. Sa capacité est d'environ 4.

Codage visuel[modifier | modifier le wikicode]

Dans ce calepin visuo-spatial, les informations sont encodées de manière visuelle, avec des images mentales. Pour prouver l'existence d'un tel codage visuel, des chercheurs ont crée des techniques de chronométrie mentale, dans lesquelles les chercheurs mesurent le temps mis pour effectuer une manipulation mentale impliquant des objets visuels.

Les premières expériences de ce type furent des expériences de rotation mentale. Dans ces expériences, on montre deux formes géométriques à des cobayes, et on leur demande de vérifier si ces deux formes sont différentes, ou s'il s'agit de la même forme présentée sous un angle différent. Pour faire cette vérification, le cobaye va devoir faire tourner mentalement l'objet, et appuyer sur un bouton poussoir quand il a fini. Statistiquement, le temps mis pour faire la rotation est presque proportionnel à l'angle de rotation.

D'autres expériences se sont basées sur des taches de parcours mental. On fait mémoriser aux cobayes une carte d'une ile, contenant lac, une hutte et un rocher. On leur demande de parcourir mentalement le chemin qui mène de la hutte au rocher, ou tout autre endroit de l'ile. Le temps mis par les cobayes pour faire cette traversée est proportionnel à la distance du trajet : le trajet s'effectue toujours à la même vitesse.

Subdivision[modifier | modifier le wikicode]

Certains psychologues pensent que ce calepin est lui aussi composé de plusieurs sous-systèmes. Un pour mémoriser les couleurs et caractéristiques visuelles d'un objet, et un autre pour mémoriser la position de l'objet sur le champ de vision. D'un coté, le cache visuel spécialisé dans les forme et les couleurs, et de l'autre, l'inner scribe pour la localisation et la vitesse des objets.

Ce découpage est cohérent avec le fait que ces deux informations sont gérées par des zones du cerveau séparées : une voie ventrale pour la reconnaissance des formes, et une voie dorsale pour la position des objets. Cela se voit sur les IRM : les zones du cerveau activées ne sont pas les mêmes. De plus, certaines lésions cérébrales empêchent la reconnaissance des formes, mais pas leur localisation dans le champ de vision, et réciproquement. Là encore, certains patients ayant une lésion cérébrale particulière sont capable de retenir des informations spatiales en MCT, mais pas des informations visuelles, et réciproquement.

Episodic buffer[modifier | modifier le wikicode]

Maintenant, ce modèle ne permet pas de tout expliquer. Si on soumet des cobayes à des taches demandant de retenir des listes de mots, le rappel est moins bon quand ces mots sont ressemblants. Il s'agit d'un phénomène d'interférence phonétique : les mots qui se ressemblent tendent à s'associer entre eux, et interférent lors du rappel. Par contre, l'ajout d'une tache de Brown-petterson ou l'utilisation d'une tache de suppression articulatoire va supprimer les phénomènes d'interférences phonétiques et faire apparaitre des interférences sémantiques : plus les mots appartiennent à la même catégorie ou sont proches sémantiquement, plus le taux de rappel est mauvais.

De même, quand on lit un texte, qu'on réfléchit, ou qu'on cherche à résoudre un problème, il est évident que notre mémoire de travail est mise à contribution. Mais les données sur lesquelles on travaille ne sont ni des images, ni des données verbales : ce sont des concepts, des informations qui ont une signification. Dans ces conditions, le calepin visuo-spatial et la bocule phonologique ne peuvent pas servir à stocker ces concepts. Pour gérer les éléments porteurs de signification, la mémoire de travail doit fatalement contenir un sous-composant en plus de la boucle phonologique et du calepin visuo-spatial.

Autre exemple : prenons la mémorisation de mots ou de lettres. Pour supprimer leur mémorisation, il semble évident que supprimer la répétition articulatoire permet aux lettres de s'effacer totalement. Si on demande aux cobayes de prononcer à haute voix des sons n'ayant aucun rapport avec le matériel à mémoriser durant toute la durée de l'expérience, la répétition sera paralysée, et les mots sont censés s'effacer. Or, on remarque que les cobayes arrivent tout de même a retenir quelques mots en mémoire à court terme. De plus, la taille de cet empan est différente de la taille de la boucle phonologique : les cobayes retiennent environ 4 items, au lieu des 7 que la boucle phonologique peut permettre.

Le modèle de la mémoire de travail a récemment (années 2000) été adapté par ses auteurs pour rajouter une autre MCT contenant des informations épisodiques, visuelles, sémantiques ou verbales. Cette MCT s'appelle l'executive buffer. Il est supposé que cette mémoire serait en lien direct avec la mémoire à long terme. Les informations passeraient ainsi de l'episodic buffer vers la mémoire à long terme. Il serait impliqué notamment dans la compréhension, la planification, et la résolution de problèmes. Mais tout cela n'est que suppositions.

Superviseur attentionnel[modifier | modifier le wikicode]

Les expériences du chapitre précédent étaient relativement simples : il s'agit d'expériences mesurant des empans simples. Par empan simple, cela veut dire qu'on demande au sujet de retenir des listes de mots, de chiffres, de lettres, etc; sans intervention entre les items présentés. Ces expériences ont étés modifiées en ajoutant une tache de brown-perterson. On peut ainsi effectuer une tache de traitement après et/ou avant la présentation, mais pas pendant.

Mais ces expériences sont assez basiques. Pour mieux évaluer la capacité et le fonctionnement de la mémoire à court terme, les psychologues ont crées de taches d'empan complexes. Dans ces taches, on introduit une taches de traitement entre chaque item à retenir. Par exemple, on peut demander à un cobaye d'effectuer un calcul mental entre chaque mot d'une liste. Ces taches sont appelées des taches d'empan complexes.

La mesure la plus simple de l'empan complexe consiste à intercaler des calculs entre paires de mots.

Château | 4 * 70 | Martien

Combat | 25 * 15 | Nul

Fin | 12 * 41 | Dsicriminatoire

...

D'autres épreuves demandent de mémoriser des résultats de traitements mentaux. Par exemple, faites les calculs suivants, et essayez de les mémoriser :

4 * 70

25 * 15

12 * 46

49 * 73

13 * 40

76 * 16

44 * 22

79 * 46

Ces épreuves alternent toutes des phases de traitement, et des phases de mémorisation. Avec ces expériences, de nouvelles observations ont vu le jour : ces expériences montrent clairement que la mémorisation est bien plus difficile quand elle est effectuée avec des traitements intercalés. Cela montre que la mémoire interagit fortement lors des traitements mentaux.

Ces taches font intervenir le superviseur attentionnel, et montrent clairement que celui-ci a une forte importance dans la gestion des sous-systèmes de la mémoire à court terme. Le fonctionnement de ce superviseur est basé sur l'attention, la capacité de concentration. Ce superviseur contiendrait une certaine quantité finie d'attention, qu'il pourrait utiliser pour diverses choses. Tout le travail du superviseur attentionnel demande de répartir l'attention dans les diverses taches qui lui sont confiées. Si cette répartition est mal faite, les performances s'en ressentent.

Quelques théories sur l'oubli en MCT disent, pour rappel, que les items à retenir s'effacent avec le temps. Une façon de contrer cet effacement progressif est de rafraichir les items. Une des capacités du superviseur attentionnel est de rafraichir le contenu des différentes MCT. Attention : j'utilise le terme rafraichir, et non pas répéter. La raison est simple : répéter sera réservé au mécanisme de répétition utilisé par la boucle phonologique, la répétition articulatoire. Le superviseur attentionnel dispose d'un autre processus de répétition séparé, capable d'intervenir dans toutes les mémoires à court terme : on l’appellera le rafraichissement.

Différents modèles du superviseur attentionnel ont êtes crées pour expliquer comment se produit ce processus de rafraichissement. Le plus abouti de ces modèles est le modèles Time Based Refreshing Sharing, ou TBRS.


Mémoires sensorielles

Mémoire iconique[modifier | modifier le wikicode]

La première mémoire sensorielle est la mémoire visuelle, aussi appelée mémoire iconique. Son nom vient d’icône, qui veut dire petite image. Celle-ci est capable de retenir des informations visuelles durant un temps très court.

Mise en évidence[modifier | modifier le wikicode]

Les observations qui ont mené à concevoir ce concept de mémoire iconique sont basées sur des taches de mémorisation partielle. La toute première date de 1960, et a été effectuée par George Sperling. Son expérience a nécessité deux groupes de cobayes, qu'il a placés devant un écran d'ordinateur.

Les volontaires du premier groupe devaient d'abord fixer une croix sur l'écran, afin de fixer la position de leur regard. Ensuite, un tableau de 12 lettres s'affichait à l'écran durant 50 millisecondes, et était suivi par un écran totalement blanc.

R E A T

J G L F

D Z J K

Une sonnerie retentissait alors quelques instants plus tard, et les cobayes devaient alors se remémorer les lettres qu'ils avaient vues. Durant cette expérience, les cobayes étaient capables de citer seulement trois à cinq lettres, pas plus.

Les volontaires du second groupe subissaient la même expérience, à un détail prêt : la sonnerie leur indiquait une des trois lignes. Suivant le ton de la sonnerie, les cobayes devaient se rappeler les lettres situées sur la première, deuxième ou troisième ligne. Le taux de réussite montait à 75%, et ce quelque soit la ligne.

D'autres versions de cette expérience ont étés testées. Dans une variante, le ton de la sonnerie était remplacé par une barre noire à l'écran, qui s’affichait là où se trouvait une des 3 lignes. Le volontaire devait alors se rappeler les lettres de la ligne qui se trouvait à cet endroit. Bizarrement, le taux de réussite était là aussi deux fois plus élevé. Une autre version effectue la même procédure, mais sélectionne les lettres à rappeler par un cercle, qui s'affiche à la place de la lettre à remémorer.

Concept[modifier | modifier le wikicode]

Pour expliquer les résultats, les psychologues supposent l'existence dune mémoire iconique, qui stocke l'image à analyser. Suivant ce qui est demandé, l'attention peut alors sélectionner une partie des informations dans cette mémoire, et les faire remonter à la conscience.

Les expériences citées au-dessus ont permis, avec quelques modifications, de mieux connaitre les caractéristiques de la mémoire iconique. Comme toutes les autres mémoires sensorielles, elle possède deux caractéristiques : sa durée de mémorisation, sa capacité. Pour la capacité, les expériences ne permettent pas de conclure, si ce n'est que celle-ci est énorme. Mais sa durée de rétention est mesurée avec précision.

Tout d'abord, les chercheurs ont fait varier l'intervalle entre la présentation du tableau de lettre et la sonnerie. Visiblement, plus le temps augmente, plus le taux de réussite des cobaye s'écroule. Une petite analyse semble montrer que la mémoire visuelle devient inefficace au-delà de 100 à 500 millisecondes. C'est approximativement la durée de rétention en mémoire iconique. Bien sûr, cette durée varie selon les personnes.

Ceci dit, ces paramètres dépendent fortement de la personne. De plus, l'age et la la présence de maladie cérébrales peuvent faire varier les résultats. Par exemple, on observe des déficiences en mémoire iconique chez les malades d’Alzheimer ou chez certaines personnes qui ont eu un AVC. Cette mémoire dépend aussi de l'age du cobaye. Dans le même genre, des expériences d'eye-tracking ont montrées que la mémoire iconique était fonctionnelle chez les bébés à partir de 6 mois. Cette durée de rétention diminue un petit peu avec l'age.

Utilité[modifier | modifier le wikicode]

Cette mémoire iconique a diverses "utilités". C'est notamment elle qui sert pour la perception du mouvement. Contrairement à ce que l'on pense, ce n'est pas la persistance rétinienne qui nous permet de ne pas voir le monde comme une suite de diapositives. C'est la mémoire iconique ! D'ailleurs, la durée de la mémoire iconique est similaire à la durée maximale entre deux images au-delà de laquelle on commence à voir les saccades.

A ce propos, on peut mettre en évidence la mémoire iconique d'une autre manière. Prenez une image, et affichez là sur l'écran par intervalles réguliers. Entre ces intervalles, affichez sur l'écran une image blanche. Vu que la persistance rétinienne dépend de la luminosité, la lumière blanche de l'écran devrait prendre le pas sur l'image affichée. Or pour des durées courtes (image blanche présentée durant moins de quelques millisecondes), cela n'arrive pas : on voit une image fixe.

C'est un peu le même principe utilisé dans les expériences de persistance du mouvement effectuées sur des pilotes de chasse. Dans ces expériences, on projetait sur un écran une image d'avion de chasse durant un temps très faible. En dehors de cette période, l'écran était blanc, pour forcer la persistance rétinienne à effacer l'image de l'avion. Les pilotes de chasse arrivaient tout de même à dire quel était le modèle de l'avion si son image était présenté durant 1/224 de secondes.

C'est aussi cette mémoire qui est à l'origine de certaines illusions visuelles. Par exemple, prenez une série de lampes alignées. Allumez les les unes à la suite des autres de sorte à ce que quand une lampe s'allume, celle qui la précède s’éteigne immédiatement. Vous aurez l'impression que la lumière progresse de lampe en lampe, progressivement : les lampes donneront l'impression de s’éteindre et de s'allumer progressivement les unes après les autres.

Elle a donc un rôle important dans la détection du changement. En somme, cette mémoire iconique sert d'accumulateur, qui mélange les images entre elles, et donne une impression de perception de mouvement.

Dans le cerveau[modifier | modifier le wikicode]

Cette mémoire sensorielle est décomposée en deux sous-mémoires sensorielles, qui ont chacune leur caractéristiques propres, et sont basés sur des processus physiologiques séparés.

La première correspond au fond de la rétine : les cellules de la rétine mettent un certain temps à revenir à la normale après avoir été éclairées : c'est le phénomène de persistance rétinienne. Il va de soit que cette lumière est très sensible à la luminosité de l'image perçue.

La seconde correspond à la partie du cerveau activée lors de la perception de l'image. Cette mémoire sensorielle est très sensible aux motifs de l'image, et assez peu à sa luminosité ou son contraste.

Mémoire échoïque[modifier | modifier le wikicode]

A coté de la mémoire iconique, on trouve la mémoire échoique, qui stocke temporairement les sons que l'on entend. Son nom vient de "écho", qui a un rapport avec le "son".

Mise en évidence[modifier | modifier le wikicode]

La mise en évidence de la mémoire échoïque a nécessité quelques expériences assez simples. Les premières expériences sont des expériences dichotiques, qui se basent sur l'écoute simultanée de deux bandes sonores. On fait écouter à des cobayes deux bandes sonores différentes, une dans chaque oreille, et on leur demande de se concentrer sur une seule des deux bandes. Dans ces conditions, les cobayes arrivent à filtrer les informations, et arrivent à ne garder que la bande sonore voulue.

Toutefois, si jamais un mot familier ou vraiment différent du contenu de la bande est prononcé sur la bande sonore à ne pas écouter, le cobaye s'en rendra compte et son attention se focalisera sur la bande sonore à rejeter. C'est le fameux effet cocktail party : vous arrivez à suivre une conversation dans un endroit bruyant, mais votre cerveau reste malgré tout sensible aux bruits extérieurs. Si on appelle votre nom dans un brouhaha (pas trop fort), votre attention pourra alors être détournée de la conversation que vous tenez vous voir si vous êtes concerné par l'appel.

Tout se passe comme si les informations étaient stockées dans une mémoire sensorielle de faible durée, totalement inconsciente. L'attention se charge alors de faire le tri des informations sensorielles dans cette mémoire pré-attentive et fait remonter les informations pertinentes à la conscience.

Capacité[modifier | modifier le wikicode]

Autre expérience : découpez un message audio, et répartissez les morceaux sur les deux bandes sonores de telle sorte que : lorsque l'une contient une portion du message, l'autre contient tout autre chose. Les cobayes seront capables de reconstituer le message dans son intégralité. Cette mémoire ne contient donc pas les sons complets, assemblés par le système auditifs linéairement, mais de vrais segments de sons, qui auraient plus ou moins une signification.

Cette mémoire échoïque a donc une certaine capacité, tout comme la mémoire visuelle. Différents tests ont étés effectués pour tester cette capacité, et il semblerait qu'elle puisse mémoriser plus d'une dizaine de "morceaux", de segments de sons.

Contenu[modifier | modifier le wikicode]

Si on reprend les expériences du dessus, mais cette fois-ci en superposant les sons du message oral, on constate que les cobayes ont beaucoup plus de mal à reproduire le message initial. Tout se passe comme si les deux segments interféraient. Cela pousse certains à penser que les informations dans la mémoire échoïque contiendraient des informations sur le sens de ce qui est entendu.

Certains pensent toutefois que cette mémoire contient des informations sonores plutôt brutes, sans signification. La preuve a été apportée par les expériences dichotiques. Prenez un cobaye, auquel vous faite écouter une bande sonore différente sur les deux oreilles. Cette bande sonore contient des mots, des lettres, des chiffres. Ces mots, chiffres, lettres sont prononcés les uns à la suite des autres, séparés par un intervalle de temps bien précis. Ensuite, on interrompt la bande sonore, et on demande au cobaye des informations sur le dernier son entendu sur une des deux bandes. Les taux de rappels sont plus élevés quand on demande la localisation du son (oreille droite ou gauche) que quand on interroge sur cobaye sur la catégorie (chiffre, lettre, mot).

Ce phénomène d'interférence a aussi été observé pour des son similaires acoustiquement, mais sans grande signification. Pour mettre en évidence ce phénomène d'interférence, il suffit d'effectuer des expériences dichotiques avec des segments de sons sans signification : du bruit blanc, par exemple. Les cobayes ont alors beaucoup plus de mal à se rappeler les sons similaires s'ils sont écoutés au même moment, même si ces sons ne sont pas suffisamment proches pour générer des confusions. Mieux : plus les sons sont proches, plus le rappel simultané des deux sons est difficile.

Durée de rétention[modifier | modifier le wikicode]

Sa durée de rétention est nettement plus longue que pour la mémoire iconique. On peut estimer celle-ci avec les expériences dichotiques. Pour cela, il suffit de faire varier l'intervalle entre deux présentation d'un mot/chiffre/lettre sur chaque bande. Suivant les expérience, la durée de rétention varie entre 2 et 4 secondes.

Une autre série d'expérience consiste à demander à deux cobayes de dire si deux voyelles prononcées consécutivement sont identiques ou différentes. Plus le temps entre la prononciation des deux voyelles est long, plus les cobayes ont du mal à faire la différence. Dans ces conditions, on remarque que les voyelles séparées par moins d'une seconde ont un taux de rappel identique. Le taux de rappel diminue ensuite, pour se stabiliser après 4 secondes de séparation.

Cette durée de rétention varie suivant les personnes. De plus, elle augmente progressivement lors de l'enfance, et finit par se stabiliser assez rapidement vers 6 ans. Par la suite, elle reste stable, même chez les personnes âgées.

La mémoire échoïque est donc très utile dans la compréhension de la parole. Quand votre interlocuteur parle, celui-ci va émettre des sons à un certain rythme, plus ou moins rapide. Pour identifier tous les sons qui forment un mot, ces sons doivent être assemblés ensemble : la mémoire échoïque permet de conserver les sons prononcés durant un temps suffisamment long pour permettre leur assemblage.

D'ailleurs, cette durée de rétention joue un rôle dans l'apprentissage du langage : une faible durée de rétention chez les enfants est corrlé à de faibles capacité d'apprentissage de la langue maternelle.

GFDL Vous avez la permission de copier, distribuer et/ou modifier ce document selon les termes de la licence de documentation libre GNU, version 1.2 ou plus récente publiée par la Free Software Foundation ; sans sections inaltérables, sans texte de première page de couverture et sans texte de dernière page de couverture.