Aux sources du langage
Nul ne sait exactement quand est née la communication verbale, mais une chose est sûre: ce n’est qu’à la suite d’un long processus que le langage a pu émerger. «Les mots viennent quand on peut à la fois être capable de parler et de comprendre. A un moment de l’évolution, tout s’est mis à concorder», précise Anne-Lise Giraud, professeure au Département de neurosciences fondamentales de l’Université de Genève (UNIGE), responsable du groupe «Audition et langage» et co-directrice du PNR «Evolving Language». De nombreux facteurs y ont contribué, notamment «la sociabilité, qui crée la nécessité de communiquer avec ses congénères». Encore faut-il avoir les moyens de le faire. Pour parler, il faut en effet disposer «d’articulateurs» (larynx, langue, cordes vocales, respiration, etc.), mais aussi de cortex moteur et pré-moteur, assurant la rythmicité de la parole et sa planification. «De la même manière que la main bénéficie d’une motricité grossière et d’une autre plus fine, le langage humain nécessite une dextérité particulière», souligne la chercheuse.
Segmenter la parole
Quant à la perception de la parole, elle passe par notre système auditif. Lorsque notre interlocuteur s’exprime, les sons qu’il émet font vibrer la membrane de notre tympan. Les vibrations sont alors transmises à la cochlée, structure de l’oreille interne en forme d’escargot autour de laquelle est enroulé le nerf auditif. Ce dernier transmet ensuite, par un certain nombre de relais, les informations au cortex auditif. Alors que la production de la parole fait appel à l’hémisphère gauche du cerveau, sa perception engage les deux hémisphères. «Le cortex auditif droit traite prioritairement les informations de la voix qui permettent notamment d’identifier le locuteur, explique Anne-Lise Giraud. Le gauche sert à décoder les informations très fines et rapides, par exemple à faire la différence entre les consonnes.»
En fait, pour percevoir et comprendre ce que nous dit notre interlocuteur, il nous faut segmenter sa parole. Les sons qu’il émet arrivent sous la forme d’un signal continu que nous devons découper, «afin de mettre des frontières entre les mots pour construire leur sens». Dans ce cadre, le cortex auditif joue le rôle d’un transformateur de l’information afin, «au final, d’activer les concepts qui nous donnent une représentation de ce que nous écoutons». En effet, précise la professeure de l’UNIGE, «la compréhension de la parole est éminemment symbolique car, contrairement aux objets visuels qui existent en tant que tels à l’instant présent, il n’existe pas d’objet auditif sans une intégration de l’information acoustique dans le temps».
L’origine de la dyslexie
De façon assez contre-intuitive, la dyslexie pourrait avoir une origine auditive. Les paroles que nous écoutons stimulent certains neurones de notre cortex auditif qui forment alors des circuits et se mettent à fonctionner ensemble, afin de nous permettre de décoder les informations, les mots par exemple. «Dans ce cas, ils se mettent à se synchroniser et à osciller ensemble à des fréquences électriques particulières que l’on peut mesurer par électro- ou magnétoencéphalographie.»
En utilisant ces méthodes, Anne-Lise Giraud et ses collègues ont montré que chez les personnes atteintes de la forme la plus fréquente de la dyslexie (nommée phonologique), «les oscillations neuronales sont anormales dans le cortex auditif gauche, dans une bande de fréquences autour de 30Hz. C’est précisément celle qui nous permet d’encoder les phonèmes dans le flux acoustique, afin de pouvoir par exemple distinguer un “BA” d’un “DA”». Certes, dans les conversations courantes, notre cerveau ne va pas aussi loin et il se contente d’extraire les syllabes, les mots ou groupes de mots. En revanche, ce découpage fin est essentiel quand on apprend à lire, «car nous devons alors mettre en relation les représentations des phonèmes avec celles des lettres». Lorsque ce processus dysfonctionne, les enfants développent une dyslexie.
Après avoir élucidé l’origine de ce trouble, l’équipe genevoise a cherché à corriger les défaillances des personnes dyslexiques à l’aide de la stimulation électrique transcrânienne (qui stimule l’activité de certaines zones cérébrales à l’aide d’électrodes placées sur le crâne). «Nous avons ainsi réussi à améliorer la reconnaissance des phonèmes et même à augmenter la précision de la lecture. Mais cet effet ne persiste pas longtemps.» Anne-Lise Giraud et ses collègues poursuivent donc leurs recherches, avec l’idée d’utiliser la plasticité du cerveau pour modifier durablement les circuits neuronaux.
Redonner la parole aux aphasiques
A l’image des chercheurs de l’EPLF qui ont fait remarcher des tétraplégiques en enregistrant des signaux issus de leur cortex moteur pour animer une jambe robotisée, les neuroscientifiques de l’UNIGE impliqués dans le projet de recherche européen «BrainCom» ont pour objectif d’enregistrer, avec des électrodes implantées dans le cerveau, des signaux du cortex auditif des personnes aphasiques. Puis, à l’aide d’une interface cerveau-ordinateur, de les «faire parler» à l’aide d’un synthétiseur vocal.
«Nous en sommes encore très loin», souligne Anne-Lise Giraud, professeure au Département de neurosciences fondamentales de l’UNIGE. La tâche est complexe. De nombreuses zones cérébrales étant impliquées dans la production de la parole, il faut savoir où placer précisément les électrodes et quelles informations recueillir. Une autre difficulté est de repérer «à quel moment le sujet commence à vocaliser intérieurement». Pour l’instant, l’équipe genevoise est arrivée «à décoder jusqu’à six mots différents». Elle va poursuivre l’effort, notamment dans le cadre du tout nouveau Programme national de recherche «Evolving Language», piloté par les universités de Zurich et de Genève et dont Anne-Lise Giraud est la co-directrice.