Décoder le langage intérieur pour soigner les troubles de la parole
Une équipe de recherche de l’UNIGE et des HUG est parvenue à identifier certains signaux produits par notre cerveau lorsque nous nous parlons à nous-mêmes.
© UNIGE
Et s’il était possible de décoder le langage interne des individus privés de la capacité de s’exprimer? C’est l’objectif poursuivi par une équipe de neuroscientifiques de l’Université de Genève (UNIGE) et des Hôpitaux universitaires de Genève (HUG). Après plus de quatre ans de recherche, elle est parvenue à identifier des signaux neuronaux prometteurs pour capter nos monologues internes. Elle a également pu identifier les zones cérébrales à observer en priorité pour tenter à l’avenir de les décrypter. Ces résultats ouvrent de nouvelles perspectives pour le développement d’interfaces destinées aux personnes souffrant notamment d’aphasie. Ils sont à découvrir dans la revue Nature Communications.
Pour qu’un individu puisse s’exprimer, différentes zones de son cerveau doivent s’activer. Ces régions peuvent cependant être sérieusement endommagées, à la suite d’une atteinte du système nerveux. Par exemple, la sclérose latérale amyotrophique (ou maladie de Charcot) peut paralyser complètement les muscles qui servent à parler. Dans d’autres cas, suite à un AVC par exemple, ce sont les aires du cerveau responsables du langage qui sont atteintes : on parle alors d’aphasie. Cependant, dans de nombreux cas, l’aptitude des patients-es à imaginer des mots et des phrases demeure, elle, en partie fonctionnelle.
Parvenir à décoder notre parole interne présente donc un grand intérêt pour les chercheurs et chercheuses en neurosciences. Mais la tâche est loin d’être aisée, comme l’explique Timothée Proix, collaborateur scientifique au Département des neurosciences fondamentales de la Faculté de médecine de l’UNIGE: «Plusieurs recherches ont été menées sur le décodage du langage parlé mais beaucoup moins sur le décodage de la parole imaginée. Car, dans ce dernier cas, les signaux neuronaux associés sont faibles et variables par rapport à la parole explicite. Ils sont donc difficiles à décoder par des algorithmes d’apprentissage.» C’est à dire au travers de programmes informatiques.
Une parole bien cachée
Lorsqu’une personne s’exprime à haute voix, elle produit des sons qui sont émis à certains instants précis. Les chercheurs/euses peuvent ainsi mettre en relation ces éléments tangibles avec les régions cérébrales sollicitées. Dans le cas de la parole imaginée, le processus est beaucoup moins aisé. Les scientifiques n’ont aucune information manifeste sur le séquençage et le tempo des mots ou des phrases formulés à l’interne par l’individu. Quant aux zones alors recrutées dans le cerveau, elles sont également moins nombreuses et moins actives.
Pour parvenir à percevoir les signaux neuronaux de cette parole bien particulière, l’équipe de l’UNIGE s’est basée sur un panel de treize patient-es hospitalisé-es, en collaboration avec deux hôpitaux américains. Elle a collecté des données grâce à des électrodes directement implantées dans leur cerveau, un dispositif déployé à l’origine pour évaluer leur trouble épileptique. «Nous avons demandé à ces personnes de prononcer des mots puis de les imaginer. A chaque fois, nous avons passé en revue plusieurs bandes de fréquences de l’activité cérébrale connues pour être impliquées dans le langage», explique Anne-Lise Giraud, professeure au Département des neurosciences fondamentales de la Faculté de médecine de l’UNIGE, directrice de l’Institut de l’Audition à Paris et co-directrice du Pôle de recherche national Evolving Language .
Se «brancher» sur la bonne fréquence
Concrètement, les chercheurs/euses ont observé plusieurs types de fréquences produites par différentes zones cérébrales lorsque ces patient-es s’exprimaient, à l’oral ou à l’interne. «Tout d’abord les oscillations thêta (4-8Hz), qui correspondent au rythme moyen d’élocution des syllabes. Puis les fréquences gamma (25-35Hz), observées dans les zones du cerveau où se forment les phonèmes (voyelles ou consonnes, notamment). Troisièmement, les ondes bêta (12-18Hz) relatives aux régions cognitivement plus performantes sollicitées, par exemple pour anticiper et prédire l’évolution d’une conversation. Enfin, les hautes fréquences à large bande (80-150Hz) que l’on observe lorsqu’une personne s’exprime oralement», détaille Pierre Mégevand, professeur assistant au Département des neurosciences cliniques de la Faculté de médecine de l’UNIGE et médecin adjoint agrégé aux HUG.
Grâce à ces observations, les scientifiques ont pu montrer que les fréquences basses et le couplage entre certaines fréquences (bêta et gamma notamment) contiennent des informations essentielles pour le décodage de la parole imaginée. Leur recherche révèle également que le cortex temporal est une zone importante pour à terme décrypter la parole interne. Située dans la partie latérale gauche du cerveau, celui-ci intervient dans le traitement des informations relatives à l’audition et la mémoire, mais elle abrite surtout une partie de l’aire de Wernicke, responsable de la perception des mots et des symboles du langage.
Ces résultats constituent une avancée majeure dans la reconstruction de la parole à partir de l’activité neuronale. «Mais nous sommes encore très loin d’être en mesure de décoder le langage imaginé», conclut l’équipe de recherche.
12 janvier 2022