Le cerveau est-il capable de distinguer la voix des sons quelle prononce? Peut-il différencier avec précision la fréquence ou encore la modulation temporelle? Pour répondre à ces questions, des chercheurs de lUniversité de Genève (UNIGE), en collaboration avec lUniversité de Maastricht, ont créé des pseudo-mots dictés par trois voix aux timbres différents, afin dobserver comment le cerveau traite ces informations lorsquil se focalise une fois sur la voix et une autre fois sur les sons. Ils ont constaté que le cortex auditif ne se concentre pas sur les mêmes aspects en fonction de la tâche qui lui est demandée. Les hautes variations spectrales sont privilégiées pour la voix, alors que les modulations temporelles rapides et les faibles modulations spectrales prennent le dessus pour les sons. Ces résultats, à lire dans la revue Nature Human Behaviour, permettent déclaircir les mécanismes cérébraux du traitement de la parole.
Linformation langagière est caractérisée par deux aspects: dune part la voix de linterlocuteur, dautre part les sons quil prononce (phonèmes). Le cerveau traite-t-il ces deux informations de la même manière? «Pour répondre à cette question, nous avons créé 120 pseudo-mots qui respectent la phonologie française, mais qui nont aucun sens, afin que le traitement sémantique ne vienne pas interférer avec la perception pure des phonèmes», explique Narly Golestani, professeure à la Section de psychologie de la Faculté de psychologie et des sciences de léducation (FPSE) de lUNIGE. Ces pseudo-mots mettaient en avant des phonèmes comme /pe/, /te/ et /ke/, à limage de /gabratade/, /preperibion/ ou encore /ecalimacre/.
Léquipe de lUNIGE a enregistré la voix dune phonéticienne qui articulait lensemble des pseudo-mots, quelle a ensuite convertis en trois voix différentes, de graves à aigus. «Pour rendre la différenciation des voix aussi difficile que la différenciation du discours, nous avons créé la perception de trois voix différentes à partir des stimuli enregistrés, plutôt que denregistrer trois personnes différentes», complète Sanne Rutten, chercheuse à la Section de psychologie de la FPSE de lUNIGE.
Comment le cerveau trie les informations langagières
Les scientifiques ont ensuite placé les participants de létude dans un scanner pour imagerie par résonnance magnétique fonctionnelle (IRM) à haut champ magnétique (7 Tesla), qui permet dobserver lactivité du cerveau en mesurant loxygénation du sang dans le cerveau: plus il y a doxygène, plus la zone du cerveau est employée. Les participants ont ensuite écouté les pseudo-mots lus par les trois voix et devaient une fois identifier les phonèmes /pe/, /te/ et /ke/, une autre fois dire si ceux-ci étaient lus par la voix 1, 2 ou 3.
Les équipes genevoise et hollandaise ont préalablement analysé les pseudo-mots qui avaient été enregistrés au niveau acoustique, en se focalisant sur la fréquence (haut/bas), la modulation temporelle (à quelle rapidité le son change à travers le temps) et la modulation spectrale (comment lénergie est rependue à travers les différentes fréquences). Ils ont constaté que pour différencier les voix, il fallait se concentrer sur les plus hautes variations spectrales, soit une grande variation des fréquences et des résonnances des sons. Au contraire, ce sont principalement les modulations temporelles rapides qui permettent de distinguer les phonèmes, aidés par les modulations spectrales basses.
Ils ont ensuite utilisé la modélisation computationnelle pour analyser les résultats de lIRM, soit de lactivation cérébrale dans le cortex auditif lors du traitement des sons durant les deux tâches. Lorsque les participants devaient se concentrer sur les voix, le cortex auditif amplifiait les hautes modulations spectrales. Pour les phonèmes, il répondait plus aux modulations temporelles rapides et aux modulations spectrales basses. «Dans les deux cas, nous voyons que les résultats danalyse des sons et celles des résultats de lIRM sont très similaires», se réjouit Narly Golestani.
Ces analyses comparatives permettent de relever que pendant lécoute, le cortex auditif amplifie laspect acoustique critique pour répondre à la tâche demandée: soit distinguer une voix, soit différencier des phonèmes. «Cest la première fois chez lhomme que lon démontre, à laide de méthodes non invasives, que le cerveau sadapte à la tâche et aux spécificités des informations acoustiques sur lesquelles on veut porter notre attention dans la parole», senthousiasme Sanne Rutten. Cette étude permet aujourdhui de comprendre les mécanismes du traitement des sons et des bases du traitement langagier par le cerveau. «Cela sera utile pour nos recherches futures, en particulier sur le traitement dautres niveaux de langage, y compris la sémantique, la syntaxe et la prosodie, thèmes que nous envisageons dexplorer dans le cadre dun Pôle de recherche national sur lorigine et lavenir du langage que nous avons demandé en collaboration avec des chercheurs de toute la Suisse», conclut Narly Golestani.
###