Depuis une dizaine dannées, les chercheurs utilisent des techniques dintelligence artificielle appelées machine-learning pour décoder lactivité du cerveau humain. Ces algorithmes appliqués aux données de neuroimagerie peuvent reconstituer ce que lon voit, ce que lon entend, voire ce que lon pense. Ils montrent par exemple que les mots dont le sens est proche sont regroupés par zones dans différents endroits de notre cerveau. Pourtant, en enregistrant lactivité cérébrale pendant une tâche simple consistant à dire si lon entend BA ou DA, des neuroscientifiques de lUniversité de Genève (UNIGE) et de lEcole normale supérieure (ENS) à Paris démontrent aujourdhui que les zones cérébrales identifiées par le machine-learning ne sont pas forcément utilisées par notre cerveau pour réaliser une tâche, mais reflètent surtout les associations mentales liées à cette tâche. Si le machine-learning est donc efficace pour décoder lactivité mentale, il ne lest pas nécessairement pour comprendre les processus précis du traitement de linformation dans le cerveau. Des résultats à lire dans la revue PNAS.
Les techniques danalyse modernes des données neuroscientifiques ont récemment mis laccent sur lorganisation spatiale de la représentation des sons de la parole par le cerveau, que les chercheurs ont pu cartographier précisément par zone dactivité. Des neuroscientifiques de lUNIGE se sont alors demandés comment ces cartes spatiales étaient utilisées par le cerveau lui-même lorsquil exécute des tâches précises. «Nous avons employé toutes les techniques de neuroimagerie humaine à notre disposition pour tenter de répondre à cette question», explique Anne-Lise Giraud, professeure au Département des neurosciences fondamentales de la Faculté de médecine de lUNIGE.
Une zone focale pour sélectionner linformation
Les neuroscientifiques de lUNIGE ont fait écouter à une cinquantaine de personnes un continuum de syllabes allant de BA à DA, les phonèmes centraux étant très ambigus et difficiles à distinguer entre les deux possibilités. Ils ont ensuite examiné à laide de lIRM fonctionnelle et de la magnétoencéphalographie comment le cerveau se comporte quand le stimulus acoustique est très clair, ou au contraire lorsquil est ambigu et nécessite une représentation mentale active du phonème et son interprétation par le cerveau. «Nous avons constaté que quelle que soit la difficulté à classer la syllabe entendue entre BA et DA, la décision implique toujours une petite zone du lobe temporal supérieur postérieur», relève Anne-Lise Giraud.
Les neuroscientifiques ont ensuite vérifié leurs résultats sur un patient porteur dune lésion de la zone précise du lobe temporal supérieur postérieur qui sert à distinguer BA et DA. «Et effectivement, bien que ne souffrant daucun symptôme apparent, celui-ci nétait plus capable de distinguer les phonèmes BA et DA, confirmant limportance de cette petite zone pour le traitement de ce type dinformation phonémique», ajoute Sophie Bouton, chercheuse au sein de léquipe de Anne-Lise Giraud.
Les « faux positifs » du décodage par machine-learning
Mais linformation sur lidentité de la syllabe est-elle juste présente localement, comme le démontre lexpérience des scientifiques genevois, ou plus largement dans notre cerveau, comme le suggèrent les cartes réalisées par machine-learning ? Pour répondre à cette question, les neuroscientifiques ont reproduit la tâche BA/DA chez des personnes qui, pour des raisons médicales, sont porteuses délectrodes implantées directement dans leur cerveau. Cette technique permet de recueillir lactivité neurale très précisément. Une analyse dite uni-variée a permis de regarder électrode par électrode et contact par contact quelle zone du cerveau était recrutée pendant la tâche. Ici, seuls les contacts dans le lobe temporal supérieur postérieur étaient actifs, confirmant le résultat de létude genevoise.
Cependant, lorsque lensemble des données a été soumis à un algorithme de machine-learning permettant un décodage dit multivarié des données, des résultats positifs ont pu être observés dans la totalité du lobe temporal et même au delà. «Les algorithmes dapprentissage sont intelligents mais ignorants», précise Anne-Lise Giraud. «Ils sont très sensibles et utilisent toute linformation contenue dans les signaux, mais ils ne nous permettent pas de savoir si cette information a servi pour effectuer la tâche ou si elle reflète les conséquences de cette tâche, à savoir la diffusion de linformation dans notre cerveau», continue Valérian Chambon, chercheur au Département dEtudes Cognitives de lENS. Les zones cartographiées en dehors du lobe temporal supérieur postérieur sont donc en quelque sorte des faux positifs. Elles contiennent de linformation concernant la décision prise par le sujet (BA ou DA), mais nont pas été mobilisées pour réaliser la tâche.
Ces recherches offrent lopportunité de mieux comprendre comment notre cerveau se représente les syllabes et invitent à une réflexion salutaire sur linterprétation des données produites par les algorithmes de « machine-learning » en montrant les limites de lintelligence artificielle dans certains contextes de recherche.
###
Journal
Proceedings of the National Academy of Sciences