RTFlash

Vivant

Une interface cerveau-machine redonne la parole à un homme atteint de la maladie de Charcot

Des scientifiques de l’UC Davis Health ont mis au point une nouvelle interface cerveau-machine (BCI) qui « traduit les signaux cérébraux en paroles avec une précision allant jusqu’à 97 % ». Il s’agirait de « la neuroprothèse vocale la plus précise jamais évaluée ». Après qu’on lui a implanté des capteurs dans le cerveau, un homme souffrant de graves troubles de la parole dus à une sclérose latérale amyotrophique (SLA) a pu « communiquer le discours qu’il souhaitait prononcer dans les minutes qui ont suivi l’activation du système ». Ces travaux, menés dans la cadre de l’essai clinique BrainGate (cf. Une interface cerveau-machine pour écrire uniquement par la pensée), ont été publiés dans le New England Journal of Medicine. 

Ce système a été mis au point pour « rétablir la communication » chez les personnes qui ne peuvent pas parler en raison d’une paralysie ou d’une maladie neurologique telle que la SLA. Il peut « interpréter » les signaux cérébraux lorsque l’utilisateur essaie de parler et les transformer en texte qui est « prononcé » à haute voix par l’ordinateur. « Notre objectif était de mettre au point un système qui permette à une personne d’être comprise chaque fois qu’elle souhaite parler », explique David Brandman, neurochirurgien à UC Davis.

Casey Harrell, un homme de 45 ans atteint de la maladie de Charcot, a utilisé le système dans le cadre d’une conversation spontanée ou guidée. Dans les deux cas, le décodage de la parole s’est fait en temps réel, avec des mises à jour continues du système pour assurer son bon fonctionnement. La "voix" de l’ordinateur a été conçue à partir d’échantillons audio existants de la voix de Casey Harrell avant la maladie. Lors de la première session, il a fallu 30 minutes au système pour atteindre une précision de 99,6 % sur un vocabulaire de 50 mots. « La première fois que nous avons essayé le système, il a pleuré de joie lorsque les mots qu’il essayait de prononcer correctement sont apparus à l’écran. Nous avons tous pleuré », témoigne Sergey Stavisky, professeur adjoint au département de chirurgie neurologique de l’UC Davis.

Lors de la deuxième session, le vocabulaire potentiel est passé à 125 000 mots. L’interface a atteint une précision de 90,2 % avec « seulement 1,4 heure supplémentaire de données d’entraînement ». Une collecte continue de données a ensuite permis d’atteindre une précision de 97,5 %. « A ce stade, nous pouvons décoder correctement ce que Casey essaie de dire environ 97 % du temps, ce qui est mieux que de nombreuses applications pour smartphone disponibles dans le commerce qui tentent d’interpréter la voix d’une personne », affirme David Brandman. Cette technologie « donne de l’espoir aux personnes qui veulent parler ».

Article rédigé par Georges Simmonds pour RT Flash

NEJM

Noter cet article :

 

Vous serez certainement intéressé par ces articles :

Recommander cet article :

back-to-top