De récentes recherches montrent que les outils d'IA sont capables de décoder et de traduire toujours mieux, sous forme de textes et d’images, notre activité cérébrale, lorsque nous écoutons un récit, voulons parler ou regardons des images. L'équipe de Jean-Remy King a mis au point des algorithmes d’IA qui sont parvenus à reproduire avec fidélité des photographies regardées par des volontaires en se fondant sur l’analyse de l’activité de leur cerveau. Leurs observations sont présentées dans un preprint – une publication non encore relue par les pairs avant publication dans une revue scientifique. Elles portent sur des jeux de données obtenues par magnétoencéphalographie (MEG) ou par imagerie par résonance magnétique fonctionnelle (IRMf) sur des volontaires à qui des photographies étaient projetées. Ces données ont ensuite été soumises à une série de décodeurs par l’IA qui ont appris à les interpréter et à les retranscrire en images.
Le résultat ? Si la ressemblance entre l’original et la copie n’est pas parfaite, les similitudes sont souvent frappantes : un zèbre se trouve revêtu d’un mélange de peau de vache et d’okapi, une petite fille au cerf-volant se retrouve avec un objet non identifié au-dessus de la tête, mais un surfeur semble prendre la même vague que son modèle, et un skieur en combinaison rouge conserve la même posture que l’original. Effet waouh garanti, « même pour les chercheurs de notre équipe », admet Jean-Rémi King, chercheur académique (CNRS, ENS) en détachement pour cinq ans à Meta AI. « Il y a encore deux ans, je n’aurais pas pensé que ce type de résultat serait possible ».
Article rédigé par Georges Simmonds pour RT Flash