De l’autre côté du miroir: Si l’on se fie aux actualités scientifiques de cette semaine, il ne faudra pas longtemps avant que Big Brother ne regarde dans nos têtes. Dans la foulée de scientifiques américains révélant un modèle GPT qui décode les pensées humaines en mots, des chercheurs suisses ont démontré un modèle d’apprentissage automatique qui traduit l’activité neuronale chez la souris en vidéo.
Chercheurs à l’École Polytechnique Fédérale de Lausanne (EPFL) développé un algorithme d’apprentissage automatique appelé CEBRA – prononcé zèbre mais court pour Cconstant EmBeddings de haute dimension Renregistrements utilisant UNvariables auxiliaires. En termes simples, CEBRA est un modèle capable de décoder les images du cerveau d’une souris.
L’équipe a travaillé sur le projet pendant plus de dix ans avec des percées précoces dans le décodage de formes rudimentaires à partir de l’activité des ondes cérébrales chez les humains et les animaux. Désormais, grâce à l’apprentissage automatique avancé, des scientifiques de l’EPFL ont déchiffré des extraits de films entiers à partir des schémas de pensée de souris.
Dans ses expériences, l’équipe utilisé mesures de deux types de souris – celles avec des électrodes insérées dans leur cortex visuel et un ensemble de souris génétiquement modifiées dont les neurones brillent en vert lorsqu’ils sont actifs. Certaines souris ont vu un clip en noir et blanc d’un homme courant vers une voiture et récupérant quelque chose dans le coffre. Les données de ce sous-ensemble de souris ont été utilisées pour entraîner CEBRA à corréler l’activité cérébrale avec chaque image vidéo.
Un deuxième groupe a vu le même film pendant que CEBRA traitait l’activité cérébrale. Mis à part quelques bégaiements, probablement causés par les souris se déplaçant et ne prêtant pas toute leur attention, la vidéo décodée correspondait au clip réel.
Cela signifie-t-il que nous nous rapprochons d’une technologie capable de projeter les souvenirs ou les rêves d’une personne sur un écran de cinéma ou un écran d’ordinateur ? Pas exactement. N’oubliez pas que CEBRA ne pouvait le faire que parce qu’il avait été formé à l’avance avec le clip vidéo. Bien qu’il ne soit pas difficile d’imaginer que le modèle avance suffisamment pour reconnaître les images sans le pré-entraînement spécifique vu ici, c’est loin d’être atteint pour l’instant.
Les scientifiques voient davantage leur percée comme un nouvel outil de recherche. Ils disent que CEBRA fournira des informations sur les fonctions neurologiques et sur la façon dont le cerveau interprète les stimuli. Ils croient que cela s’avérera utile pour aider à diagnostiquer et à traiter les troubles cérébraux comme la maladie d’Alzheimer ou le syndrome de Gilles de la Tourette.
Cela dit, d’autres recherches publiées cette semaine ont révélé que nous sommes plus proches de la lecture des pensées avec des machines que nous ne l’avons jamais été. Des scientifiques de l’Université du Texas à Austin ont développé un modèle GPT qui analyse l’activité cérébrale dans les IRMf et les décode en mots avec une précision assez étonnante. La technologie est loin d’être parfaite, mais c’est la première fois qu’une machine est capable de décoder les pensées en descriptions verbales complexes plutôt qu’en mots simples ou en phrases très courtes.
Vous pouvez consulter une version pré-imprimée du CEBRA étude à l’arXiv de l’Université Cornell. Ils ont également posté les fichiers du logiciel sur GitHub à utiliser par d’autres neuroscientifiques.