Ordinateurs

Les interfaces cerveau-ordinateur se rapprochent du rêve bionique et mecha

Ce site peut gagner des commissions d’affiliation à partir des liens sur cette page. Conditions d’utilisation.

Une équipe d’ingénieurs en neurosciences de l’Université du Minnesota a créé la première interface cerveau-ordinateur (BCI) qui permet à l’utilisateur humain de naviguer dans un espace 3D. Lors des tests, les sujets ont piloté un hélicoptère virtuel à travers des anneaux placés au hasard avec un taux de réussite de 85 % et à une vitesse impressionnante : certains testeurs ont réussi à traverser 11 anneaux consécutifs en cinq minutes. Si vous voulez le voir par vous-même, il y a une vidéo intégrée ci-dessous.

Tout comme le Vélos et voitures contrôlés par BCI que nous avons couvert en août, l’équipe du Minnesota a utilisé un EEG cap – un réseau de 64 électrodes sur le cuir chevelu qui mesurent les ondes cérébrales – et un logiciel complexe pour déterminer, en temps réel, quelle manœuvre le pilote d’hélicoptère essaie d’effectuer. Pour ce faire, chaque sujet de test devait entraîner le système à ses ondes cérébrales individuelles en déplaçant à plusieurs reprises un curseur sur un écran, en pensant à bouger ses bras, ses jambes et sa langue. Le logiciel a également été légèrement personnalisé pour chaque sujet, afin d’augmenter la précision.

Ensuite, lorsque tout est calibré et prêt à fonctionner, les sujets de test peuvent piloter l’hélicoptère virtuel de manière continue et en temps réel. En imaginant bouger les deux mains, l’hélicoptère avance ; imaginez que les deux mains restent immobiles et que l’hélicoptère s’arrête. Pour faire pivoter, le sujet bouge une main gauche ou droite. Prendre de l’altitude s’obtient en pensant à bouger la langue – et vous utilisez vos pieds pour descendre. Comme vous pouvez le voir dans la vidéo ci-dessous, cette approche est étonnamment rapide et d’une précision époustouflante.

Psssssst :  Intel met fin aux garanties d'overclocking alors que le passe-temps continue de mourir

Contrôle de l'hélicoptère via des mouvements corporels imaginaires

Les répercussions sur le BCI du Minnesota (il ne semble pas avoir d’autre nom) sont vastes. L’application la plus évidente se situe dans le domaine des prothèses : la semaine dernière seulement, nous avons entendu parler d’un bras prothétique qui permet à l’utilisateur sentir ce que le bras ressent — mais imaginez si l’utilisateur pouvait également contrôler le bras en continu et en temps réel. Si le système était précis et tactile, vous auriez essentiellement un bionique bras – et je serais le premier à faire remplacer mes bras grêles et geek par des équivalents de robots.

Ensuite, il y a des personnes qui manquent de toute une gamme de mouvements, comme celles qui ont subi des lésions cérébrales ou qui sont atteintes de paralysie. Le BCI du Minnesota pourrait donner à ces personnes le contrôle de certains bras et jambes – et puis nous sommes fous territoire mecha! Enfin, il y a les implications du jeu, de la réalité augmentée et du monde virtuel : pourquoi utiliser une souris ou une manette de jeu alors que vous pouvez simplement penser à filmer votre BFG 9000?

Lire la suite sur Research.govou consultez le document de recherche de l’Université du Minnesota

Bouton retour en haut de la page