Des études récentes ont montré que les systèmes d’intelligence artificielle sont désormais capables d’interpréter les signaux neuronaux générés par le cerveau et de les convertir en mots, en images ou même en intentions. En utilisant des techniques avancées d’apprentissage profond et des dispositifs de neuroimagerie tels que l’IRMf et l’EEG, l’IA peut détecter des schémas neuronaux associés à certaines pensées. Cette évolution ne signifie pas une lecture des pensées comme le montrent les films, mais plutôt une étape vers une communication directe avec des appareils sans mots ni mouvements. Alors qu’est-ce qui rend cette technologie possible ? Quels sont les défis éthiques et scientifiques liés à son utilisation ?
Sommaire
- L’intelligence artificielle peut décoder les ondes cérébrales sans chirurgie invasive, permettant ainsi de lire dans les pensées sans avoir recours à des implants physiques.
- Le décodage sémantique peut traduire les ondes cérébrales en phrases cohérentes, offrant ainsi la possibilité de convertir les pensées en texte.
- La technologie actuelle de lecture des pensées est précise, mais nécessite une formation approfondie et un équipement de laboratoire sophistiqué, et soulève des problèmes de confidentialité.
Imaginez une phrase et elle apparaîtra instantanément sur votre écran. Elle n'a pas écrit ni prononcé un mot. Cela ressemble à un épisode de Black Mirror, n'est-ce pas ?
Cependant, il existe des systèmes d’IA en cours de développement qui peuvent faire exactement cela. Vous n’avez même pas besoin de la puce cérébrale invasive d’Elon Musk.
Comment fonctionne la lecture des pensées par l’IA ?
Vous avez peut-être entendu parler de Neuralink. Il s’agit d’une petite puce capable de capturer l’activité neuronale et de l’envoyer sans fil à un ordinateur. Cette technologie en est encore à ses débuts, mais elle est capable de choses étonnantes.
Comme nous l'avons vu lors de récentes démonstrations, cette technologie permet à une personne paralysée de contrôler un curseur sur un écran en utilisant uniquement son esprit. L'entreprise espère que cette puce permettra un jour aux personnes paralysées de marcher et même de communiquer par télépathie.
Le problème est que la technologie Neuralink nécessite une chirurgie cérébrale risquée. Ce type d’implant convient aux personnes souffrant de handicaps graves, mais peut ne pas être réalisable pour la plupart des gens.
Votre cerveau envoie une émission secrète.
Étonnamment, vous n’avez pas réellement besoin d’insérer une puce dans votre cerveau pour lire son activité. Vous pouvez plutôt vous fier aux ondes cérébrales.
Lorsqu’un neurone de votre cerveau s’active, il envoie un faible courant électrique. Ce courant, à lui seul, est trop faible pour être mesuré en dehors de votre cerveau, mais les neurones ont tendance à se synchroniser et à pulser ensemble.
Lorsque des milliers d’entre eux se déclenchent ensemble en succession rythmique à l’intérieur du cerveau, le signal électrique est suffisamment fort pour être détecté à l’extérieur sur le cuir chevelu. C'est un peu comme la façon dont un stade rempli de gens applaudissant à l'unisson crée une pulsation que l'on peut ressentir à distance. De même, votre cuir chevelu est constamment en proie à une activité électrique.
C’est l’essence des ondes cérébrales : des schémas rythmiques qui reflètent ce que votre cerveau pense et fait à l’instant présent. Certains modèles montrent le repos et la relaxation, d’autres montrent la concentration ou la résolution de problèmes, et certains reflètent des dialogues internes. L’astuce consiste à les distinguer et à séparer les motifs significatifs du bruit.
Voilà donc l’idée de base : former l’IA à interpréter ces ondes et voir ce qu’elle extrait du bruit. Étonnamment, cette méthode fonctionne.
S'il vous plaît, calmez-vous, la machine scanne votre esprit en ce moment.
- Dans un test Mon laboratoireLa phrase suivante a été lue à une personne :
- « Je n’ai pas encore de permis de conduire. »
Il n'a pas parlé ni écrit un mot, mais a seulement écouté pendant que la machine scannait son cerveau (de manière non invasive).
L'IA a lu ce scan en temps réel, et voici son résultat :
« Tu n’as même pas encore commencé à apprendre à conduire. »
Notez que l'entrée n'est pas transcrite mot pour mot. Cette IA extrait du sens des pensées de l’auditeur. C'est de la lecture des pensées au sens littéral du terme.
Ce système est appelé « décodeur » et s’appuie sur des scanners IRMf pour décoder l’activité cérébrale. On lit des histoires aux participants ou on leur demande d’y réfléchir, et cela suffit à l’IA pour traduire leurs pensées.
Un participant a entendu la phrase suivante :
« Cette nuit-là, je suis monté dans notre chambre et, sans savoir quoi faire, j'ai éteint les lumières et me suis allongé par terre. »
L'IA a surveillé leur activité cérébrale et l'a traduite en :
« Nous sommes retournés dans ma chambre. Je ne savais pas où était mon lit. Je pensais que j'allais dormir dessus, mais je me suis allongé par terre. »
Le système va au-delà de la parole. Lorsque les participants regardent des vidéos silencieuses, l’IA peut raconter une partie de ce qu’ils regardent d’une manière qui décode leurs pensées en fonction des informations visuelles.
regarder à travers les yeux de quelqu'un d'autre
Regardez cette image.
Un volontaire a regardé l’image de gauche pendant une seconde alors qu’il était allongé dans un scanner IRMf. L'IA a lu son activité cérébrale et reconstruit son expérience visuelle dans l'image de droite.
L’image n’est pas toujours parfaite, mais elle est assez proche de la réalité.
Les chercheurs en méta ont poussé cette étonnante analyse cryptographique encore plus loin. Grâce à la magnétoencéphalographie (MEG), l’IA peut décoder ces entrées visuelles en temps réel, ou du moins presque. Cette analyse ne produit pas de résultats clairs et presque parfaits, mais elle reconstruit le flux visuel d’une personne : un flux en constante évolution de ce que le cerveau voit à chaque instant.
Dans un autre projet, Meta a utilisé le même matériel pour reconstruire des mots et des phrases entiers cohérents à partir de signaux cérébraux.
Parlez à Alexa avec votre esprit
La technologie dont nous avons parlé jusqu’à présent nécessite un équipement de laboratoire massif et sophistiqué. Cependant, des systèmes pratiques et portables sont également en cours de développement.
AlterEgo C'est un appareil portable qui vous permet de parler à des ordinateurs et à des chatbots intelligents sans avoir besoin de parler ou de faire des gestes. Lorsque vous pensez à parler, avant de prononcer un mot, il y a une activité musculaire imperceptible dans vos mâchoires et votre tête. Cet appareil portable peut capturer ces signaux musculaires et les traduire en entrées lisibles par ordinateur. L'ordinateur renvoie ensuite le résultat sous forme de son qui est transmis à travers les os.
Ainsi, vous pouvez dire silencieusement « Alexa, joue de la musique » et entendre « joue de la musique » via la conduction osseuse, sans émettre de son ni porter d’écouteurs.
Il ne s’agit pas d’une lecture de pensées au sens littéral du terme, car l’appareil ne lit pas vos émotions ni n’interprète vos pensées. C'est juste un moyen de communiquer avec les ordinateurs en utilisant votre dialogue interne.
Que peuvent réellement faire les systèmes d’IA pour lire dans les pensées ?
Ces systèmes d’IA sont encore confinés aux laboratoires, mais ils font lentement leur chemin dans le monde réel. Cela ouvrira une toute nouvelle dimension à la façon dont nous interagissons avec les ordinateurs et à leurs capacités.
Redonner la parole aux personnes handicapées
L’utilisation la plus urgente est de rétablir la communication pour les personnes handicapées. Les personnes atteintes de paralysie complète doivent recourir à des techniques lentes et peu pratiques, comme le suivi oculaire, pour écrire des lettres. Les systèmes d’IA comme les décodeurs sémantiques ou AlterEgo peuvent instantanément faire ressortir leurs pensées intérieures, leur redonnant ainsi la parole.
De nouveaux types d’outils et de fonctionnalités d’accessibilité peuvent être créés sur la base de ces systèmes. Ces systèmes élimineront le besoin de taper, de parler ou de se déplacer, offrant ainsi aux personnes qui ne peuvent pas parler un moyen clair de communiquer. Au lieu de sélectionner soigneusement les lettres en clignant des yeux, ils peuvent écrire ou contrôler des fauteuils roulants en utilisant uniquement leurs pensées.
Saisie à la vitesse de la pensée
Au lieu de claviers, de souris, de toucher ou de parole, ces systèmes d’IA peuvent nous aider à créer des interfaces alimentées par la pensée. Une fois ces technologies arrivées à maturité, vous pourrez contrôler votre téléphone ou votre ordinateur portable simplement en pensant à faire défiler ou à effectuer une recherche. Le système AlterEgo comprend et reçoit déjà des paroles subliminales, telles que « éteignez les lumières », en guise d’entrée.
Les interfaces basées sur le décodage des pensées sont presque instantanées. Ce n’est pas aussi fatigant que l’écriture, ni aussi complexe que la reconnaissance vocale.
Interfaces cerveau-écran
En fin de compte, vous n’aurez peut-être même pas besoin de le verbaliser intérieurement. Cela éliminera complètement le besoin d’écrire. Vos pensées iront directement de votre cerveau à l’écran. Cela changera non seulement notre façon d’écrire, mais aussi ce que signifie écrire.
Vous pouvez prendre des notes, sauter des chansons dans votre esprit ou écrire des programmes dans votre esprit à la vitesse de la pensée. La technologie de conversion du cerveau en texte de Meta en est encore à ses débuts, mais elle progresse progressivement. Environ 60 mots par minute - C'est-à-dire le double de la vitesse de frappe moyenne.
Étant donné que les décodeurs de vision en temps réel, tels que le dispositif MEG de Meta, sont capables de lire le contenu visuel à l'intérieur du cerveau, ce même contenu pourrait devenir une entrée pour un ordinateur. Au lieu d’essayer de penser à des mots, vous pouvez imaginer une image (ou quelque chose qui s’en rapproche) et elle apparaîtra sur l’écran.
Ils l’utilisent actuellement pour décoder les constructions mentales internes, mais un jour, cette technologie pourrait vous aider à envoyer des SMS en silence pendant les réunions.
Pourquoi n'est-il pas encore sur le marché ?
La technologie elle-même est bonne et fonctionne, mais la raison pour laquelle il n’existe pas de décodeurs sémantiques sur le marché est qu’ils ne sont pas encore généralisés.
exigences de formation excessives
Pour qu’un décodeur sémantique fonctionne avec une personne, l’IA doit être entraînée pendant des heures. Cela signifie que le participant doit passer des heures dans un scanner IRMf, à écouter des histoires, jusqu'à ce que l'IA puisse commencer à reconnaître les modèles d'activité neuronale de cette personne.
De plus, les résultats de l’IA sont perturbés si les participants cessent de collaborer. Le décodeur ne « vole » pas les pensées car il ne peut les interpréter que si la personne est disposée à le faire. S’il arrête de penser ou pense à d’autres pensées, le système ne fait que renvoyer la confusion.
Nécessite un équipement de laboratoire volumineux
Les décodeurs de pensées ou les dispositifs cerveau-écran nécessitent un équipement de laboratoire très sophistiqué. Le dispositif MEG de Meta, qui permet un retour visuel instantané et l'écriture de pensées, ne fonctionne que dans une pièce isolée magnétiquement, et les participants doivent rester complètement immobiles, sinon le résultat ne sera pas clair.
Même AlterEgo, qui évite la détection précise des ondes cérébrales en s'appuyant sur des mouvements musculaires subtils, se limite à des phrases courtes et pré-entraînées. Ne comprend pas les phrases complexes ou longues.
Pas toujours précis
Il y a un autre problème : la précision est toujours inférieure de deux niveaux. Le décodeur sémantique (qui rapporte le sens derrière les pensées) ne capte le sens correct que dans environ 50 % des cas. Le décodage cérébral de Meta AI est précis à 80 %.
Cette technologie mettra-t-elle fin à la vie privée ?
Dans la situation actuelle, nous sommes confrontés à une étape totalement inconnue. Une fois qu’une idée est numérisée et enregistrée, l’autocensure commence. Il ne s’agit pas de secrets enfouis dans votre esprit ; Il s’agit de la liberté de penser sans être censuré. Si quelqu’un pouvait surveiller, enregistrer et rejouer nos pensées, nous commencerions à les éditer en interne.
Si ces données vivent en dehors de notre cerveau sous la forme d’un enregistrement de nos pensées sur un navigateur Web, qui a le droit d’y accéder et d’en être propriétaire ?
Un tribunal peut-il émettre une assignation à comparaître pour obtenir votre esprit s’il n’y a pas d’autres preuves ou témoins ? Les thérapeutes n’auront peut-être même plus besoin de vous poser de questions. Ils peuvent simplement regarder vos pensées.
Les entreprises exploitent déjà nos vies numériques à la recherche de chaque donnée qu’elles peuvent extraire. Lorsque les idées deviennent numériques dans le monde réel, elles peuvent devenir un outil hautement intrusif pour ajuster les algorithmes et la publicité ciblée. Amazon peut savoir ce que vous voulez acheter, pas seulement deviner, et vous proposer des suggestions avant même que vous ne vous en rendiez compte.
La technologie de lecture des pensées existe déjà. Il reste à voir comment le monde changera lorsque cette technologie sera commercialisée.