L’implant cérébral aide les femmes à paralysie à parler à nouveau de sa propre voix

 L’implant cérébral aide les femmes à paralysie à parler à nouveau de sa propre voix


Les chercheurs ont développé une nouvelle méthode pour intercepter signaux neuronaux du cerveau d’une personne atteinte de paralysie et de la traduire dans un discours audible – le tout en temps quasi réel. Le résultat est un interface cérébrale (BCI) Système similaire à une version avancée de Google Translate, mais au lieu de convertir une langue à une autre, il déchiffre les données neuronales et les transforme en phrases parlées.

Les progrès récents de l’apprentissage automatique ont permis aux chercheurs de se former IA Les synthétiseurs vocaux utilisant des enregistrements de la propre voix de l’individu, rendant le discours généré plus naturel et personnalisé. Les patients atteints de paralysie ont déjà utilisé le BCI pour améliorer la fonction de contrôle moteur physique par Contrôle des souris informatiques et membres prothétiques. Ce système particulier aborde une sous-section plus spécifique de patients qui ont également perdu leur capacité à parler. Lors des tests, le patient paralysé a pu lire silencieusement des phrases en texte intégral, qui ont ensuite été converties en discours par la voix de l’IA avec un retard de moins de 80 millisecondes.

Les résultats de l’étude étaient Publié cette semaine dans la revue Neuroscience de la nature par une équipe de chercheurs de l’Université de Californie à Berkeley et de l’Université de Californie à San Francisco.

« Notre approche de streaming apporte la même capacité de décodage de la parole rapide de dispositifs comme Alexa et Siri aux neuroprostheses », a déclaré le professeur de l’UC Berkeley et co-chercheur de l’étude Gopala Anuchianchipalli dans un communiqué. « En utilisant un type d’algorithme similaire, nous avons constaté que nous pouvions décoder les données neuronales et, pour la première fois, permettre le streaming vocal presque synchronique. Le résultat est une synthèse de la parole plus naturaliste et couramment. »

Comment les chercheurs ont analysé les signaux cérébraux

Les chercheurs ont travaillé avec une femme paralysée nommée Ann, qui a perdu sa capacité à parler à la suite d’un accident non spécifié. Pour collecter des données neuronales, l’équipe a implanté un réseau d’électrocorticographie à haute densité (ECOG) de 253 canaux sur la zone de son cerveau responsable du contrôle des moteurs de la parole. Ils ont enregistré son activité cérébrale alors qu’elle a silencieusement des phrases en bouche ou en mime affichées sur un écran. Ann a finalement reçu des centaines de phrases, toutes basées sur un vocabulaire limité de 1 024 mots. Cette phase initiale de collecte de données a permis aux chercheurs de commencer à décoder ses pensées.

Crédit: Cheol Jun Cho

« Nous interceptons essentiellement les signaux où la pensée est traduite en articulation et au milieu de ce contrôle moteur », a déclaré le co-auteur de l’étude, Cheol Jun Cho, dans un communiqué. « Donc, ce que nous décodons, c’est après une pensée, après avoir décidé quoi dire, après avoir décidé quels mots utiliser et comment déplacer nos muscles vocaux. »

Les données neuronales décodées ont ensuite été traitées via un modèle d’IA de texte vocal formé sur de vrais enregistrements vocaux d’Ann avant sa blessure. Bien que divers outils existaient depuis longtemps pour aider les personnes atteintes de paralysie à communiquer, elles sont souvent trop lentes pour une conversation naturelle et va-nord. Le physicien théoricien tardif Stephen Hawking, par exemple, utilisé un synthétiseur informatique et vocal pour parlermais l’interface limitée du système lui a permis de produire seulement 10 à 15 mots par minute. Des modèles d’interface cérébrale plus avancés (BCI) ont une vitesse de communication considérablement améliorée, mais ils ont encore lutté avec un décalage d’entrée. Une version précédente de ce modèle d’IA, développée par la même équipe de recherche, par exemple, avait un délai moyen de huit secondes entre le décodage des données neuronales et la production de discours.

En rapport: (Cette casquette est un grand pas vers les interfaces universelles et non invasives)

Cette dernière percée a réduit le délai des contributions à moins d’une seconde – une amélioration des chercheurs attribuent à des progrès rapides de l’apprentissage automatique dans l’industrie de la technologie ces dernières années. Contrairement aux modèles précédents, qui attendaient qu’Ann termine une pensée complète avant de la traduire, ce système «décode continuellement» tout en le vocalisant simultanément. Pour Ann, cela signifie qu’elle peut maintenant s’entendre parler une phrase de sa propre voix dans une seconde de la pensée.

Une démonstration vidéo de l’essai clinique montre Ann regardant l’expression «You Love Me» sur un écran devant elle. Quelques instants plus tard, le modèle d’IA – entraîné de sa propre voix – propose les mots à haute voix. Quelques secondes après, elle répéte avec succès les phrases « alors l’avez-vous fait » et « où avez-vous obtenu cela? » Ann aurait apprécié que le discours synthétisé ressemblait à sa propre voix.

« Entendre sa propre voix à un temps presque réel a augmenté son sens de l’incarnation », a déclaré Anuanchipalli.

Les interfaces informatiques du cerveau quittent le laboratoire

Cette progression intervient alors que les BCI gagnent en reconnaissance du public. Neuralink, fondée par Elon Musk en 2016, a déjà réussi à implanter son appareil BCI chez trois patients humains. Le premier, un Un homme de 30 ans nommé Noland Arbaugh Avec la quadriplégie, dit que l’appareil lui a permis de contrôler une souris informatique et de jouer à des jeux vidéo en utilisant uniquement ses pensées. Depuis lors, Neuralink a mis à niveau le système avec plus d’électrodes, ce qui, selon la société, devrait fournir une plus grande bande passante et une durée de vie de la batterie plus longue. Neurale Récemment reçu une désignation spéciale de la Food and Drug Administration (FDA) pour explorer un appareil similaire visant à restaurer la vue. Pendant ce temps, Synchron, une autre entreprise de premier plan BCI, a récemment démontré qu’un patient vivant avec la SLA pouvait Faire fonctionner un Apple Vision Pro Chef de réalité mixte en utilisant uniquement les entrées neuronales.

«L’utilisation de ce type de réalité améliorée est si percutante et je peux imaginer que ce serait pour d’autres personnes dans ma position ou d’autres qui ont perdu la capacité de s’engager dans leur vie quotidienne», un patient synchron dit dans un communiqué. «Cela peut vous transporter dans des endroits que vous n’auriez jamais pensé que vous verriez ou expérimenterais à nouveau.»

Bien que le domaine soit principalement dominé par les startups américaines, d’autres pays rattrapent leur retard. Cette semaine, une entreprise chinoise de BCI appelée Neucyber Neurotech a annoncé qu’elle avait inséré sa propre puce BCI semi-invasive en trois patients au cours du mois dernier. L’entreprise, selon Reutersprévoit d’implanter son dispositif «Beinao n ° 1» en 10 patients supplémentaires d’ici la fin de l’année.

Cela dit, il faudra toujours du temps avant que les BCI puissent ramener de manière significative le dialogue conversationnel dans la vie quotidienne pour ceux qui n’ont plus la capacité de discours. Les chercheurs de Californie disent que leurs prochaines étapes consistent à améliorer leurs méthodes d’interception et leurs modèles d’IA pour mieux refléter les changements dans le ton vocal et la hauteur, deux éléments cruciaux pour communiquer l’émotion. Ils travaillent également à réduire encore leur latence déjà faible.

« C’est un travail en cours, pour essayer de voir à quel point nous pouvons réellement décoder ces caractéristiques paralinguistiques de l’activité cérébrale », a déclaré Kaylo Littlejohn, doctorant UC Berkeley.

Plus d’offres, d’avis et de guides d’achat



Source link

Related post