Dies ist eine automatisch generierte Übersetzung. Wenn Sie auf den englischen Originaltext zugreifen möchten,
klicken Sie hier
#Produkttrends
{{{sourceTextContent.title}}}
Brain-Machine Interface kann synthetische Sprache basierend auf Gehirnaktivität erzeugen
{{{sourceTextContent.subTitle}}}
Forscher der UC San Francisco haben ein Brain-Machine-Interface entwickelt, das es sprachbehinderten Patienten ermöglichen kann, über das Gerät zu "sprechen". Die Forscher haben das System als Sprungbrett zu neuronalen Sprachprothesen beschrieben. Das System überwacht die Gehirnaktivität eines Benutzers und wandelt diese dann über einen virtuellen Gesangstrakt in natürlich klingende Sprache um. Diese Computersimulation beinhaltet anatomisch genaue Darstellungen von Kehlkopf, Zunge, Lippen und Kiefer.
{{{sourceTextContent.description}}}
Patienten können aufgrund einer Vielzahl von Faktoren, darunter neurodegenerative Erkrankungen, Schlaganfälle und Hirnverletzungen, die Fähigkeit zu sprechen verlieren. Aktuelle assistierende Technologien können es bestimmten Patienten ermöglichen, Wörter mit kleinen Gesichtsbewegungen und anderen Techniken zu buchstabieren. Obwohl diese Technologien zweifellos sehr nützlich sind, kann es zeitaufwendig sein, auf diese Weise zu kommunizieren.
Um diesen Patienten eine bessere Kommunikationsmöglichkeit zu bieten, haben Forscher eine Gehirn-Maschine-Schnittstelle entwickelt, die die Aktivität in den Sprachzentren des Gehirns in natürlich klingende Sprache umsetzen kann. Dies ist ein komplexes Unterfangen, da die Art und Weise, wie die Sprachzentren die Bewegungen des Stimmtraktes koordinieren, kompliziert ist.
"Die Beziehung zwischen den Bewegungen des Stimmtraktes und den erzeugten Sprachlauten ist kompliziert", sagt Gopala Anumanchipalli, ein an der Studie beteiligter Forscher. "Wir sind der Meinung, dass, wenn diese Sprachzentren im Gehirn eher Bewegungen als Geräusche kodieren, wir versuchen sollten, dasselbe bei der Dekodierung dieser Signale zu tun."
Die Forscher schufen einen virtuellen Gesangstrakt und nutzten dann das maschinelle Lernen, um die richtigen Klänge zu erzeugen. Freiwillige sagten bestimmte Sätze laut, während ihre Gehirnaktivität überwacht wurde. Das maschinelle Lernen wurde verwendet, um diese neuronalen Signale mit Bewegungen im virtuellen Stimmtrakt abzugleichen, die einen natürlichen Klang erzeugten, der der ursprünglichen Phrase sehr nahe kam.
"Wir haben noch einen Weg, um die gesprochene Sprache perfekt nachzuahmen", sagte Josh Chartier, ein weiterer Forscher, der an der Studie beteiligt war. "Wir sind ziemlich gut darin, langsamere Sprachsounds wie "sh" und "z" zu synthetisieren, sowie die Rhythmen und Intonationen der Sprache und das Geschlecht und die Identität des Sprechers beizubehalten, aber einige der abrupteren Sounds wie "b" und "p" werden etwas unscharf. Dennoch wäre die Genauigkeit, die wir hier produziert haben, eine erstaunliche Verbesserung der Echtzeitkommunikation im Vergleich zu dem, was derzeit verfügbar ist."
Die Forscher hoffen, dass die Technologie eine bequeme und leistungsstarke Kommunikationsmöglichkeit für diejenigen bieten könnte, die nicht sprechen können.
"Menschen, die ihre Arme und Beine nicht bewegen können, haben gelernt, Roboterglieder mit ihrem Gehirn zu kontrollieren", sagt Chartier. "Wir hoffen, dass Menschen mit Sprachbehinderungen eines Tages mit diesem hirngesteuerten künstlichen Stimmtrakt wieder sprechen lernen können."