Der A.I.-Algorithmus kann herausfinden, welche Musik in deinem Kopf gespielt wird

Die meisten von uns haben Apps wie Shazam benutzt, die Lieder identifizieren können, wenn wir unser Telefon an einen Lautsprecher halten. Aber was wäre, wenn es für eine App möglich wäre, ein Musikstück zu identifizieren, das auf nichts anderem als Ihren Denkmustern basiert? Unmöglich? Möglicherweise nicht, sagt eine neue Forschung, die an der Universität von Kalifornien, Berkeley durchgeführt wird.

Im Jahr 2014 verwendeten der Forscher Brian Pasley und seine Kollegen einen Algorithmus und eine Gehirnaktivität, gemessen mit Elektroden, um die Gedanken einer Person in digital synthetisierte Sprache zu verwandeln. Dies wurde erreicht, indem die Gehirnströme einer Person während des Sprechens analysiert wurden, um die Verbindung zwischen Sprache und Gehirnaktivität zu entschlüsseln.

Jetzt wurde die Forschung verbessert und ihre Entdeckungen an der Musik angewendet. Konkret konnten sie genau vorhersagen, woran ein Pianist denkt, basierend auf der Gehirnaktivität.

"Während der Hörwahrnehmung, wenn man Geräusche wie Sprache oder Musik hört, wissen wir, dass bestimmte Teile der Hörrinde diese Geräusche in akustische Frequenzen zerlegen - zum Beispiel tiefe oder hohe Töne", sagte Pasley zu Digital Trends. "Wir testeten, ob dieselben Hirnareale auch imaginäre Klänge so verarbeiten, wie Sie intern den Klang Ihrer eigenen Stimme verbalisieren oder sich den Klang klassischer Musik in einem stillen Raum vorstellen. Wir haben festgestellt, dass es große Überschneidungen gibt, aber auch deutliche Unterschiede in der Art und Weise, wie das Gehirn den Klang imaginärer Musik repräsentiert. Indem wir ein maschinelles Lernmodell der neuronalen Repräsentation von imaginiertem Klang bauten, nutzten wir das Modell, um mit angemessener Genauigkeit zu erraten, welcher Klang zu jedem Zeitpunkt erdacht wurde."

Für die Studie nahm das Team die Gehirnaktivität eines Pianisten auf, wenn er Musik auf einem elektrischen Keyboard spielte. Auf diese Weise konnten sie sowohl die Gehirnmuster als auch die gespielten Töne aufeinander abstimmen. Dann führten sie das Experiment erneut durch, schalteten aber den Klang des Keyboards aus und baten den Musiker, sich die Noten so vorzustellen, wie er sie spielte. Dieses Training ermöglichte es ihnen, ihren Musikvorhersage-Algorithmus zu erstellen.

"Das langfristige Ziel unserer Forschung ist die Entwicklung von Algorithmen für eine Sprachprothese zur Wiederherstellung der Kommunikation bei gelähmten Personen, die nicht sprechen können", sagte Pasley. "Wir sind weit davon entfernt, dieses Ziel zu erreichen, aber diese Studie stellt einen wichtigen Schritt nach vorn dar. Es zeigt, dass das neuronale Signal während der Hörbilder ausreichend robust und präzise ist für den Einsatz in maschinellen Lernalgorithmen, die akustische Signale der gemessenen Gehirnaktivität vorhersagen können."

Ein Papier, das die Arbeit beschreibt, wurde kürzlich in der Zeitschrift Cerebral Cortex veröffentlicht.