Neurointerfaces - Technologien, die Gehirn und Computer verbinden - werden allmählich zur Routine: Wir haben bereits gesehen, wie eine Person mithilfe von mentalen Befehlen eine Prothese steuern oder Text auf einem Computer eingeben kann. Bedeutet dies, dass die Versprechen von Science-Fiction-Autoren, die über das vollständige Lesen von Gedanken mit einem Computer oder sogar über die Übertragung des menschlichen Bewusstseins in einen Computer geschrieben haben, bald Wirklichkeit werden? Das gleiche Thema - "Augmented Personality" - ist 2019 dem von der gemeinnützigen Stiftung Sistema organisierten Science-Fiction-Wettbewerb "Future Time" gewidmet. Gemeinsam mit den Organisatoren des Wettbewerbs haben die N + 1-Redakteure herausgefunden, wozu moderne neuronale Schnittstellen in der Lage sind und ob wir wirklich eine vollwertige Gehirn-Computer-Verbindung herstellen können. Und Alexander Kaplan hat uns dabei geholfen,Gründer des ersten russischen Schnittstellenlabors an der Moskauer Staatlichen Universität Lomonossow.
Hacke den Körper
Neil Harbisson hat eine angeborene Achromatopsie, die ihn des Farbsehens beraubt hat. Der Brite, der sich entschied, die Natur zu täuschen, implantierte eine spezielle Kamera, die Farbe in Klanginformationen umwandelt und an das Innenohr sendet. Neil sieht sich als der erste vom Staat offiziell anerkannte Cyborg.
In den USA demonstrierte Andrew Schwartz von der University of Pittsburgh 2012 eine gelähmte 53-jährige Patientin, die mithilfe von in ihr Gehirn implantierten Elektroden Signale an einen Roboter sendete. Sie lernte den Roboter so gut zu steuern, dass sie sich eine Tafel Schokolade servieren konnte.
Im selben Labor streckte ein 28-jähriger Patient mit einer schweren Wirbelsäulenverletzung im Jahr 2016 Barack Obama, der ihn besuchte, eine gehirngesteuerte künstliche Hand entgegen. Sensoren an der Hand ermöglichten es dem Patienten, den Händedruck des 44. Präsidenten der Vereinigten Staaten zu spüren.
Die moderne Biotechnologie ermöglicht es den Menschen, die Grenzen ihres Körpers zu "knacken" und eine Symbiose zwischen dem menschlichen Gehirn und dem Computer herzustellen. Es scheint, dass alles auf die Tatsache zusteuert, dass Bioengineering bald Teil des Alltags werden wird.
Werbevideo:
Was wird als nächstes passieren? Der Philosoph und Futurist Max More, ein Anhänger der Idee des Transhumanismus, hat seit dem Ende des letzten Jahrhunderts die Idee des Übergangs des Menschen zu einer neuen Evolutionsstufe unter anderem unter Verwendung von Computertechnologien entwickelt. In der Literatur und im Kino der letzten zwei Jahrhunderte ist ein ähnliches Spiel futuristischer Vorstellungskraft ins Wanken geraten.
In der Welt von William Gibbsons Science-Fiction-Roman Neuromancer, der 1984 veröffentlicht wurde, wurden Implantate entwickelt, mit denen der Träger eine Verbindung zum Internet herstellen, seine intellektuellen Fähigkeiten erweitern und Erinnerungen wiedererleben kann. Masamune Shiro, der Autor des kürzlich in den USA gedrehten japanischen Science-Fiction-Mangas "Ghost in the Shell", beschreibt eine Zukunft, in der jedes Organ durch Bionik ersetzt werden kann, bis zur vollständigen Übertragung des Bewusstseins in den Körper eines Roboters.
Wie weit können neuronale Schnittstellen in einer Welt gehen, in der Unwissenheit einerseits Fantasien vervielfacht und Fantasien andererseits oft als Vorsehung erscheinen?
Potenzieller unterschied
Das Zentralnervensystem (ZNS) ist ein komplexes Kommunikationsnetzwerk. Allein im Gehirn gibt es mehr als 80 Milliarden Neuronen, und es gibt Billionen von Verbindungen zwischen ihnen. Jede Millisekunde innerhalb und außerhalb einer Nervenzelle ändert sich die Verteilung der positiven und negativen Ionen und bestimmt, wie und wann sie auf ein neues Signal reagieren. In Ruhe hat das Neuron ein negatives Potential gegenüber der Umgebung (im Durchschnitt -70 Millivolt) oder ein "Ruhepotential". Mit anderen Worten, es ist polarisiert. Wenn ein Neuron ein elektrisches Signal von einem anderen Neuron empfängt, müssen positive Ionen in die Nervenzelle gelangen, damit es weiter übertragen werden kann. Depolarisation tritt auf. Wenn die Depolarisation einen Schwellenwert erreicht (ungefähr -55 Millivolt, dieser Wert kann jedoch variieren),Die Zelle wird angeregt und lässt immer mehr positiv geladene Ionen ein, wodurch ein positives Potential oder "Aktionspotential" entsteht.
Aktionspotential.
Ferner wird das Aktionspotential entlang des Axons (Zellkommunikationskanal) an den Dendriten - den Empfängerkanal der nächsten Zelle - übertragen. Axon und Dendrit sind jedoch nicht direkt miteinander verbunden, und der elektrische Impuls kann nicht einfach von einem zum anderen übertragen werden. Der Kontaktort zwischen ihnen wird als Synapse bezeichnet. Synapsen produzieren, senden und empfangen Neurotransmitter - chemische Verbindungen, die ein Signal vom Axon einer Zelle direkt zum Dendriten einer anderen "weiterleiten".
Wenn der Impuls das Ende des Axons erreicht, setzt er Neurotransmitter in den synaptischen Spalt frei, durchquert den Raum zwischen den Zellen und bindet sich an das Ende des Dendriten. Sie zwingen den Dendriten, positiv geladene Ionen einzulassen, sich vom Ruhepotential zum Aktionspotential zu bewegen und ein Signal an den Zellkörper zu übertragen.
Der Typ des Neurotransmitters bestimmt auch, welches Signal weiter gesendet wird. Beispielsweise führt Glutamat zu einem neuronalen Brennen, Gamma-Aminobuttersäure (GABA) ist ein wichtiger Hemmmediator, und Acetylcholin kann je nach Situation beides.
So sieht ein Neuron schematisch aus:
Neuronendiagramm.
Und so sieht es in der Realität aus:
Neuron unter dem Mikroskop.
Darüber hinaus hängt die Antwort der Empfängerzelle von der Anzahl und dem Rhythmus der eingehenden Impulse, von Informationen aus anderen Zellen sowie von dem Gehirnbereich ab, von dem das Signal gesendet wurde. Verschiedene Hilfszellen, das endokrine und Immunsystem, die äußere Umgebung und frühere Erfahrungen - all dies bestimmt den aktuellen Zustand des Zentralnervensystems und beeinflusst dadurch das menschliche Verhalten.
Und obwohl das Zentralnervensystem nach unserem Verständnis kein Satz von "Drähten" ist, basiert die Arbeit von Neurointerfaces genau auf der elektrischen Aktivität des Nervensystems.
Positiver Sprung
Die Hauptaufgabe der Neurointerface besteht darin, das vom Gehirn kommende elektrische Signal zu dekodieren. Das Programm verfügt über eine Reihe von "Vorlagen" oder "Ereignissen", die aus verschiedenen Signaleigenschaften bestehen: Vibrationsfrequenzen, Spitzen (Aktivitätsspitzen), Positionen auf der Kortikalis usw. Das Programm analysiert die eingehenden Daten und versucht, diese Ereignisse darin zu erkennen.
Die weiter gesendeten Befehle hängen vom erzielten Ergebnis sowie von der Funktionalität des Gesamtsystems ab.
Ein Beispiel für ein solches Muster ist das evozierte Potential P300 (Positive 300), das häufig für die sogenannten Rechtschreibprüfungen verwendet wird - Mechanismen zum Schreiben von Text mithilfe von Gehirnsignalen.
Wenn eine Person das benötigte Symbol auf dem Bildschirm sieht, kann nach 300 Millisekunden ein positiver Sprung des elektrischen Potentials bei der Aufzeichnung der Gehirnaktivität festgestellt werden. Beim Erkennen des P300 sendet das System einen Befehl zum Drucken des entsprechenden Zeichens.
In diesem Fall kann der Algorithmus das Potential aufgrund des Rauschpegels des Signals nicht durch zufällige elektrische Aktivität aus einer Zeit erfassen. Daher muss das Symbol mehrmals dargestellt und die erhaltenen Daten gemittelt werden.
Zusätzlich zu einer einstufigen Änderung des Potentials kann die Neuro-Schnittstelle nach Änderungen der rhythmischen (d. H. Oszillatorischen) Aktivität des Gehirns suchen, die durch ein bestimmtes Ereignis verursacht werden. Wenn eine ausreichend große Gruppe von Neuronen in einen synchronen Rhythmus von Aktivitätsschwankungen eintritt, kann dies im Signalspektrogramm in Form von ERS (ereignisbezogene Synchronisation) erfasst werden. Wenn im Gegenteil eine Desynchronisation von Schwingungen vorliegt, enthält das Spektrogramm ERD (ereignisbezogene Desynchronisation).
In dem Moment, in dem eine Person eine Handbewegung ausführt oder sich diese einfach vorstellt, wird ERD im motorischen Kortex der gegenüberliegenden Hemisphäre bei einer Schwingungsfrequenz von etwa 10–20 Hertz beobachtet.
Diese und andere Vorlagen können dem Programm manuell zugewiesen werden, werden jedoch häufig während der Arbeit mit jeder einzelnen Person erstellt. Unser Gehirn ist wie die Merkmale seiner Aktivität individuell und erfordert eine Anpassung des Systems an es.
Aufnahmeelektroden
Die meisten Neurointerfaces verwenden die Elektroenzephalographie (EEG), um die Aktivität aufzuzeichnen, dh aufgrund ihrer relativen Einfachheit und Sicherheit eine nicht-invasive Methode der Bildgebung. An der Oberfläche des Kopfes angebrachte Elektroden registrieren die Änderung des elektrischen Feldes, die durch die Änderung des Potentials der Dendriten verursacht wird, nachdem das Aktionspotential die Synapse "überschritten" hat.
In dem Moment, in dem positive Ionen in den Dendriten eindringen, wird in der Umgebung ein negatives Potential gebildet. Am anderen Ende des Neurons verlassen Ionen mit der gleichen Ladung die Zelle und erzeugen ein positives Potential im Freien. Der das Neuron umgebende Raum verwandelt sich in einen Dipol. Das sich vom Dipol ausbreitende elektrische Feld wird von einer Elektrode aufgezeichnet.
Leider weist die Methode mehrere Einschränkungen auf. Der Schädel, die Haut und andere Schichten, die Nervenzellen von den Elektroden trennen, sind zwar Leiter, aber nicht gut genug, um Informationen über das Signal nicht zu verfälschen.
Die Elektroden können nur die Gesamtaktivität vieler benachbarter Neuronen aufzeichnen. Der Hauptbeitrag zum Messergebnis stammt von Neuronen in den oberen Schichten des Kortex, deren Prozesse senkrecht zu seiner Oberfläche verlaufen, da sie den Dipol erzeugen, dessen elektrisches Feld der Sensor am besten erfassen kann.
All dies führt zum Verlust von Informationen aus tiefen Strukturen und zu einer Verringerung der Genauigkeit, sodass das System gezwungen ist, mit unvollständigen Daten zu arbeiten.
Invasive Elektroden, die auf der Oberfläche oder direkt im Gehirn implantiert werden, ermöglichen eine viel größere Genauigkeit.
Wenn die gewünschte Funktion mit den Oberflächenschichten des Gehirns verbunden ist (z. B. motorische oder sensorische Aktivität), ist die Implantation auf das Trepanieren und Anbringen von Elektroden an der Oberfläche des Kortex beschränkt. Sensoren lesen die gesamte elektrische Aktivität vieler Zellen, aber dieses Signal ist nicht so verzerrt wie im EEG.
Wenn die tiefer liegende Aktivität wichtig ist, werden die Elektroden in die Kortikalis eingeführt. Es ist sogar möglich, die Aktivität einzelner Neuronen mit speziellen Mikroelektroden zu registrieren. Leider stellt die invasive Technik eine potenzielle Gefahr für den Menschen dar und wird in der medizinischen Praxis nur in extremen Fällen eingesetzt.
Es besteht jedoch die Hoffnung, dass die Technik in Zukunft weniger traumatisch wird. Das amerikanische Unternehmen Neuralink plant, die Idee umzusetzen, Tausende dünner flexibler Elektroden sicher einzuführen, ohne mit einem Laserstrahl in den Schädel zu bohren.
Mehrere andere Labore arbeiten an biologisch abbaubaren Sensoren, die Elektroden aus dem Gehirn entfernen.
Banane oder Orange?
Die Signalaufzeichnung ist nur der erste Schritt. Als nächstes müssen Sie es "lesen", um die Absichten dahinter zu bestimmen. Es gibt zwei Möglichkeiten, die Gehirnaktivität zu dekodieren: Lassen Sie den Algorithmus die relevanten Merkmale aus dem Datensatz selbst auswählen oder geben Sie dem System eine Beschreibung der zu suchenden Parameter.
Im ersten Fall klassifiziert der Algorithmus, der nicht durch Suchparameter beschränkt ist, das "rohe" Signal selbst und findet Elemente, die Absichten mit der höchsten Wahrscheinlichkeit vorhersagen. Wenn ein Subjekt beispielsweise abwechselnd mit der rechten und der linken Hand über Bewegung nachdenkt, kann das Programm die Signalparameter finden, die eine Option maximal von der anderen unterscheiden.
Das Problem bei diesem Ansatz besteht darin, dass die Parameter, die die elektrische Aktivität des Gehirns beschreiben, zu mehrdimensional sind und die Daten mit verschiedenen Geräuschen zu verrauscht sind.
Beim zweiten Decodierungsalgorithmus muss im Voraus bekannt sein, wo und wonach gesucht werden muss. Im oben beschriebenen Beispiel der P300-Schreibweise wissen wir beispielsweise, dass sich das elektrische Potenzial auf eine bestimmte Weise ändert, wenn eine Person ein Symbol sieht. Wir bringen dem System bei, nach diesen Änderungen zu suchen.
In einer solchen Situation hängt die Fähigkeit, die Absichten einer Person zu entschlüsseln, mit unserem Wissen darüber zusammen, wie Gehirnfunktionen in neuronalen Aktivitäten codiert werden. Wie manifestiert sich diese oder jene Absicht oder dieser Zustand im Signal? Leider haben wir in den meisten Fällen keine Antwort auf diese Frage.
Neurobiologische Forschungen zur kognitiven Funktion sind im Gange, aber wir können dennoch einen sehr kleinen Teil der Signale entschlüsseln. Das Gehirn und das Bewusstsein bleiben für uns vorerst eine "Black Box".
Alexander Kaplan, Neurophysiologe, Doktor der Biowissenschaften und Gründer des Labors für Neurophysiologie und Neurointerfaces an der Moskauer Staatlichen Universität Lomonossow, der in Russland das erste Stipendium für die Entwicklung einer Neurointerface für die Kommunikation zwischen Gehirn und Computer erhalten hat, sagt, dass Forscher in der Lage sind, einige menschliche Absichten oder Bilder, die sie sich vorgestellt haben, automatisch anhand des EEG zu entschlüsseln …
Im Moment gibt es jedoch nicht mehr als ein Dutzend solcher Absichten und Bilder. Dies sind in der Regel Zustände, die mit Entspannung und geistiger Anspannung oder mit der Darstellung von Bewegungen von Körperteilen verbunden sind. Und selbst ihre Erkennung erfolgt mit Fehlern: Um beispielsweise durch das EEG festzustellen, dass eine Person beabsichtigt, ihre rechte Hand zur Faust zu ballen, ist dies selbst in den besten Labors in nicht mehr als 80 bis 85 Prozent der Gesamtzahl der Versuche möglich.
Und wenn Sie versuchen, anhand des EEG zu verstehen, ob sich eine Person eine Banane oder eine Orange vorstellt, wird die Anzahl der richtigen Antworten die zufällige Schätzung nur geringfügig überschreiten.
Das Traurigste ist, dass es trotz erheblicher Fortschritte bei der Entwicklung von Algorithmen und Computertechnologien, die gleichzeitig erzielt wurden, nicht möglich war, die Zuverlässigkeit von Neurointerface-Systemen bei der Erkennung menschlicher Absichten durch das EEG zu verbessern und die Liste solcher Absichten seit mehr als 15 Jahren zu erweitern.
Anscheinend spiegelt das EEG nur einen kleinen Teil der geistigen Aktivität einer Person wider. Daher sollten Neurointerface-Systeme mit moderaten Erwartungen angegangen werden und die Bereiche ihrer tatsächlichen Anwendung klar umrissen werden.
Übersetzungsschwierigkeiten
Warum können wir kein System schaffen, das das tut, was das Gehirn leicht kann? Kurz gesagt, die Funktionsweise des Gehirns ist zu komplex für unsere analytischen und rechnerischen Fähigkeiten.
Erstens kennen wir die "Sprache", in der das Nervensystem kommuniziert, nicht. Neben Impulsreihen zeichnet es sich durch viele Variablen aus: Merkmale der Pfade und der Zellen selbst, chemische Reaktionen zum Zeitpunkt des Informationstransfers, die Arbeit benachbarter neuronaler Netze und anderer Körpersysteme.
Zusätzlich zu der Tatsache, dass die "Grammatik" dieser "Sprache" an sich komplex ist, kann sie sich in verschiedenen Paaren von Nervenzellen unterscheiden. Die Situation wird durch die Tatsache verschärft, dass die Kommunikationsregeln sowie die Funktionen der Zellen und die Beziehungen zwischen ihnen alle sehr dynamisch sind und sich unter dem Einfluss neuer Ereignisse und Bedingungen ständig ändern. Dies erhöht exponentiell die Menge an Informationen, die berücksichtigt werden müssen.
Daten, die die Gehirnaktivität vollständig beschreiben, übertönen einfach jeden Algorithmus, der sich zur Analyse verpflichtet. Das Entschlüsseln von Absichten, Erinnerungen und Bewegungen ist daher praktisch eine unlösbare Aufgabe.
Die zweite Hürde ist, dass wir nicht viel über die Gehirnfunktionen wissen, die wir zu erkennen versuchen. Was ist Erinnerung oder visuelles Bild, woraus bestehen sie? Neurophysiologie und Psychologie haben lange versucht, diese Fragen zu beantworten, aber in der Forschung sind bislang nur geringe Fortschritte zu verzeichnen.
Die einfachsten Funktionen wie motorische und sensorische Funktionen haben in diesem Sinne den Vorteil, dass sie besser verstanden werden. Daher interagieren die derzeit verfügbaren neuronalen Schnittstellen hauptsächlich mit ihnen.
Sie sind in der Lage, taktile Empfindungen, imaginäre Bewegungen eines Gliedes, Reaktionen auf visuelle Stimulation und einfache Reaktionen auf Umweltereignisse wie eine Reaktion auf einen Fehler oder eine Nichtübereinstimmung zwischen dem erwarteten und dem realen Reiz zu erkennen. Aber höhere Nervenaktivität bleibt für uns heute ein großes Geheimnis.
Zweiwege-Kommunikation
Bisher haben wir nur die Situation des einseitigen Lesens von Informationen ohne rückwärtigen Einfluss erörtert. Es gibt jedoch bereits heute eine Technologie zur Übertragung von Signalen von einem Computer zum Gehirn - CBI (Computer-Gehirn-Schnittstelle). Es macht den Kommunikationskanal der Neurointerface bidirektional.
Informationen (z. B. Geräusche, taktile Empfindungen und sogar Daten über die Funktionsweise des Gehirns) gelangen in den Computer, werden analysiert und durch Stimulation der Zellen des zentralen oder peripheren Nervensystems an das Gehirn übertragen. All dies kann unter Umgehung der natürlichen Wahrnehmungsorgane geschehen und wird erfolgreich eingesetzt, um sie zu ersetzen.
Nach Alexander Kaplan gibt es derzeit keine theoretischen Einschränkungen mehr für die Ausstattung einer Person mit künstlichen Sinnesorganen, die direkt mit den Gehirnstrukturen verbunden sind. Darüber hinaus werden sie aktiv in das tägliche Leben eines Menschen eingeführt, um beispielsweise die gestörten natürlichen Sinnesorgane zu ersetzen.
Für Menschen mit Hörbehinderung gibt es bereits sogenannte Cochlea-Implantate: Mikrochips, die ein Mikrofon mit Hörrezeptoren kombinieren. Die Tests von Netzhautimplantaten zur Wiederherstellung des Sehvermögens haben begonnen.
Laut Kaplan gibt es keine technischen Einschränkungen für den Anschluss anderer Sensoren an das Gehirn, die auf Ultraschall, Änderungen der Radioaktivität, Geschwindigkeit oder des Drucks reagieren.
Das Problem ist, dass diese Technologien vollständig auf unserem Wissen über die Funktionsweise des Gehirns basieren müssen. Welche, wie wir bereits herausgefunden haben, eher begrenzt sind.
Die einzige Möglichkeit, dieses Problem zu umgehen, besteht laut Kaplan darin, einen grundlegend neuen Kommunikationskanal mit einer eigenen Kommunikationssprache zu schaffen und nicht nur dem Computer, sondern auch dem Gehirn beizubringen, neue Signale zu erkennen.
Solche Entwicklungen haben bereits begonnen. Zum Beispiel haben sie vor einigen Jahren im Labor für angewandte Physik an der Johns Hopkins University eine bionische Hand getestet, die taktile Informationen an das Gehirn übertragen kann.
Beim Berühren der Sensoren der künstlichen Hand stimulieren die Elektroden die Bahnen des peripheren Nervensystems, die dann das Signal an die sensorischen Bereiche des Gehirns übertragen. Eine Person lernt, eingehende Signale als verschiedene Arten von Berührungen zu erkennen. Anstatt zu versuchen, das für den Menschen natürliche taktile Signalsystem zu reproduzieren, wird ein neuer Kanal und eine neue Kommunikationssprache geschaffen.
Dieser Entwicklungspfad ist jedoch begrenzt durch die Anzahl der neuen Kanäle, die wir erstellen können, und wie informativ sie für das Gehirn sein werden, sagt Alexander Kaplan.
Futur
Kaplan glaubt, dass es derzeit keinen neuen Weg gibt, Neurointerface-Technologien zu entwickeln. Ihm zufolge wurde in den 70er Jahren des letzten Jahrhunderts die Möglichkeit einer Schnittstelle für die Kommunikation zwischen Gehirn und Computer entdeckt, und die Prinzipien des Gehirns, auf denen die heutigen Entwicklungen basieren, wurden vor etwa dreißig Jahren beschrieben, und seitdem sind praktisch keine neuen Ideen aufgetaucht.
Zum Beispiel wurde das mittlerweile weit verbreitete Potenzial des P300 in den 1960er Jahren entdeckt, Motorbilder (in den 1980er bis 1990er Jahren und Negativität bei Nichtübereinstimmungen - in den 1970er Jahren).
Früher hofften Wissenschaftler, dass sie einen engeren Informationskontakt zwischen Gehirn und Prozessortechnologie herstellen könnten, aber heute wurde klar, dass sie nicht wahr wurden.
Laut Kaplan ist jedoch klar geworden, dass Neurointerfaces für medizinische Zwecke implementiert werden können. Nach Ansicht des Wissenschaftlers erfolgt die Entwicklung von Neurointerfaces nun größtenteils durch die Einführung von Technologie in den klinischen Bereich.
Früher hofften Wissenschaftler, dass sie einen engeren Informationskontakt zwischen Gehirn und Prozessortechnologie herstellen könnten, aber heute wurde klar, dass sie nicht wahr wurden.
Laut Kaplan ist jedoch klar geworden, dass Neurointerfaces für medizinische Zwecke implementiert werden können. Nach Ansicht des Wissenschaftlers erfolgt die Entwicklung von Neurointerfaces nun größtenteils durch die Einführung von Technologie in den klinischen Bereich.
Dank der Gehirnforschung und der technologischen Fortschritte sind die heutigen Neurointerfaces jedoch in der Lage, das zu tun, was früher nicht praktikabel schien. Wir wissen nicht genau, was in 30, 50 oder 100 Jahren passieren wird. Der Wissenschaftshistoriker Thomas Kuhn vertrat die Idee, dass die Entwicklung der Wissenschaft ein Zyklus ist: Perioden der Stagnation werden durch folgende Paradigmenwechsel und wissenschaftliche Revolutionen ersetzt. Es ist durchaus möglich, dass wir in Zukunft eine Revolution haben werden, die das Gehirn aus der Black Box herausholt. Und sie wird von der unerwartetsten Seite kommen.
Maria Ermolova