Kortikale Repräsentation von Bewegungsintentionen
Handbewegungen von Primaten sind komplexe und hochkognitive Verhaltensformen. Die situationsgerechte Planung von Handbewegungen setzt die Integration von sensorischen Informationen mit internen (Wille und Erinnerung) Signalen voraus, um angemessene Handbewegungen hervorzurufen. Wir untersuchen, wie Handbewegungen im Primatenhirn generiert werden, besonders in den höheren Gehirnarealen des parietalen (AIP) und prämotorischen Kortex (area F5). Wir führen simultan Ableitungen aus zwei Arealen mit trainierten Tieren durch, um die Rolle dieser Areale für die sensormotorische Übertragung und Entscheidungsfindung bezüglich Greifbewegungen der Hand zu charakterisieren.
Echtzeit-Dekodierung von Handbewegungen
Indem wir unser gegenwärtiges Wissen darüber, wie Handbewegungen in den motorischen, prämotorischen und parietalen Gehirnarealen repräsentiert sind, nutzen, entwickeln wir Gehirn-Maschine-Schnittstellen die in der Lage sind, solche Bewegungsabsichten auszulesen, um Roboter in Echtzeit steuern zu können. Dafür implantieren wir Elektroden, die kortikale Signale aus 100 oder mehr Kanälen auslesen können. Wir arbeiten mit speziell dafür entwickelter Analysesoftware. Diese Signale werden in Echtzeit dekodiert, um Vorhersagen über kommende Greifbewegungen zu treffen die anschließend zum Subjekt zurück geleitet werden und anschließend zur Steuerung der Roboterhand verwendet werden.Solche Systeme könnten zur Entwicklung von Neuroprothesen nützlich sein, um die Handfunktionen von gelähmten Patienten zu verbessern.
Optimale Dekodierung von neuronalen Ensembles
Die für Greifbewegungen nötigen Informationen werden in verschiedenen Arealen des Gehirns kodiert und prozessiert. Neuronale Schnittstellen müssen daher die Unterschiede dieser Signale berücksichtigen. Unser Ziel ist es Dekodierungsalgorithmen zu verbessern, indem wir die zeitliche Information, die multi-varianten Eigenschaften der Signale und auch die Unterschiede einzelner Klassifizierungsmethoden beachten. Diese verbesserten Algorithmen werden dazu beitragen, die Effizienz von neuralen Schnittstellen zu verbessern.
Kinematik von Handgreifbewegungen
Ein wichtiger Aspekt der Interpretation von Gehirnaktivität in Verbindung mit Greifbewegungen ist die Repräsentation der Hand-Kinematik. Um das Zusammenspiel von Gehirn und Hand zu verstehen, müssen Gehirnaktivität und Hand-Kinematik korreliert werden. Aktuell arbeiten wir an der Entwicklung eines "Hand-Tracking"-Systems, das die Hand- und Fingerbewegungen kleiner Primaten bei Greifbewegungen in 3D aufzeichnen kann. Dies ist die Grundlage zum Verständnis des Zusammenspiels von Gehirnaktivität und Fingerbewegungen.
Die Roboterhand
Neuronale Handprothesen benötigen Roboterhände, welche die dekodierten Handbewegungen ausführen. Während virtuelle Umgebungen solche Vorgänge nur simulieren können, liefert eine direkte Steuerung eines Roboters noch detailliertere Rückmeldungen der "realen" Welt und ermöglicht eine genauere Interaktion mit dieser. Die Steuerung einer solcher Prothese verwendet sowohl die elektrophysiologischen Signale erfasst an der neuronalen Schnittstelle, als auch sensorische Information, gemessen am Roboter. Die propriorezeptiven (sensorischen) Messungen der künstlichen Hand können in weiterer Folge wieder an das Gehirn zurückgesendet werden, um Rückmeldungen über diese zu liefern. Eine solche bidirektionale neuronale Schnittstelle könnte eine bemerkenswerte Verbesserung für Neuroprothesen darstellen.
Untersuchung des Handgreifbewegungsnetzwerkes von Primaten mittels projektions-spezifischer Neuro-Optogenetik
Zur Entwicklung von neuroprothetischen Geräten sind neben einem grundlegenden Verständnis der korrelativen Zusammenhänge der neuronalen Komponenten, die an der Planung und Durchführung von Handgreifbewegungen beteiligt sind, auch die kausalen Beziehungen zwischen diesen Komponenten von entscheidender Bedeutung. Hierfür verwenden wir einen neuartigen optogenetischen Ansatz, welcher die präzise Manipulation von neuronaler Aktivität mit hoher zeitlicher, räumlicher und zelltypspezifischer Genauigkeit erlaubt. Diese neuro-optogenetischen Methoden kombinieren wir mit der Aufnahme von elektrophysiologischen intrakortikalen Signalen und der Aufzeichnung der Kinematik von Handbewegungen mit Hilfe eines Datenhandschuhes. Während Rhesusaffen eine instruierte Greifaufgabe durchführen, untersuchen wir die Effekte optogenetischer Stimulation sowohl auf die lokale neuronale Aktivität des stimulierten Areals als auch auf weiter entfernte, jedoch direkt verbundene Hirnareale, und auf das Verhalten des Tieres bei Greifen. Diese Untersuchungen ermöglichen neue Einblicke in die funktionelle Beteiligung des fronto-parietalen Netzwerkes bei Handgreifbewegungen und deren kausalen Verknüpfungen. Letztlich können sie auch einen wichtigen Beitrag leisten zur Entwicklung von verbesserten Neuroprothesen für gelähmte Patienten als auch für die zukünftige Anwendung dieser optogenetischen Methoden in klinische Studien am Menschen.
Einfluss des Tastsinns auf Handbewegungen
Neben der Erforschung der Entstehung von Greifbewegungen im Gehirn, sind wir auch daran interessiert, wie verschiedene Sinne Handbewegungen beeinflussen. Hierfür werden den Primaten verschiedene Strukturen und Objekte präsentiert, die sie dann befühlen. Während des Fühlens wird die Gehirnaktivität in den relevanten Gehirnbereichen wie dem somatosensorischen Kortex (S1, unter anderem verantwortlich für den Tastsinn) gemessen. Dies hilft uns zu verstehen, wie genau das Gehirn verschiedene Texturen wahrnimmt.
In einem weiteren Experiment untersuchen wir, ob es einen Unterschied in der Entstehung von Greifbewegungen gibt, wenn ein Objekt nur gesehen oder gefühlt wird. Die Objekte, beispielsweise eine kleine Kugel, werden dabei entweder beleuchtet oder bleiben im Dunkeln verborgen und dürfen nur angefasst, aber nicht gesehen werden. Anschließend soll das Objekt angehoben werden.
Dekodierung von Handbewegungen für Gehirn-Computer-Schnittstellen
Wie steuert das Gehirn Bewegungen? Wie koordinieren Millionen von Hirnzellen die Aktivität hunderter Muskeln um grundlegende Bewegungen des Alltags, wie etwa dem Greifen von Objekten, auszuführen? Dies Frage beschäftigt Wissenschaftler und Ingenieure seit Langem, darüber hinaus ist sie entscheidend für den medizinischen Fortschritt geworden. Zur Behandlung von Lähmungen oder im Extremfall des Locked-in Syndroms ist ein besseres Verständnis der neuronalen Steuerung von Bewegungen wichtig um Geräte zur Verbesserung der Mobilität und zur Steigerung der Lebensqualität entwickeln zu können. Unser Ziel ist es zu verstehen wie Armbewegungen vom Gehirn gesteuert werden. Wir untersuchen dabei insbesondere die grundlegende Frage wie multiple parallele Signale, wie sie für die Ausführung von Armbewegungen notwendig sind, von der Hirnrinde dekodiert werden können, um damit künstliche Prothesen zu steuern. Dazu führen wir mit Primaten Experimente durch, in denen sie reale und virtuelle Greifbewegungen über eine Gehirn-Computer-Schnittstelle ausführen, um die neuronalen Aktivitätsmuster zu verstehen, welche die koordinierten Bewegungen beim Greifen steuern.
Untersuchung Handkinematik
Wir nutzen unsere Hände im täglichen Alltag mühelos und ohne darüber nachzudenken. Daher hat der Verlust einer Hand große Auswirkungen auf das Leben von Amputierten und aktuelle Prothesen können die eigentliche Funktionsfähigkeit einer Hand nicht ersetzen. Um für die Zukunft eine natürlichere Handprothese entwickeln zu können, untersuchen wir Handbewegungen von gesunden Probanden. Hierfür nutzen wir einen Datenhandschuh, der alle Winkel von Hand- und Fingergelenken (27 Freiheitsgrade) aufnehmen kann. Wir untersuchen mit den Handbewegungsdaten u.a. die Unterschiede zwischen unserer dominanten und nicht-dominanten Hand. Unsere Forschung fokussiert sich dabei auf die Händigkeit und die Auswirkungen bei Verlust der dominanten oder der nicht-dominanten Hand. Des Weiteren tragen wir zum allgemeinen Verständnis von Umweltinteraktionen (z.B. mit Objekten) und den möglichen damit verbundenen Herausforderungen für Amputierte bei.
EU fördert Kooperationsprojekt zur Verbindung von Geist, Körper und Maschine
Entwicklung einer Kommunikationsplattform im Körper zur Steuerung von Prothesen
Das Verbundprojekt B-CRATOS ("Wireless Brain-Connect inteRfAce TO machineS“) hat das Ziel, Prothesen oder „smarte“ Geräte per Gedankenkraft zu steuern. Hierzu soll eine batterie- und drahtlose Hochgeschwindigkeits-Kommunikationsplattform im Körper integriert werden, um das Nervensystem mit Signalsystemen zu verbinden und so verschiedene Funktionen von zum Beispiel Prothesen zu stimulieren. An dem Projekt, das von der schwedischen Uppsala Universität koordiniert wird, ist neben fünf weiteren europäischen Partnern wie Hochschulen, Unternehmen und Instituten, ebenfalls das Deutsche Primatenzentrum (DPZ) beteiligt, um die neue Technologie in nicht-menschlichen Primaten zu testen. Das äußerst ehrgeizige Vorhaben, das Fachwissen und Spitzentechnologien aus den Bereichen neuartiger drahtloser Kommunikation, Neurowissenschaften, Bionik, künstlicher Intelligenz (KI) und Sensorik vereint, wird die kommenden vier Jahre von der EU mit 4,5 Millionen Euro gefördert.