Brain-Computer-Interface: zunehmender Einsatz, Risiken, lückenhafte Rechtslage

vor 1 Stunde 1

Gedanken lesen, speichern, zurückspielen – was klingt wie Science-Fiction, ist in ersten Anwendungen bereits Realität. Brain-Computer-Interfaces, kurz BCIs, können Gehirnsignale auslesen, in digitale Daten übersetzen und in das Gehirn zurückspielen. Gelähmte Patientinnen und Patienten bedienen damit virtuelle Tastaturen allein durch die Kraft ihrer Gedanken. Menschen, die vollständig eingeschlossen in ihrem Körper gefangen waren, können plötzlich wieder kommunizieren.

Der Pathologe Dr. Jochen Lennerz hat diese Entwicklungen auf dem Digital Health Innovation Forum des Hasso-Plattner-Instituts eindrücklich beschrieben und zugleich unmissverständlich vor den Folgen gewarnt. Denn die Technologie wirft Fragen auf, für die Gesellschaft, Politik und Regulatorik bisher kaum Antworten haben. „Wenn man den Begriff funktional definiert: beispielsweise als Steuerung eines Cursors oder einer Auswahlbewegung, dann sind solche Anwendungen bereits heute möglich“, sagte Lennerz gegenüber heise online.

Lennerz zufolge könnten BCIs nicht nur therapeutische Chancen bieten, sondern das Verhältnis zwischen Mensch und Technologie grundlegend verändern. Perspektivisch sei es denkbar, Erfahrungen direkt zu teilen oder Wahrnehmungen auszulesen. Damit rücke die Technologie in die Nähe dessen, was bisher als Science-Fiction galt. „Das Potenzial der Technologie ist deutlich größer als der aktuelle Stand, aber wir befinden uns noch in einer frühen Entwicklungsphase“, sagte Lennerz.

Lennerz zufolge ließen sich Szenarien denken, in denen Soldaten Drohnen oder robotische Systeme direkt per Gedanken steuern. Ebenso könne es möglich werden, visuelle Informationen aus dem Gehirn zu extrahieren – also Wahrnehmungen zu analysieren, die dem Menschen selbst womöglich gar nicht bewusst seien.

Damit könnten sich neue Formen militärischer Aufklärung und Steuerung ergeben, die weit über heutige Technologien hinausgingen. BCIs würden nicht nur verlorene Fähigkeiten wiederherstellen, sondern könnten auch menschliche Leistungsfähigkeit gezielt erweitern. Daraus könnte sich ein globaler Wettbewerb entwickeln, bei dem Staaten versuchten, sich frühzeitig Zugriff auf diese Technologien zu sichern.

Ein besonders sensibles Feld sei dabei der Umgang mit Hirndaten. Anders als klassische medizinische Daten enthielten sogenannte Neurodaten potenziell weit mehr Informationen, als aktuell genutzt werde. Systeme griffen oft nur auf einen kleinen Teil zu – etwa zur Steuerung eines Cursors. „Dabei enthalten die Rohdaten häufig deutlich mehr Information, als für die jeweilige Anwendung genutzt wird [...] Diese latente Information wirft Fragen zur Sekundärnutzung auf, weil nicht immer klar ist, welche Inhalte potenziell aus den Daten abgeleitet werden könnten.“

„Ein weiterer offener Punkt betrifft“ laut Lennerz „den Datenschutz über den Tod hinaus.“ Hirndaten gelten als hochpersönlich. Nach geltendem Datenschutzrecht erlischt der unmittelbare Schutz personenbezogener Daten mit dem Tod, während spezifische Regelungen für neurobezogene Daten bislang fehlen. Dadurch entsteht eine rechtliche Grauzone, in der insbesondere Nutzung, Weitergabe und sekundäre Auswertung solcher Daten unklar bleiben.

Auch auf individueller Ebene zeigten sich Risiken. In einem Fall habe eine Patientin nach der Implantation eines solchen Systems eine starke emotionale Bindung an das Gerät entwickelt. Nach dessen Entfernung habe sie von einem massiven Verlustgefühl berichtet.

Der Chemnitzer Psychologieprofessor Bertolt Meyer, der selbst eine bionische Prothese trägt, ordnete BCIs in der Anhörung des Deutschen Ethikrats „Neue Neurotechnologien – Ethik, Recht und Gesellschaft“ als sogenannte „Human Augmentation Technologies“ ein, die zu den invasiven gerätebasierten Technologien zur Erweiterung menschlicher Fähigkeiten zählen. Als Beispiel zeigte er unter anderem Neuralinks Pong-spielenden Affen. Die gesellschaftliche Akzeptanz hänge entscheidend davon ab, ob eine Technologie zur Wiederherstellung von Fähigkeiten oder der Leistungssteigerung diene. Hinzu kommt das Risiko der Stigmatisierung und eine zunehmende Tendenz, gesellschaftliche Probleme primär mit Technik lösen zu wollen.

Zudem warnte Dr. med. Philipp Kellmeyer, Juniorprofessor für Responsible AI und Digital Health an der Universität Mannheim, in der Anhörung vor neuen Formen von Nutzungsdruck, Selbstmodifikation und einer wachsenden Abhängigkeit durch verbraucherorientierte Neurotechnologien. Er plädiert dafür, mentale Integrität als eigenständiges Schutzgut ernst zu nehmen und partizipative Verfahren systematisch in Entwicklungs- und Regulierungsprozesse zu integrieren. Kellmeyer und weitere Forscher haben zudem ein Moratorium gefordert: keine implantierbaren nicht-medizinischen BCIs, solange deren Wirkung auf den menschlichen Geist nicht hinreichend verstanden sei. Der an der Forderung nach dem Moratorium beteiligte Rechtswissenschaftler Dr. Christoph Bublitz von der Universität Hamburg, wies auch auf unbeantwortete Fragen zu den psychischen Auswirkungen und der Gedankenfreiheit hin.

Besonders kritisch sei die mögliche militärische Nutzung. Laut Prof. Marcello Ienca, Professor für Ethik der Künstlichen Intelligenz und Neurowissenschaften an der TU München, wurden erste BCIs in den 1970er und 1980er Jahren ursprünglich für militärische Zwecke entwickelt. Ienca zufolge baut China seit 2023 spezialisierte Strukturen für kognitive Kriegsführung auf, zu denen auch Neurotechnologien gehören.

Auch die Rolle großer Industrieakteure wie Neuralink, dessen BCI bereits bei über einem Dutzend Menschen implantiert wurde (Ende Januar 2026 waren es 21 Personen), ordnet Lennerz auf Nachfrage ein. „Neuralink ist, wie die anderen Industrieakteure, Teil unserer Collaborative Community.“ Dort arbeiteten Wettbewerber bewusst zusammen, um gemeinsame Grundlagen zu schaffen, „weil sie erkennen, dass bestimmte Herausforderungen gemeinsam leichter zu lösen sind.“

Lennerz zufolge könnten Brain-Computer-Interfaces zu einer der prägendsten Technologien des 21. Jahrhunderts werden – mit Auswirkungen weit über die Medizin hinaus. Die entscheidende Frage sei nicht mehr, ob sie kommen, sondern wie ihre Nutzung gestaltet, reguliert und kontrolliert wird.

(mack)

Gesamten Artikel lesen