Nein zu Black-Mirror-Fantasien: Datenschutzempfehlungen zu Neurotechnologien

vor 8 Stunden 1

Wer fürchtet, dass Firmen über ins Gehirn transplantierte KI-Chips, wie in manch einer Black-Mirror-Folge, einen Teil der Menschen künftig in die Abhängigkeit stürzen und die Kontrolle übernehmen, der soll sich keine Sorgen machen müssen. Zumindest nicht, wenn es nach den Empfehlungen der "Berlin Group" geht, die internationale Arbeitsgruppe für Datenschutz in der Technologie (IWGDPT). Diese hat jetzt ein Arbeitspapier zum Datenschutz bei Neurotechnologien veröffentlicht, das Empfehlungen für Gesetzgeber, Aufsichtsbehörden und Entwickler enthält, aber auch Fragen aufwirft. Es fordert einen besonders strengen, menschenrechtsbasierten Datenschutzrahmen für Neurotechnologien und Gehirndaten.

"Neurotechnologien könnten bald über den medizinischen Bereich hinaus auch für den Massenmarkt relevant werden. Wir müssen darauf vorbereitet sein, denn sie werfen tiefgreifende datenschutzrechtliche und ethische Fragen auf, nicht zuletzt für die mentale Integrität des Menschen", so die Bundesbeauftragte für Datenschutz und Informationssicherheit (BfDI), Louisa Specht-Riemenschneider, die den Vorsitz der Berlin Group innehat.

Gesetze in dem Umfeld sollten laut Berlin Group nur nach gründlicher Prüfung verabschiedet werden. Empfohlen wird zunächst, bestehende Datenschutz- und Menschenrechte präziser auf Neurodaten anzuwenden und weiterzuentwickeln. Vor allem seien klare Begriffsdefinitionen für Begriffe wie Neurodaten, mentale Identität und Integrität, Gedankenfreiheit, kognitive Freiheit erforderlich.

Der Umgang mit Daten, die bei Neurotechnologien anfallen können, soll streng reguliert werden. Ein starker Fokus liegt dabei auf Transparenz, informierter Einwilligung und der Verhinderung einer missbräuchlichen Datenverarbeitung, etwa durch frühzeitige Löschung der Daten. Im Bericht der Berlin Group werden dabei auch die Forderungen der Neurorights Foundation aufgegriffen. Neurorechte sollen demnach sicherstellen, dass der Mensch auch mit dem wachsenden Einsatz von Neurotechnologien und KI die Kontrolle über seine Gedanken, Identität und Entscheidungsfreiheit behält – und vor ungewolltem Zugriff, Manipulation oder Diskriminierung geschützt ist. Nicht in Ordnung ist demnach etwa die Nutzung der Daten zu Werbezwecken.

Die Einwilligung wird oft als Schlüsselelement gesehen, könnte aber in der Umsetzung problematisch sein, etwa wenn die einwilligende Person in ihrer Entscheidungsfähigkeit beeinträchtigt ist. Wichtig sei in dem Zusammenhang hohe Transparenz und besondere Vorsicht bei Einwilligungen. Zudem sollte geprüft werden, in welchen Bereichen oder Sektoren die Verarbeitung von Neurodaten grundsätzlich verboten oder besonders streng reguliert werden sollte – analog zum Ansatz des EU AI Act, wonach besonders manipulatives oder diskriminierendes Verhalten von KI-Systemen verboten wird. Darum gelten für medizinische Anwendungen und welche, die Emotionen erkennen, besonders hohe Anforderungen.

Zwar heißt es seitens des Europarats und der UNESCO, dass für die Verarbeitung von Neurodaten immer eine ausdrückliche Einwilligung erforderlich ist, allerdings sei die Einwilligung laut Berlin Group als Rechtsgrundlage für die Verarbeitung oft schwierig und nicht immer angemessen. Selbst mit Einwilligung ist eine Verarbeitung unzulässig, wenn sie gegen die Menschenwürde verstößt – etwa durch invasive Techniken oder Profiling. Daher wirft der Bericht die Frage auf, wie "Regulierungsbehörden eine faire und angemessene Nutzung dieser Daten über verschiedene Systeme hinweg ermöglichen und gleichzeitig den Willen der betroffenen Person respektieren [können]".

Machtungleichgewichte sind dem Bericht zufolge ebenfalls als Risiko für echte, freie Einwilligung zu erkennen. Bei Personen, bei denen beispielsweise Neurotechnologien wie Gehirn-Computer-Schnittstellen implantiert sind, sollte zudem besonders vorsichtig mit Einwilligungen umgegangen werden, da unklar ist, ob die Betroffenen die Einwilligung erteilen können. Altersgrenzen für Einwilligungen seien ebenfalls zu überprüfen.

Neurodaten dürfen nicht zur Diskriminierung, Stigmatisierung oder für unzulässiges Profiling verwendet werden. Speziell Kinder, ältere Menschen und Menschen mit Behinderung benötigen besonderen Schutz bei der Anwendung von Neurotechnologien.

Der staatliche Zugriff auf Neurodaten sollte laut Bericht zudem "nur unter strengen rechtlichen Bedingungen und mit gerichtlicher Kontrolle, im Einklang mit dem Grundsatz der Notwendigkeit und Verhältnismäßigkeit und unter uneingeschränkter Achtung der Menschenrechte und Grundfreiheiten gestattet sein".

Für Entwickler und Organisationen empfiehlt der Bericht, vor jeder Verarbeitung von Neurodaten zu prüfen, ob diese für den beabsichtigten Zweck notwendig und verhältnismäßig ist. Sowohl direkte als auch abgeleitete Neurodaten sind als potenziell sensibel zu behandeln.

Außerdem sollte gegenüber den Betroffenen Transparenz geschaffen werden, insbesondere bei komplexen, technischen Vorgängen. Firmen sollten klare, verständliche Informationen bereitstellen und dazu Nutzerfeedback einholen. Die Nutzung von Neurotechnologien darf grundsätzlich nur auf freiwilliger Basis und nach ausdrücklicher, informierter Einwilligung erfolgen. Diese muss jederzeit widerrufbar sein. Für die Verarbeitung der Daten sind höchste Sicherheitsstandards, Verschlüsselung und Zugriffskontrollen notwendig, was regelmäßig überprüft und verbessert werden soll.

Laut Bericht der Berlin Group gibt es seit Jahren Bestrebungen in Brasilien und Spanien, Neurodaten explizit im Datenschutzrecht zu verankern. In anderen Ländern wie Chile gibt es bereits "Neuro Rights". In Colorado und Kalifornien wurden Gesetze verabschiedet, nach denen Neurodaten als besonders schützenswerte Daten gelten. Kritisiert wurde in der Vergangenheit der fehlende Schutz für pseudonymisierte und aggregierte Daten, aber eine Überregulierung durch Unternehmen wie Meta und Google. Die Herausforderungen rund um den Schutz von Gehirndaten hatte eine Debatte über "neue Menschenrechte" ausgelöst.

Die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) empfiehlt internationale Standards für Neurotechnologien. Gleichzeitig verbietet die EU mit der KI-Verordnung bereits Systeme, die mit manipulativen oder unterbewussten Techniken das Entscheidungsverhalten von Menschen so beeinflussen, dass deren Fähigkeit zur informierten Entscheidung erheblich beeinträchtigt wird.

(mack)

Gesamten Artikel lesen