Constanze Kurz vom CCC: Mehrheit weiß nichts von Weitergabe von Gesundheitsdaten

vor 9 Stunden 1

Die Informatikerin und Sprecherin des Chaos Computer Clubs, Constanze Kurz, warnte zum Auftakt der Anosidat-Konferenz am Dienstag in Berlin vor einem schleichenden Abbau des Gesundheitsdatenschutzes zugunsten wirtschaftlicher Interessen. Auf der Konferenz diskutieren Fachleute aus Wissenschaft, Politik und Zivilgesellschaft über den verantwortungsvollen Umgang mit Daten. Kurz verwies unter anderem auf eine Klage der Gesellschaft für Freiheitsrechte (GFF) gegen die Weitergabe und Speicherung von Gesundheitsdaten an das Forschungsdatenzentrum Gesundheit (FDZ Gesundheit) des Bundesinstituts für Arzneimittel und Medizinprodukte (BfArM), an das Forscher seit kurzem Anträge auf Datenzugang stellen können.

Die meisten Menschen wüssten nicht, dass seit 2022 die Abrechnungsdaten an das Forschungsdatenzentrum Gesundheit übermittelt werden und künftig auch in einem sich ebenfalls im Aufbau befindenden Europäischen Gesundheitsdatenraum zugänglich sind, betonte Kurz. Sie wünsche sich ein tieferes technisches Verständnis und Klarheit darüber, wie viele Daten tatsächlich erforderlich sind, um Forschung und Innovation zu ermöglichen – ohne Privatsphäre und Grundrechte zu gefährden.

Während die Daten aller gesetzlich Versicherten bereitstehen sollen, seien andere Gruppen, etwa Privatversicherte und die Bundeswehr, von der Datenausleitung ausgenommen, kritisierte Kurz. Die CCC-Sprecherin wunderte sich, dass bisher nur ein geringer Teil der gesetzlich Versicherten der Einrichtung einer elektronischen Patientenakte widersprochen hat.

Besonders bei der Nutzung von Gesundheitsdaten seien die Risiken durch unzureichende Anonymisierung gravierend, warnte Kurz. Datenschutz sei kein Hindernis für Forschung, sondern eine Voraussetzung für Vertrauen. Prof. Mohammadi, Leiter der Arbeitsgruppe Privacy and Security von der Universität Lübeck, betonte ebenfalls, dass IT-Sicherheit und Datenschutz keine Gegensätze seien: "IT-Sicherheit bedeutet, dass Systeme sich so verhalten, wie es erwartet wird und nicht anderes tun, selbst wenn bösartige Akteure involviert sind. Sichere Datennutzung heißt, dass Daten nur für den Zweck verwendet werden, für den sie gedacht sind – auch wenn jemand versucht, das zu unterlaufen." Er plädierte für dezentrale Lösungen und internationale Kooperationen statt zentraler Datenspeicher. Große Datensätze seien nötig, um Analysequalität und Schutz gleichermaßen gewährleisten zu können.

Selbst wenn man den Datenschutz völlig aufgäbe, würde Deutschland nicht automatisch zu einem führenden Standort für künstliche Intelligenz, gab Thomas Köllmer vom Fraunhofer-Institut für digitale Medientechnologie (IDMT) zu bedenken. Kurz betonte, dass Grundrechte wie das Recht auf informationelle Selbstbestimmung europaweit stärker geschützt werden müssten und Teil der europäischen Werte seien. Für Köllmer sind Datenschutz und Innovation keine Gegensätze. Vielmehr müsse Datenschutz von Beginn an in Projekte integriert und ausreichend finanziert werden. Gleichzeitig verwies er auf die praktischen Hürden im Forschungsalltag, etwa den langwierigen Zugang zu Daten.

Viele Vorschriften würden übervorsichtig ausgelegt, obwohl die Datenschutzgrundverordnung explizit Abwägungen erlaube, sagte Mohammadi. Behrendt stellte klar, dass Datenzugriff und wirtschaftliche Nutzung nicht allein nach ökonomischen Maßstäben erfolgen dürften. Priorität habe eine wertorientierte Datenökonomie, in der Datennutzung durch technische und organisatorische Kontrolle flankiert werde.

Auf die Frage, ob man sich nicht besser erst einmal um die Forschungsfrage kümmern sollte, antworte Köllmer, dass das Sammeln der vielen Daten zu dem LLM-Datenhunger passe. Man werfe erst einmal alles rein und finde dann später die passenden Fragen. Mit Blick auf starke Investitionen in LLMs und den derzeitigen KI-Hype verwies Mohammadi auf eine MIT-Studie (PDF), laut der 95 Prozent der Unternehmen noch keinen Vorteil vom Einsatz von KI-Systemen hatten. Er warnte zudem vor uninformierten Debatten über KI-Systeme, die auch erhebliche Risiken bergen, und forderte eine breitere gesellschaftliche Diskussion über die Risiken von LLMs.

Dem Digital Markets Act und und anderen EU-Regeln konnte CCC-Sprecherin Kurz durchaus Positives abgewinnen. Durch diese Regularien würden sich die Anbieter auf dem europäischen Markt anders verhalten. "Sogar die Zivilgesellschaft wurde involviert", sagte Kurz. Datenschutz sei Grundvoraussetzung für das europäische Wertekonzept. Sie sieht in strengen Regeln einen potenziellen Standortvorteil, da Unternehmen dann sichere und vertrauenswürdige Systeme entwickeln. Viele Möglichkeiten für einen besseren Datenschutz seien bereits da, doch oft würden sich die Verantwortlichen laut Forschern nicht dafür interessieren. Auf die Frage, welches Wunder alle Probleme lösen würde, waren die Diskussionsteilnehmer etwas überfragt. Für Behrendt sei es ein Wunder, wenn er morgens rausgehen würde und niemand mehr Interesse an Datenmissbrauch habe.

(mack)

Gesamten Artikel lesen