Wie ins Meer pinkeln: KI vergiften helfe nicht

vor 6 Stunden 1

Wenn Daten fehlerhaft sind oder sogar absichtlich irritierend, spricht man davon, dass diese vergiftet sind. Damit sollen wiederum KI-Modelle irritiert oder gestört werden. Lernen diese von vergifteten Daten, liefern sie Ergebnisse auf Basis der falschen Informationen. Doch das sei nicht so einfach wie es zunächst klingt, sagt auch Xe Iaso. Er ist Gründer eines Software-Unternehmens, das einen anderen Weg geht, um Inhalte vor KI-Modellen zu schützen – hat also ein Interesse.

Iaso vergleicht in einem Gespräch mit 404 Media das Vergiften von Daten, die zu Trainingszwecken genutzt werden, damit, dass man als einzelne Person zwar ins Meer pinkeln könne, es aber dennoch ein Meer bleibe. Zudem kritisiert Iaso, dass dadurch gegebenenfalls Ressourcen verbraucht werden, die nicht verbraucht werden müssten.

Tatsächlich ist die Wirksamkeit von Tools wie Nightshade, bei dem Bilder mit falschen Informationen zu den Bildern versehen werden, fraglich, sofern es nur sehr wenige Künstler oder Einzelpersonen machen. Pinkeln Menschen überall auf der Welt ungefiltert ins Meer, hätte das womöglich doch einen Effekt auf die Wasserqualität.

Statt der Vergiftung schlägt Iaso seine eigene Software vor. Mit dieser könnte auf technischer Ebene ausgeschlossen werden, dass Crawler Inhalte für das KI-Training abgreifen. Anubis zwingt Bots, kryptografische Rechenaufgaben im Browser zu lösen. Das ist teuer für jene, die Bots losschicken. Es ist eine Art unsichtbares Captcha, Menschen müssen die Aufgaben freilich nicht lösen.

Es hat sich zuletzt allerdings gezeigt, dass großangelegte Kampagnen, um Trainingsdaten zu vergiften, schon Wirkung zeigen. Russland soll zahlreiche Webseiten betreiben – mit der ausschließlichen Absicht, KI-Modelle sowohl beim Training als auch in der Echtzeit-Suche mit ausgewählten Informationen zu versorgen. Die Echtzeit-Suche ist besonders anfällig für Angriffe. Informationen und Anweisungen können etwa auf Webseiten versteckt sein, so dass Menschen sie nicht sehen. Falsche Informationen können dann auch weitreichende Folgen für die gesamte Schlussfolgerung etwa auch bei Reasoning-Modellen haben.

(emw)

Gesamten Artikel lesen