Warum die automatische Erkennung von KI-Inhalten nicht funktioniert
Ob ein Bild, Text oder Video mit Künstlicher Intelligenz (KI) erschaffen wurde, soll transparent gemacht werden. Doch das ist nicht so einfach. Instagram liefert dafür das aktuellste Beispiel, aber auch alle anderen Versuche sind bisher grandios gescheitert.
Transparenz ist wichtig, wenn es um KI-generierte Inhalte geht. Meta, der Konzern hinter Facebook und Instagram, will KI-generierte Bilder als solche kennzeichnen, damit niemand hinters Licht geführt wird. Seit Mai 2024 werden manche Bilder auf Instagram entsprechend markiert: Du siehst dann einen Hinweis «Made with AI». Zumindest in den USA. Ich selbst sehe bislang keine solchen Markierungen. Sie scheinen in Europa noch nicht aktiv zu sein.
Das Anliegen ist löblich. Es gibt nur ein kleines Problem: Es funktioniert nicht. Instagram taggt laut diversen Berichten auch echte Fotos, die keineswegs mit einem KI-Tool generiert wurden. Das verärgert die betroffenen Fotografinnen und Fotografen.
Woran das liegt, ist noch nicht ganz klar. Meta gibt wenig darüber preis, wie genau diese Markierungen zustande kommen. Klar ist: Der Konzern stützt sich auf Wasserzeichen, die von den KI-Tools selbst in die Metadaten geschrieben werden. Dies lässt sich jedoch einfach aushebeln, etwa indem stattdessen ein Screenshot des Bilds hochgeladen wird.
Auch Photoshop nutzt Techniken, die unter Künstlicher Intelligenz laufen, etwa beim Retuschieren oder beim Entrauschen. Adobe ist Teil der Organisation C2PA, die sich der Transparenz kreativer Inhalte verschrieben hat. Ich vermute, dass Photoshop aus Transparenzgründen in die Metadaten schreibt, wenn ein Foto KI-gestützt bearbeitet wurde.
Aber deswegen ist ein herkömmlich geschossenes Foto noch lange nicht «Made with AI». Ein Foto, bei dem mit dem Reparaturpinsel ein störender Fleck wegretuschiert wird, ist etwas ganz anderes als ein Bild, das von Grund auf mit Midjourney, Dall-E oder Stable Diffusion erstellt wird.
Wasserzeichen sind das falsche Mittel zur Entlarvung
Bei den Content Credentials, einer Art verschlüsselter digitaler Wasserzeichen, geht es darum, die Echtheit von Fotos zu belegen sowie die einzelnen Bearbeitungsschritte transparent zu machen. Dazu gehören auch KI-Bearbeitungen. Das Ziel ist eine lückenlose Dokumentation des Erstellungsprozesses.
Mit solchen verschlüsselten Metadaten können Kreativschaffende beweisen, was sie gemacht haben. Das Umgekehrte ist aber nicht möglich. Man kann Wasserzeichen nicht verwenden, um zu beweisen, dass ein Foto nicht echt ist.
Die ganze Idee beruht darauf, dass die Content-Ersteller selbst an Transparenz interessiert sind. Sie ist nicht geeignet, um Tricksereien zu entlarven. Genau das will aber Meta.
Wenn es mit Wasserzeichen nicht funktioniert, womit funktioniert es dann? Was schon oft versucht wurde: KI mit Hilfe von KI zu erkennen. Das hat aber bislang nie funktioniert.
KI mit Hilfe von KI erkennen funktioniert nicht
Professoren würden gerne mittels KI überprüfen, ob eine Seminararbeit mit einer KI wie ChatGPT verfasst wurde. OpenAI, das Unternehmen hinter ChatGPT, arbeitete an einem solchen Detektor, stellte die Entwicklung aber 2022 ein. Interessant ist die Begründung: Kein Detektor habe jemals halbwegs zuverlässig funktioniert. Und anscheinend sah Open AI keine Anzeichen, dass sich das in absehbarer Zeit ändern wird.
Diese Detektoren nutzen die gleichen Methoden wie die generative KI. Beide basieren auf Machine Learning – also auf Mustererkennung auf Basis grosser Textmengen als Trainingsmaterial. Die Detektoren ermitteln, wie stark ein Text vom Stil einer bekannten KI wie ChatGPT abweicht. Doch da beisst sich die Katze in den Schwanz, denn ChatGPT & Co. ahmen ja den Stil von Menschen nach und werden auf der Grundlage menschlicher Texte trainiert.
Möglicherweise gibt es so etwas wie einen typischen ChatGPT-Stil. Doch das ist bloss die Standardeinstellung, die auch geändert werden kann. Diese Generatoren – egal, ob Text, Bild oder Musik – sind im Stil sehr flexibel. Sie können Genres oder gar Einzelpersonen imitieren.
Bei Bildern mag die Sache im Detail anders aussehen als bei Texten. Das Grundproblem aber bleibt. Eine KI, die KI zuverlässig erkennen soll, müsste wesentlich fortgeschrittener sein oder zumindest ganz anders funktionieren als das zu überprüfende KI-Tool. Und genau das ist nicht der Fall: Mustererkennung und Mustergenerierung basieren auf der gleichen Technologie.
Solange sich daran nichts grundsätzlich ändert, werden wir es weiterhin mit ärgerlichen Falschmarkierungen zu tun haben.
Durch Interesse an IT und Schreiben bin ich schon früh (2000) im Tech-Journalismus gelandet. Mich interessiert, wie man Technik benutzen kann, ohne selbst benutzt zu werden. Meine Freizeit ver(sch)wende ich am liebsten fürs Musikmachen, wo ich mässiges Talent mit übermässiger Begeisterung kompensiere.