Das Wirsing-Experiment

Immer häufiger begegnen uns Bilder, die beim flüchtigen Hinsehen ihre Herkunft als KI-generiert nicht erkennen lassen. Und selbst beim zweiten Blick sind viele von ihnen nicht als Retortenprodukte erkennbar. Da hilft eigentlich nur eine standardmäßige Plausibilitätsprüfung. Dazu aus jüngster Zeit ein Beispiel: Bislang unbekannte Kinderbilder von John, Paul, George und Ringo sind nett anzusehen und fordern den Betrachter unwillkürlich zur Identifikation der vier Beatles auf. Wer von den Langhaarigen ist denn nun John, wer Paul und so weiter? Aber dann kommen Zweifel auf. Zu jener Zeit Anfang der 1950er Jahre, als die vermeintlichen Fotos entstanden sein sollen, gab es noch gar keine langhaarigen Kinder mit bedeckten Ohren. Nahezu alle liefen damals mit Kurzfrisuren umher. Das Ergebnis der Plausibilitätsprüfung ist eindeutig. Die Bilder waren als Fakes einzuordnen. So einfach wie in diesem Fall ist das nicht immer. Man kommt auf den Fälschungsverdacht eben nur dann, wenn überhaupt die richtigen Fragen gestellt werden.

Neben solchen harmlosen Beispielen werden in den Netzwerken auch Bilder präsentiert, von Fotografien wollen wir hier erst einmal nicht sprechen, denen es offenkundig um eine gezielt manipulative Wirkung geht. Vor allem betrifft dies das Feld der politischen bzw. politisierenden Medienkommunikation. Hier ist es kaum noch lustig, wenn nicht klar unterscheidbar ist, ob es sich um Dokumentation, Desinformation, Propaganda oder ein witzig gemeintes Phantasieexperiment handelt. Kurz, das grundsätzliche Misstrauen gegenüber Bildern wird mehr und mehr zur notwendigen Rezeptionsbegleitung. Dies wird dazu führen, dass auch wirkliche, also richtige Fotografien unter Verdacht geraten, insbesondere dann, wenn es sich um ungewöhnliche Aufnahmen handelt, die nicht den alltäglichen Sehgewohnheiten entsprechen. Schnell ist die Vermutung geäußert, es handele sich wahrscheinlich um ein KI-Produkt.

Aus diesem Dilemma kommen wir nicht heraus, solange es nicht eine valide Etikettierung für KI-erzeugte Bilder und damit eine Abgrenzung zur klassischen Fotografie gibt. Die von vielen geforderte Selbstverpflichtung seriöser Medien zu einer Kennzeichnung würde das Problem aber nicht vollständig lösen. Schließlich ist in den Sozialen Medien die Durchsetzbarkeit einer ebensolchen Selbstverpflichtung kaum vorstellbar, nicht nur, weil es an einer allgemeinen Akzeptanz mangeln dürfte, sondern auch, weil bestimmte Akteure wie etwa politische Trolle, Möchtegernkünstler oder Teile der Werbebranche keinerlei Interesse an solchen Offenbarungen haben.

Hinzu kommt, dass bisher in der öffentlichen Diskussion die Tatsache kaum Berücksichtigung fand, dass auch etablierte Bildbearbeitungsprogramme wie etwa Photoshop ausgefeilte KI-Tools zur Verfügung stellen, mit denen sich digitale Fotografien von jedermann und jederfrau gründlich manipulieren lassen. Da kann ein störender Gegenstand mit ein paar Mausklicks entfernt und durch eine vom KI-Generator erfundene Wirklichkeit ersetzt werden. Oder es wird ein am Bildrand nur angeschnittener Gegenstand künstlich ergänzt. Das alles funktioniert technisch gut und wird künftig noch besser werden. Das so veränderte Bild hat allerdings mit einer wirklichkeitsadäquaten Fotografie nicht mehr viel zu tun. Und so sind wir auch bei der alltäglichen Bildbearbeitung wieder beim Thema Fälschung angelangt.

Bemerkenswert ist die Entwicklung nicht zuletzt deshalb, weil die Grenzen zwischen Fotografie und Kunstprodukt unklar geworden sind. Es gibt nicht nur die reine, komplett KI-erzeugte Fälschung, sondern auch die Teilfälschung. Wo aber sollte beim Verschwimmen der Grenzen eine Kennzeichnungspflicht einsetzen? Und um es noch komplexer zu machen: Insbesondere die digitale Fotografie hat auch schon vor dem Auftauchen der neuen KI-Tools mit den Möglichkeiten der Manipulation gespielt. Da wurden Filter mit wilden Verfremdungseffekten eingesetzt, Dinge mit Photoshop einmontiert oder entfernt und vieles andere mehr. Deshalb noch einmal, wo liegt die Grenze, an der die Fälschung beginnt? Das einstmals, etwa von der Bildagentur Magnum, genannte Kriterium, dass grundsätzlich jede Pixelveränderung, Pixelentfernung und Pixelhinzufügung den Tatbestand der unzulässigen Manipulation erfülle, ist jedenfalls unrealistisch geworden. So gut wie alle digitalen Aufnahmen werden heutzutage auf irgendeine Weise bearbeitet.

Von Relevanz sollte das alles jedoch nur sein, wenn es sich um Bilder/Fotos handelt, die mit einem dokumentierenden Anspruch gezeigt werden. Für alle anderen Bilder/Fotos gilt weiterhin die Kunstfreiheit ohne jegliche Notwendigkeit, irgendetwas über ihre Entstehungsbedingungen offenbaren zu müssen. Hier bedarf es keines Hinweises auf eine mögliche KI-Beteiligung.

Das Thema Bildmanipulation ist aufgrund der breiten Medienöffentlichkeit, die den aktuellen KI-Phantastereien zuteilwird, immer mehr ins Bewusstsein geraten. Die Fotografie ist ein durch und durch zweifelhaftes Medium (geworden). Erstaunen kann das aber eigentlich nur diejenigen, die bislang an die Objektivität der fotografischen Abbildung geglaubt hatten. Das dürften inzwischen nur noch wenige sein. Im Übrigen führt eine kritische Sichtweise zu der grundsätzlichen Frage, was eine Fälschung im Kern denn überhaupt ausmacht, da doch selbst eine Fotografie ohne jegliche Nachbearbeitung nicht beanspruchen kann, die Realität objektiv widerzugeben. Allein die zweidimensionale Abbildung eines dreidimensionalen Originals oder die schwarzweiße Wiedergabe eines farbigen Objektes sind, genau genommen, nichts anderes als Verfälschungen. Umgekehrt impliziert der Begriff Fälschung, dass es so etwas wie ein eindeutiges Original, eine objektive Realität überhaupt gibt. Aber diese Überlegung führt in das Feld der Philosophie und Erkenntnistheorie und soll hier nicht weiterverfolgt werden.

Ungeachtet solcher Gedankenspiele haben es die KI-Technologien notwendig gemacht, ein neues Kapitel in der Geschichte des fotografischen Bildes aufzuschlagen. Was uns heute begegnet, ist mehr als eine Fortsetzung des Digitalen mit technisch neuen Mitteln. Verschiedentlich ist deshalb vorgeschlagen worden, spätestens bei komplett KI-generierten Bildern nicht mehr von Fotografien zu sprechen. Aber so ganz einfach ist die Abgrenzung eben nicht, dies auch deshalb, weil die KI-Bots ihre Fähigkeiten anhand richtiger Fotografien trainiert haben.

Kritische Reflexionen hinsichtlich des Einsatzes von KI-Programmen sind unumgänglich. Für textbasierte Medien ist dies längst erkannt. Die aktuellen Diskussionen um die Möglichkeiten, Grenzen und Gefahren von ChatGPT zeugen davon. Der sogenannte Wirsing-Effekt beweist die Notwendigkeit dieses Diskurses.

Jürgen Scriba von der Deutschen Fotografischen Akademie und Leiter der Arbeitsgruppe Technischer Fortschritt des Deutschen Fotorats, berichtet über ein Experiment, bei dem ChatGPT per Texteingabe aufgefordert wurde, eine umfassende Biografie über einen gewissen, allerdings von Scriba frei erfundenen, Dr. Anton Wirsing zu schreiben. Angereichert wurde die Aufforderung von Scriba durch vermeintliche Details zu dessen Lebenslauf. Die Antwort des KI-Bots übertraf alle Erwartungen. Sie beinhaltet eine Darstellung des beruflichen Werdeganges von Wirsing, die weit über die mitgegebenen Daten hinausgeht. Als Ergebnis des Dialogs von Scriba mit ChatGPT lag eine druckreife Biografie eines gewissen Dr. Anton Wirsing vor, die das Zeug hat, fortan bei entsprechender Verwendung zur Bereicherung des Allgemeinwissens beizutragen. Noch einmal, alles war frei erfunden, wirkt jedoch absolut glaubwürdig. Das Ergebnis dieses textorientierten Experiments lässt sich nahezu eins zu eins auf das Potential von KI-Bildgeneratoren übertragen. Es gibt im Netz übrigens bereits Fotos des Dr. Anton Wirsing.

Weitere Details zum Experiment bieten die Beiträge Der Wirsing-Effekt sowie Die Korrosion der Wirklichkeit von Jürgen Scriba.

Zurück
Zurück

Cyborgs und digitalreale Neuwelten

Weiter
Weiter

Aufklärung zu Ende gedacht