Deep Fake Revolution

Von der Axt bis zur Atomspaltung – jede neue Technologie bietet das Potenzial zum Missbrauch. Auch Artificial Intelligence macht da keine Ausnahme. Die Mediengesellschaft ist anfällig für Fakes, und mit AI-Tools ist Manipulation einfacher denn je. In Text – und vor allem in Bild. Ist KI eher Teil des Problems oder Teil der Lösung? Kann KI maschinengenerierte Inhalte identifizieren? Wir haben es getestet.

Eins der aufsehenerregendsten Bilder-Fakes der jüngeren Mediengeschichte: Papst Franziskus im knöchellangen Rapper-Mantel.

Alles beginnt mit einem Spaß. Ein 31-jähriger Bauarbeiter aus Chicago geht auf einen Trip mit halluzinogenen Pilzen – und kreiert dabei eins der aufsehenerregendsten Bilder der jüngeren Mediengeschichte: der Papst auf der Straße, eingehüllt in einen knöchellangen, weiß-silbernen Puffmantel. So etwas tragen Rapper in Musikvideos auf Tik-Tok. Das Bild wird schnell zum Social-Media-Scoop: päpstliche Extravaganz in lässig urbaner Streetware. Die Welt lacht.

Aber das Lachen bleibt einem im Hals stecken. Kreiert wurde das Bild mithilfe des KI-Tools Midjourney. Bei Bildgeneratoren wie diesem, genauso wie bei Dall-E oder Stable Diffusion, gibt man ein, was man sehen will, und die Algorithmen erledigen den Rest. Ob im Drogenrausch oder mit spitzer Propagandafeder – das Tool ist kinderleicht zu bedienen und produziert täuschend echte Bilder für eine immer schneller und viraler drehende Welt.

Aus der jüngeren Vergangenheit wissen wir, wie anfällig die Mediengesellschaft für Fakes ist. Während viele in der Branche noch über vermeintliche Pressebilder von einer Verhaftung Donald Trumps kichern, stellen wir fest: Das könnte ein Horrortrip werden, der nicht nur die Glaubwürdigkeit des Mediensystems infrage stellt, sondern auch Grundwerte der Demokratie und des Rechtssystems untergräbt. Wenn im allgemeinen Grau der Medien keine sicheren Konturen mehr erkennbar sind, könnten sich immer mehr Menschen nach der vermeintlichen Sicherheit einfacher Antworten und starker Worte sehnen.

Neu ist das Problem nicht. Manipulationen in Medienberichten gibt es, seit es Medien gibt, und Bildbearbeitung gehört zur DNA der Fotografie. Neu ist, wie einfach es ist, Fakes in Bild und Text herzustellen und massenhaft zu multiplizieren.

Zu unterscheiden was echt ist und was Fake, dabei helfen bislang sogenannte Fact-Checker. Im deutschsprachigen Raum sind das etwa Correctiv oder Hoaxsearch. Sie arbeiten gründlich und langsam, wie es sich für Journalisten gehört – und halten deswegen mit der immer schnelleren Fake-Produktion kaum mehr Schritt. Lügen verbreiten sich schneller als Wahrheiten – bis zu sechsmal so schnell, besagt eine Studie des MIT. Immer mehr Leuten fällt es schwer, menschengemachte Inhalte von KI-generierten zu unterscheiden.

Sind KI-Werkzeuge eine Lösung, wenn es um Antworten auf dieses Problem geht? Wir haben verschiedene Textanalyse-Anwendungen getestet und miteinander verglichen. […]


Möchten Sie weiterlesen? Klicken Sie hier, wenn Sie ein Jahres- oder Probeabo abschließen oder ein Einzelheft bestellen möchten.

Dieser Beitrag ist ein Auszug aus der prmagazin-Printausgabe Mai 2023.