Droht uns dank KI die Fake-News-Riesenwelle? Kommunikationsprofessor Hoffmann gibt Entwarnung

 

Christian Hoffmann, Professor für Kommunikationsmanagement an der Uni Leipzig, erwartet, dass die Zahl der Fake News im Internet steigen wird, weil sie sich mithilfe von KI-Tools leicht produzieren lassen. Im kress-Interview sagt er, warum das kein Grund zur Panik ist.

kress.de: Herr Hoffmann, droht eine Riesenwelle an Desinformation über uns hereinzubrechen, weil jetzt dank Künstlicher Intelligenz (KI) manipulierte Texte und Bilder in hoher Zahl produziert und übers Internet verbreitet werden können?

Christian Hoffmann: Es ist naheliegend, dass generative KI auch von Menschen eingesetzt wird, die aus kommerziellen oder politischen Gründen Fake News im Internet verbreiten wollen. Die ersten Beispiele dafür gibt es bereits. KI kann die Erstellung von Fake News beschleunigen. Das kann man als eine "Welle" interpretieren. Aber man sollte dabei die Perspektive der Empfänger nicht außer Acht lassen. Im Moment haben Fake News nur eine sehr begrenzte Reichweite: Aus Studien wissen wir, dass nur etwa 0,1 Prozent der Inhalte, die Internet-Nutzerinnen und -Nutzer sehen, in diese Kategorie fallen. Selbst eine Verdopplung auf 0,2 Prozent würde also aus Sicht der Nutzenden noch keine Riesenwelle bedeuten.

Sie halten die Gefahr, die jetzt und in Zukunft von Fake News oder Desinformation im Internet ausgeht, also grundsätzlich für eher gering?

Ein Ergebnis der empirischen Forschung ist, dass nur eine kleine Minderheit der Internet-Nutzenden einen intensiven Kontakt zu Websites hat, deren Inhalte wenig vertrauenswürdig, von niedriger Qualität oder politisch extrem einseitig sind. Das sind aber keine Menschen, die völlig unbedarft auf bestimmte problematische Inhalte stoßen und sich davon beeinflussen lassen. Sie suchen solche Angebote vielmehr gezielt auf, weil sie bereits ein bestimmtes Weltbild haben und nach Informationen suchen, die dieses Weltbild bestätigen. Zu diesem Weltbild mögen Medieninhalte beigetragen haben, es gibt aber viele andere Einflussfaktoren, zum Beispiel wirtschaftliche, soziale und psychologische. Die große Mehrheit sieht hingegen im Internet praktisch keine Fake News. Die meisten Bürgerinnen und Bürger konsumieren nur wenige Nachrichten und innerhalb ihres Nachrichtenkonsums dominieren qualitativ hochwertige Angebote so stark, dass große Desinformationseffekte nicht zu erwarten sind.

Dann müssten wir dieses Gespräch eigentlich gar nicht führen?

Die breite Bevölkerung ist praktisch nicht gefährdet. Hier haben wir aus meiner Sicht eher das Problem, dass wir unnötig Vertrauen in Medien zerstören, indem wir so viel über Fake News und ihre Gefahren reden. Es gibt Studien, die zeigen, dass die Menschen dadurch auch gegenüber seriösen Nachrichten und Medieninhalten skeptischer werden. Aber wir müssen natürlich über den Umgang mit den Minderheiten reden, die eine hohe Exposition gegenüber Fake News haben, die den Institutionen nicht mehr vertrauen oder sich radikalisiert haben.

Das Wichtigste aus den Medien - einmal am Tag: Jetzt den kressexpress bestellen

Gilt die Diagnose von der geringen Verbreitung von Fake News im Internet für alle Länder?

Die aufwendigsten Studien beschäftigen sich mit den USA. Sie sind in der Tendenz stärker von Fake News betroffen als europäische Länder, weil das politische System und das Mediensystem dort polarisierter sind und es beispielsweise keinen nennenswerten öffentlich-rechtlichen Rundfunk gibt. Selbst in den USA ist die Verbreitung von Fake News aber insgesamt sehr gering.

Sind die für Fake News anfälligen Minderheiten unter dem Einfluss von Zeitumständen wie der Corona-Pandemie oder des Ukraine-Krieges größer geworden?

Das ist schwierig zu beantworten. Einer interessanten Studie zufolge ist das Personenpotenzial, das Verschwörungstheorien zuneigt, im Zeitverlauf recht stabil, die Art dieser Theorien wurde aber ausgetauscht. Vermutlich hat der Einfluss von Fake News mit der Digitalisierung zugenommen, nur schon, weil entsprechende Angebote im Internet leichter zu finden sind. Aber das in Ihrer Frage angesprochene Zusammenspiel aus Fake News, politischen, sozialen und ökonomischen Einflüssen ist eben leider sehr schwierig zu untersuchen.

Auch Sie befürchten, dass Desinformation mit Hilfe von KI zunehmen wird, wenn auch auf niedrigem Niveau. Was ist gefährlicher: manipulierte Texte oder Fake-Bilder?

Die Manipulation von Texten ist insofern tendenziell gefährlicher, als sie heute schon funktioniert und deswegen häufiger eingesetzt wird. Die Manipulation von Bildern erzeugt aber wahrscheinlich stärkere Wirkungen, wenn ihre Ergebnisse eines Tages besser sind und sie in der Breite eingesetzt werden kann. Bilder, vor allem Videos, haben eine höhere Glaubwürdigkeit und emotionalisieren die Betrachter stärker als Texte. Daher ist auch ihr Irreführungspotenzial größer. Politisch motivierte Manipulationen, etwa von Bildern von Staatsführern, hat es schon gegeben. Das waren aber eher "Cheap Fakes" als Deepfakes, weil sie schlecht gemacht und leicht als Fälschung erkennbar waren. Ich kenne bisher keine Beispiele für mittels KI manipulierter Bilder, die hohe Wellen geschlagen und eine nennenswerte Zahl von Menschen in die Irre geführt hätten.

Der stellvertretende AfD-Fraktionsvorsitzende im Bundestag, Norbert Kleinwächter, hat gerade auf Instagram und Twitter ein künstlich erzeugtes Bild von aggressiv wirkenden Männern mit dunklen Augen und dunklen Haaren verbreitet, um seine Botschaft "Nein zu noch mehr Flüchtlingen" zu untermauern. Ist das nicht eine relevante Form der Desinformation durch ein Bild?

Es ist fraglich, ob man hier von Mis- oder Desinformation sprechen kann, weil es sich ja um ein Symbolbild zur Illustration einer textlichen Aussage handelt, ohne dass behauptet wird, dass das Bild eine reale Situation zeige. Die Sachaussage steckt also im Text, nicht im Bild. Mit solchen Fällen werden wir es vermutlich häufiger zu tun haben, weil es einfacher und kostengünstiger ist, ein Bild selbst zu generieren, als Bildrechte zu erwerben.

Kleinwächter verzichtet auf die Kennzeichnung seiner Bilder als KI-Produkt mit der Begründung, sie seien "optisch klar als künstlerische Illustration erkennbar". Er dürfte darauf spekulieren, dass viele flüchtige Betrachter solche Motive sehr wohl für reale Szenen halten.

Das berührt die Frage der Kennzeichnungspflicht. Es ist diskussionswürdig, eine Norm einführen, wonach KI-Bilder als solche erkennbar gemacht werden sollten.

Sie forschen an der Universität Leipzig selbst zum Thema Deepfakes. Was haben Sie schon herausgefunden?

Teil unserer Studie ist eine Befragung von Journalistinnen und Journalisten, vor allem aus den Bereichen Fact Checking und Technologie. Unsere bisherige Erkenntnis ist, dass Deepfakes sehr selten sind und dass sich in den Redaktionen noch keine standardisierten Prozesse und Instrumente für den Umgang mit ihnen herausgebildet haben. Außerdem machen wir eine Publikumsbefragung. Wir wollen herausfinden, ob es glaubt, schon einmal einen Deepfake gesehen zu haben und ihn identifizieren zu können. Interessanterweise hat der tatsächliche Kontakt mit Deepfakes keinen signifikanten Einfluss auf dieses Selbstbewusstsein. Unsere Ausgangshypothese ist, dass die zunehmende Verbreitung KI-generierter Bilder langfristig dazu führen wird, dass wir eine größere Skepsis gegenüber Bildern an sich entwickeln.

Auch Medienunternehmen setzen längst KI ein. Welche Grenzen sollten Journalisten bei ihrem Einsatz nicht überschreiten und welche Regeln sollten sie unbedingt beachten?

Mittel- bis langfristig wird KI essenzieller Teil des Journalismus in vielen Bereichen werden, von der Recherche über die Text- und Bildgeneration bis hin zur Analyse des Nutzerverhaltens. Es gibt gut getestete Einsatzfelder, zum Beispiel in der automatisierten Sport- und Wirtschaftsberichterstattung, während wir es in anderen Bereichen noch mit einem sehr experimentellen Zustand zu tun haben. Redaktionen sind gut beraten, die Marktpenetration von KI-Tools aufmerksam zu beobachten, aber abzuwarten, welche sich als qualitativ hochwertig erweisen werden und sich durchsetzen. Im Fall von ChatGPT wäre mir der Einsatz für die Produktion journalistischer Texte noch zu riskant. Wichtig ist auch Transparenz: Für das Publikum muss erkennbar sein, wenn bei der Erstellung von Inhalten KI eingesetzt wurde.

Verschrecken solche Hinweise nicht das Publikum?

Einige Studien zeigen interessanterweise, dass sie das Vertrauen erhöhen, weil Nutzende darin eher eine Empfehlung als eine Warnung sehen. Viele halten von einer KI generierte Texte für neutraler und objektiver als von Menschen erstellte. Man muss es also letztlich der Souveränität des Publikums überlassen, wie es mit solchen Hinweisen umgeht.

Zur Person: Prof. Dr. Christian Pieter Hoffmann ist Professor für Kommunikationsmanagement am Institut für Kommunikations- und Medienwissenschaft der Universität Leipzig. Darüber hinaus verantwortet er am Institut für Politikwissenschaft die Lehre im Bereich der politischen Kommunikation. Hoffmann ist akademischer Leiter des Center for Research in Financial Communication. Seine Forschungsschwerpunkte liegen im Bereich des strategischen Kommunikationsmanagements, der Finanzkommunikation und der politischen Kommunikation – mit besonderer Berücksichtigung der Herausforderungen und Chancen neuer Medien.

Exklusive Storys und aktuelle Personalien aus der Medien- und Kommunikationsbranche gibt es von Montag bis Freitag in unserem kressexpress. Kostenlos unseren Newsletter abonnieren.

Ihre Kommentare
Kopf
Inhalt konnte nicht geladen werden.