In dieser Woche wurde bei einem Symposium in München über den Einsatz von künstlicher Intelligenz in (kirchlichen) Medien diskutiert. Eine Studie aus NRW zeigt zudem, dass die Akzeptanz für den Einsatz von KI in Medien steigt, aber die Befragten gleichzeitig eine Kennzeichnung sowie eine Regulierung von KI forderten. Kann KI, welche durch die Generierung von „Fake News“ das Vertrauen in die Medien massiv erschüttert hat, auch dabei helfen, das verlorene Vertrauen in Medien wieder zurückzugewinnen?
„Im Vergleich zu älteren Studien zeigt sich damit, dass die Akzeptanz für den Einsatz von KI in den Medien steigt. So empfinden etwa die Hälfte der Befragten den Einsatz von KI bei politischen Themen als vertretbar (51 %). 61 Prozent befürworten eine KI-Unterstützung bei Nachrichten aus Deutschland und aller Welt“.
Zu diesem Ergebnis kommt eine Studie der Landesmedienanstalt NRW*. Einhergehend mit der stärkeren Akzeptanz erhöhen sich aber auch die Voraussetzungen für den Einsatz von KI in Medien:
„So stimmen mehr als zwei Drittel (69 %) der Befragten zu, dass es verbindliche Rechenschaftspflichten für ihren Einsatz geben sollte. Etwa genauso viele der Befragten forderten eine Aufsicht durch unabhängige Aufsichtsbehörden (68 %) oder insgesamt eine stärkere Regulierung von KI-Anwendungen (67 %)“.
In Zeiten, in denen KI-generierte „Fake News“ die Glaubwürdigkeit von Medien infrage stellen, ist das Zurückgewinnen von Vertrauen eine der wichtigsten Aufgaben der Medien sowie von Medienschaffenden, deren Arbeit sich durch KI gerade massiv verändert. Denn eine Langzeitstudie* belegt:
„Im Jahr 2023 ist das Vertrauen der deutschen Bevölkerung in die Medien erneut leicht gesunken und nähert sich dem Niveau vor der Corona-Pandemie an“. Während der Pandemie war das Vertrauen besonders hoch gewesen (12 Punkte höher als 2023 und 13 Punkte höher als vor der Pandemie im Jahr 1999).
Kann Künstliche Intelligenz helfen Vertrauen zurückzugewinnen?
Manche Leser:innen werden bei diesem Satz jetzt vielleicht an das Sprichwort „Den Teufel durch Beelzebub austreiben“ (angelehnt an Mt 12,24–27) denken. Denn KI hat doch gerade zum Vertrauensverlust von Medien (mit) beigetragen. Wie soll sie da jetzt helfen?
Aber es gibt – wie bei so vielem im Leben – auch beim Thema KI kein reines Schwarz und Weiß. KI kann nämlich auch dazu beitragen, „Fake News“ (sei es durch KI oder durch einen Menschen generiert) aufzudecken und einem „Fakten-/Realitätscheck“ zu unterziehen. KI kann helfen, Datenbestände und Dokumente in allen Sprachen der Welt zugänglich zu machen, die bisher nicht und nur wenigen „Gatekeepern“ zugänglich waren. Doch bei immer mehr Daten brauchen wir auch mehr Transparenz und Kontrolle.
Quellen und KI-Modelle offenlegen
Dabei wird es umso wichtiger, die Quellen, mit denen die KI-Modelle „gefüttert“ werden, und die KI-Modelle offenzulegen. Denn nur durch eine öffentliche (und unabhängige) Kontrolle können Manipulationsversuche offengelegt und die Schwachstellen von KI-Modellen (z. B. keine ausgeglichene Geschlechterrepräsentanz) behoben werden. Diese zertifizierten Daten können auch dazu beitragen, dass Medienschaffende die Rolle als „vierte Gewalt“ im Staat ausfüllen können und dass das Vertrauen in die Medien wieder erhöht werden kann.
*Quellen:
Christian Schnaubelt (Chefredakteur und Herausgeber von kath.de)
Hinweis: kath.de setzt auf Transparenz und Selbstverpflichtung
Der Einsatz von KI bei Recherche, Übersetzung und Distribution ist ein fester Bestandteil des Alltags in den Redaktionen geworden, auch bei kath.de. Allerdings haben sich alle die Redaktionsmitglieder und Autor:innen (auch bei den Tochterportalen explizit.net und hinsehen.net) am 02. März 2024 eine Selbstverpflichtung gegeben, den Einsatz von KI stets transparent zu kennzeichnen und bei dem finalen Erstellen von Texten auf den KI-Einsatz komplett zu verzichten und damit ein Bekenntnis zu „handgemachten“ Journalismus abzugeben.