Kann Künstliche Intelligenz überhaupt neutral sein?

Die Diskussion um die politische Neutralität in Künstlicher Intelligenz (KI) ist angesichts der jüngsten Entscheidung von US-Präsident Donald Trump, sogenannte „woke“ KI-Modelle für staatliche Anwendungen zu verbieten und stattdessen „ideologisch neutrale“ Systeme zu fordern, in den Fokus gerückt. Und auch der Vatikan äußert sich dazu.

Wer oder was beeinflusst KI-Systeme?

Künstliche Intelligenz wird mit den Daten trainiert, die von Menschen erzeugt und bewertet werden. Jede Auswahl von Trainingsdaten, jede Gewichtung und jede Regel hinterlässt Spuren – bewusste wie unbewusste. Schon der Begriff „Neutralität“ ist in diesem Zusammenhang irreführend, wie Wissenschaftler:innen und Mitglieder von Ethik-Kommissionen immer wieder betonen: „KI-Algorithmen, die gesellschaftliche Prozesse abbilden, übernehmen auch deren strukturelle Vorannahmen und Vorurteile“, berichtet die Website Politik-Wissenschaft.org Link.

USA: Verbot „woker“ KI

Die US-Regierung hat in dieser Woche bekannt gegeben, dass sie KI-Systeme, die Diversität, Rassismus oder Intersektionalität thematisieren, verbieten will. Begründet wird das mit dem vermeintlichen Ziel einer „wahrheitsgetriebenen“ und „ideologisch neutralen“ Technologie. Doch hierin liegt bereits ein „Bias“ (deutsch: Verzerrung/Voreingenommenheit): Denn allein durch das gezielte Ausschließen bestimmter Themen wird entschieden, welches Weltbild in der KI zulässig ist und welches nicht. Daneben gibt es keine einheitliche Definition von „neutral“, da sich politische und gesellschaftliche Werte ständig verändern. Was heute als neutral gilt, wird morgen vielleicht als einseitig kritisiert. Bedenklich ist zudem, dass stattdessen die – als „antiwoke“ proklamierte KI-„Grok“ von Trump-Befürworter Elon Musk als Beispiel für eine „ideologisch neutrale“ KI beworben wird, der aber u. a. rassistische Aussagen vorgeworfen werden.

Die Bias‑Frage bei Künstlicher Intelligenz

Untersuchungen der Universität Duisburg-Essen und politikwissenschaftliche Analysen zeigen: Große Sprachmodelle wie jene von OpenAI oder Google repräsentieren – abhängig vom verwendeten Trainingsmaterial – tendenziell ein eher „liberaldemokratisches und progressives Werteprofil“. Explizit neutral positionieren sie sich meist nicht, denn auch die bewusste Vermeidung von Positionen ist selbst eine Form der Auswahl. Eine repräsentative Studie der Universität Mainz zur Nutzung von KI in politischen Kampagnen unterstreicht zudem, dass die Bevölkerung mehr Risiken als Chancen beim Einsatz KI-generierter Inhalte in der Politik sieht. Die Unsicherheit darüber, wie „neutral“ oder parteiisch eine KI agiert, ist groß, ebenso wie die Forderung nach Transparenz und Kennzeichnungspflicht. „Die Folgen der Technologien müssen stets im Bewusstsein gehalten und der kritischen Überprüfung unterzogen werden. Denn eine Maschine kann nie eine moralische Instanz ersetzen“, so Dr. Simon Kruschinski von derUniversität Mainz. Der Vatikan meldet sich zu Wort und führt KI-Regelwerk ein In den Jahren 2024 und 2025 hat der Vatikan mehrere Stellungnahmen zu ethischen Fragen im Einsatz von Künstlicher Intelligenz getätigt. Zuletzt mit „Antiqua et nova“, der Note über das Verhältnis von künstlicher Intelligenz und menschlicher Intelligenz, wie unser Partnerportal explizit.net kürzlich berichtete Link.

Der Vatikan lehnt die Idee einer „neutralen“ Künstlichen Intelligenz ab und fordert eine KI, die sich an ethischen Leitlinien orientiert, den Menschen dient und das Primat menschlicher Verantwortung und ethischen Urteilens nicht gefährdet. Denn „technische Systeme können keine ethisch-moralischen Standards setzen, sondern benötigen stets menschliche Kontrolle und Verantwortung. Jede Entscheidung über Leben, Tod und Wahrheit bleiben ein menschliches Privileg“. Der Vatikan sieht die Integration von Wissenschaft und Technik als Mitwirkung an der Schöpfung an, stellt aber klar: Ohne Ethik und Verantwortung drohen Diskriminierung und Missbrauch, so „Antiqua et nova“.

Seit dem 1. Januar dieses Jahres gilt im Vatikan zudem das erste KI-Regelwerk. Es verbietet u. a. diskriminierende KI, verlangt Kennzeichnung „IA“-generierter Inhalte und setzt Transparenz, Datenschutz und ein Bekenntnis zur menschlichen Letztentscheidung als Maßstab für akzeptable KI-Nutzung. Als Inspirationsquelle dient die EU-KI-Verordnung, jedoch mit noch stärkerer Betonung von Gemeinwohl, Menschenwürde und kirchlichen Werten, wie unter anderem der Blog „Artikel 91“ berichtete Link.

Neutrale KI ist ein Etikettenschwindel!

Fazit: Selbst wenn Entwickler:innen von KI-Systemen Neutralität anstreben, spiegelt sich ein gesellschaftlich geprägtes Werte- und Weltbild wider, etwa durch Sprachgebrauch, Themenauswahl oder die Etikettierung von Informationen als „relevant“ oder „irrelevant“. Aus der (un) bewussten Beeinflussung wird dann eine Gefahr für die Meinungsfreiheit, wenn – wie jüngst in den USA – Maßnahmen zur Bias-Reduzierung verboten werden (oder mit dem Druckmittel der Geldkürzung erzwungen werden). Doch das Etikett „neutrale KI“ ist ein Etikettenschwindel, der vertuschen soll, dass direkter Einfluss auf die politische Stimmung eines Landes genommen werden soll. Dies gefährdet nicht nur die Meinungsfreiheit direkt oder indirekt (z. B. über „Selbstzensur“ im vorauseilenden Gehorsam) und damit einen der Grundpfeiler der Demokratie.

Statt auf nicht erreichbarer Neutralität sollte der Fokus lieber auf Transparenz, Verantwortlichkeit und reflektiertem Einsatz auf Grundlage ethischer Grundlagen liegen. Umso wichtiger werden jetzt die Pläne der Europäischen Union, ein eigenes KI-Sprachmodell bereitzustellen, bei dem – auch durch Gesetze oder Staatsverträge – gewährleistet werden soll, dass keine manipulierenden politischen Einflussnahmen daran möglich sind.

*Christian Schnaubelt (Chefredakteur und Herausgeber von kath.de) *