Analyse
Erscheinungsdatum: 29. Oktober 2023

Katja Muñoz: „KI-Firmen spielen mit dem kostbarsten Gut in einer Demokratie: Vertrauen.“

Katja_Muñoz-Headshot-Final-2023-10-27-15_57_18
Katja Muñoz ist Research Fellow in der DGAP und forscht zu Influencern und Mobilisierungspotential online und offline vor allem im Zusammenhang mit Desinformation sowie an der Schnittstelle zu Künstlicher Intelligenz (KI) und Demokratie. Sie interessiert sich vor allem für den Bereich Transformation der Elektoralen Politik in Sachen KI. Mit uns hat Muõz über die Gefahren durch KI-Influencer gesprochen, den Vertrauensverlust durch den KI-Hype und welche Rolle Deutschland hierbei einnehmen sollte.

Ist der Hype um KI gerechtfertigt?

Absolut. KI ist disruptiv, wird unser Leben verändern und tut es schon jetzt. In der Medizin wird das auf jeden Fall sehr positiv sein, auf dem Arbeitsmarkt vielleicht nicht ganz so stark, weil hier noch sehr viel Unsicherheit herrscht. Aber wir müssen davon wegkommen, KI nur in Bedrohungsszenarien zu denken, sondern tatsächlich auch die Potenziale herausarbeiten.

Was ändert sich für die Politik?

Es werden jetzt schon maschinell Reden geschrieben für Politiker. Ein Beispiel: Der Bürgermeister von Miami hat von sich selbst einen Chatbot generieren lassen, um Bürgernähe zu suggerieren. Mit diesem Chatbot kann jeder reden, so als würde er mit dem Bürgermeister selbst sprechen. Der Kreativität sind da keine Grenzen gesetzt. Insofern ändert sich gerade sehr viel, und es hängt von uns ab, wie wir damit umgehen.

Politikerinnen und Politiker werden immer sagen, dass sie selbst entscheiden. Aber sind politische Entscheidungsprozesse tatsächlich immun gegen KI?

Generell sind wir noch nicht in der Phase, dass Prozesse, die ein Entscheidungsträger in Gang bringt oder bringen sollte, direkt von einer Maschine ersetzt werden. Über Bots lassen sich bestimmte Stories in die eine oder andere Richtung pushen. Das ist jetzt schon möglich. Und in dem Sinne wird eventuell auch die Meinung eines Politikers beeinflusst. Gezielt wird das aber noch nicht eingesetzt. Aber das kann kommen. Nicht über GenAI ...

… die Generative Künstliche Intelligenz, die auf Basis von Vorgaben und historischen Daten neue Inhalte generiert …

… sondern durch sehr gezielte KI-Systeme, sogenannte Narrow AI, die dann nur bestimmte, eng gefasste Aufgaben haben. Sie bewerten zum Beispiel eine Studienlage. Die Ergebnisse dieser Systeme werden dann genutzt, um eine politische Meinung zu formulieren. Dazu wird es relativ schnell kommen.

GenAI speist sein Wissen aus öffentlichen Quellen. Wer diese Quellen kontrolliert, bestimmt den Output der jeweiligen KI. Sehen Sie da Einflussmöglichkeiten?

Mit Sicherheit. Die Frage ist: Ist GenAI hilfreich, um mich politisch weiterzubilden? Ich nutze das Tool manchmal für meine Arbeit, um Sachen zu formalisieren. Ich gebe einen Text ein und sage: Bitte korrigiere ihn formal. Inhaltlich bleibt der Text gleich. Ich würde mich allerdings nicht darauf verlassen, neue Erkenntnisse zu gewinnen, wenn es um spezifische Politikthemen geht.

Warum nicht?

KI, beziehungsweise GenAI, basiert – sehr einfach gesagt – auf Statistiken. Es klingt alles sehr schön,was dabei herauskommt. Aber es muss nicht wahr sein. Man sollte es also weder für Erkenntnisse nutzen und schon gar nicht, um sich eine Meinung zu bilden. Durch die statistische Auswahl der Daten ist sehr viel bias dabei. Oder die Daten sind veraltet: Bei ChatGPT etwa hat man Werte von vor zwei Jahren, danach wurde die Eingabe neuer Daten abgeschlossen. Google Bard hat immerhin Zugang zum Internet. Das Internet wird aber auch von Menschen gespeist, die eventuell gefährliches Halbwissen verbreiten oder aber mittlerweile auch sehr viel KI generierten Content. Wer Wissen über KI generiert, sollte immer einen Kontrollmechanismus einbauen.

Haben politische Entscheidungsträger ein Bewusstsein für diese Gefahren?

Ich hoffe es. Es ist wie bei jeder neuen Technologie: Manche Leute muss man mehr an die Hand nehmen als andere. Einige wissen zwar um die Technologie, aber nicht, was tatsächlich dahintersteckt. Ich selbst habe erst vor einer Woche „JesusAI“ gefunden. Das ist ein GenAI-Modell, das Jesus darstellt. Wem etwas auf der Seele liegt, der kann sich an JesusAI wenden und erhält dann eine Antwort in der Form, wie die KI sich den Rat von Jesus vorstellt. Christus by the book, ohne Interpretation eines Geistlichen. Was ist, wenn sich ein Politiker als Privatperson mit dieser KI unterhält, weil ihm das Trost gibt und Ratschläge für sein Leben? Ist das schon Beeinflussung durch KI?

Sie haben auch zu Social Media Influencern geforscht und deren Einfluss auf politische Prozesse. Inwiefern lässt sich das Aufkommen von KI mit der Disruption vergleichen, als mit Influencern auf einmal neue Player auf den Markt kamen?

Ein Influencer ist eine Person, die ein gewisses Mobilisierungspotenzial hat. Der Grund dafür liegt in der emotionalen Verbindung, die Influencer zu ihrer Community aufbauen. Man spricht auch von parasozialen Beziehungen. Wenn ein Creator, wie Influencer sich selbst lieber bezeichnen, solche parasozialen Beziehungen aufgebaut hat, kann er sie nutzen, um eine Community aufzubauen. Daraus entwickelt sich sein Mobilisierungspotential. Das ist ein Phänomen, das nicht nur für Influencer wichtig ist. Ein Politiker oder eine Berühmtheit kann auch eine emotionale Verbindung bei jemandem auslösen. Es gibt viele Menschen, die sich in jemanden verlieben, der berühmt ist.

Und jetzt kommt noch die KI dazu.

Der Facebook-Mutterkonzern Meta hat vor Kurzem seinen ersten AI-Influencer gelauncht. Das ist eine erschreckende Entwicklung. Wenn Facebook einen AI-Influencer kreiert, einen Chatbot, der auch noch aussieht wie eine Celebrity, in diesem Fall wie Kendall Jenner, dann hat das eine neue Qualität – unabhängig davon, dass die KI nicht Kendall, sondern Billie heißt.

Wer haftet für die Aussagen dieses AI-Influencers?

Genau das ist die Frage. Facebook hat sich bisher immer darauf berufen, neutral zu sein und sich so für den Content, den die Leute auf ihrer Plattform generieren, aus der Verantwortung gezogen. Welche Rolle hat das Unternehmen jetzt, wo es einen eigenen AI-Influencer online hat? Eigentlich müsste Meta ja selbst verantwortlich, also liable, sein. Natürlich weiß Facebook um die parasozialen Beziehungen. Wenn sie diesen KI-generierten Chatbot einsetzen, dann hat dieser nur den Zweck, die User noch mehr an die Plattform zu binden und Mobilisierungspotenzial zu entwickeln. Nur: Wofür genau wollen Sie mobilisieren? Was ist das Ziel? Das ist wieder so ein Ding, das noch nicht zu Ende gedacht worden ist. Es wurde etwas gelauncht, ohne darüber nachzudenken, was es gesellschaftlich für Auswirkungen haben könnte. Es gibt einen englischen Begriff dafür: ethical debt, die ethische Schuld.

Ähnlich wie bei ChatGPT?

Genau. Warum wurde es gelauncht? Weil es heißt: „Move fast and break things!“ Ohne darüber nachzudenken, was das für Konsequenzen für das Urheberrecht haben könnte, welcher bias eingebaut sein würde und wie disruptiv das für den Arbeitsmarkt sein könnte. Das sind alles ethical debts. Ich hatte letztens ein Gespräch mit jemandem aus dem Governance Team von OpenAI, der Firma hinter ChatGPT. Dort heißt es intern, sie seien Disruptoren. „Wir wollen zum Mond“, sagen sie. Das ist deren vorherrschendes Narrativ. Und für dieses Ziel sind eben einige negative Auswirkungen in Kauf zu nehmen.

Firmen wie OpenAI verbuchen Fake News also als Kollateralschaden?

KI-Firmen spielen mit dem kostbarsten Gut in einer Demokratie: Vertrauen. Ich vertraue eigentlich dem Staat, dass alles so abläuft, wie es ablaufen sollte. Dass Wahlen rechtmäßig und fair sind, repräsentativ, dass das Ergebnis korrekt ist. Ich muss es dann akzeptieren, auch wenn es nicht so kommt, wie ich es gern gehabt hätte. Aber es ist wenigstens fair zustande gekommen.

Ist KI also eine Gefahr für unsere Demokratie?

Wenn ich über KI rede und vor dem Ende der Demokratie warne – Doomsday und Wir-werden-alle-sterben – dann mache ich das Problem größer als es momentan ist. Dann gebe ich KI mehr Macht als ihr zusteht. Denn allein durch die Warnung vor einer möglichen Gefahr können Zweifel entstehen. Und das, ohne dass KI überhaupt eingesetzt wurde. Auch so verspielt man Vertrauen, etwa in Wahlen. Tatsache ist: Wir wissen noch nicht genau, wie destruktiv sich der Einsatz von KI auf den elektoralen Prozess auswirken wird. Aber weil KI so groß geredet wird, könnte der Vertrauensverlust jetzt schon da sein.

Welchen Einfluss hat KI konkret auf Wahlen?

Im Bereich Campaigning gibt es die Möglichkeiten, KI-Wahl-Management-Systeme und Kommunikationssysteme zu nutzen. In Deutschland hatte 2021 fast jede große Partei bereits ein Wahl-Management-System auf KI basierend.

Was kann das System?

Das System soll Wahlhelfern helfen, potenzielle Wähler zu identifizieren. Es werden anonymisiert Daten von Wählergruppen erfasst, und jeder im Wahlkampfteam hat die Möglichkeit, darauf zuzugreifen. Daran ist an sich überhaupt nichts Schlimmes. Schlimm ist, dass wir hier ein halbwegs intelligentes KI-System mit drin haben. Durch Triangulation kann die KI relativ schnell einzelne Personen identifizieren. Sie muss dafür nur die gesammelten Daten mit öffentlich verfügbaren Datenbanken übereinanderlegen – Postleitzahl, Geburtsdatum, E-Mailadresse – und schon ist man identifiziert. Ich will jetzt keiner Partei unterstellen, dass sie das tut. Es geht mir darum, dass man all diese Daten von außen her hacken könnte. Dass so ein Hack möglich ist, haben wir schon gesehen. Diese Sicherheitsbedenken führen wiederum zu Vertrauensverlust.

W ie wirkt die KI auf Wähler?

Da geht es um Einfluss. In KI-Sprech: voter sentiment influence. Interessant an diesem Aspekt wäre zum Beispiel, einen Bot zu programmieren, der auf GenAI basiert, mit der Aufgabe: Polarisation. Polarisation im Sinne von: Wahlthemen kontrovers aufzubereiten und auszuspielen. Zum Beispiel: liberal versus grün. Das Einzige, was der Bot dazu wissen muss: Was ist das Ziel, wer ist die Zielgruppe und was ist das Thema? Er filtert dann Leute heraus, die er über deren bisheriges Online-Verhalten identifiziert. In deren Timeline postet er bestimmte Nachrichten, um engagement zu provozieren. Pausenlos. Wenn jeder Bot 20 oder 50 Leute bearbeitet, summiert sich das schnell. Schließlich ist das kein normaler Bot, wie wir ihn bis jetzt kennen: Die Texte variieren, er kann personalisieren und es klingt natürlich. Das ist definitiv doable, vielleicht sogar schon done.

Wo sehen Sie speziell in Deutschland die Herausforderungen?

Verglichen mit den USA sind wir noch einen Schritt zurück. Wir sind noch bei der Digitalisierung der Verwaltung. Aber wir kommen auch dahin. Deswegen werden wir mit verschiedenen Wahlleitern auf kommunaler, regionaler und Bundesebene reden müssen, um zu sehen, wo sie Schwachstellen sehen, wenn irgendwann KI-Systeme dazu kommen. Im Moment wissen wir es noch nicht. Deswegen ist das Bewusstmachen, dieses mapping, so extrem wichtig.

Ist die Entwicklung in diesem Bereich zu schnell für ein schwerfälliges System wie Demokrati e?

Die Entwicklung ist im Moment rasend schnell. Man kann kaum mithalten, weil alle drei bis sechs Wochen eine neue Version veröffentlicht wird. Es wird auch keinen Endzeitpunkt dieser technologischen Entwicklung geben. Das Einzige, was wir machen können, um halbwegs die Kontrolle zu behalten, ist, entweder KI-Firmen mehr an den Staat zu binden, um dann Kontrolle über Rückwirkung und Haftung zu haben. Oder aber tatsächlich in jedem Sektor das erwähnte mapping durchzuführen: Wie wird KI mich betreffen? Um dann vorbereitet zu sein auf das, was kommt. Nur, wenn ich ganz genau weiß, wo ich gerade bin, kann ich Risiken minimieren und sogar Möglichkeiten nutzen. Aber dafür muss ich erst mal ganz genau wissen, was innerhalb meines Ressorts von KI beeinflusst wird. Und dass fast jedes Ressort beeinflusst wird, steht außer Frage.

Welche Chancen sehen Sie?

Demokratie ist ein System, mit dem wir in Deutschland seit Jahrzehnten vertraut sind. Die Frage ist: Müssten wir uns nicht vielleicht auch entwickeln? Könnten wir nicht KI-Systeme nutzen, um neue Wege der demokratischen Partizipation zu finden, um die Dissonanz in der Bevölkerung zu verringern? Demokratie transformiert sich mit und passt sich an. Wie könnte diese Anpassung aussehen? Hierin sehe ich tatsächlich eine Chance.

Kann sich ein relativ kleiner Markt wie Deutschland gegen Player in den USA behaupten?

Deutschland allein hätte da wahrscheinlich Probleme. Aber Deutschland agiert nicht allein, sondern immer innerhalb der EU. Und als EU haben wir definitiv Gewicht im Moment. Der Marktzugang ist immer noch attraktiv. Der AI Act der EU ist der Versuch, durch Regulierung Einfluss zu nehmen auf diese Entwicklung. In Europa wird dann vielleicht nicht in die innovativsten und riskantesten KI-Start-Ups investiert, die gehen in die USA oder nach China. Die Frage, die wir uns stellen müssen, ist: Was ist unser Ziel? Wollen wir genauso innovativ sein wie die USA? Oder wollen wir lieber vertrauenswürdige KI entwickeln?

W as befürworten Sie?

Unser Ziel sollte sein, uns als Region zu etablieren, in der es sichere KI-Anwendungen gibt.

Letzte Aktualisierung: 24. Juli 2025
Teilen
Kopiert!