KI-Tools wie der „Grünerator“ können Pressemitteilungen, Social-Media-Posts und Parlamentsanträge schreiben. Müssen Parteimitarbeiter um ihre Jobs fürchten?
Nein, man muss die generierten Informationen ja überprüfen und auch richtig eingeben. Von daher wird das politische Wissen der Mitarbeiter nach wie vor gebraucht. Ihre Arbeit könnte durch neue Tools sogar produktiver und professioneller werden.
Inwiefern?
Die Tools könnten etwa als Assistenten für Datenanalysen benutzt werden. Das könnte die datengetriebene Kampagnenführung und das Analysieren von Wählermeinungen vereinfachen. Viele Parteien haben Ressourcenprobleme oder nicht die Leute mit den entsprechenden Skills. Hier kann KI helfen.
Haben Sie ein Beispiel?
Parteien arbeiten mit Marktforschungsinstituten oder Agenturen zusammen und lassen sie Befragungen zu Themen oder Kandidierenden durchführen. Oft werden offene Fragen gestellt, die mussten bisher quasi händisch ausgewertet werden. Durch Large Language Models (LLM), auf denen auch ChatGPT basiert, lässt sich sowas besser automatisiert auswerten.
Was ist mit umstrittenen Praktiken wie dem aus den USA bekannten Microtargeting, das Wählerverhalten durch individuell zugeschnittene Botschaften beeinflussen soll?
In der EU, also auch in Deutschland, sind die Standards durch die DSGVO viel höher als in den USA. Personalisierte Daten dürfen nicht im gleichen Maße erhoben und gehandelt werden. Dadurch ist die Verknüpfung von großen Datensätzen und das individuelle Ansprechen von Wählerinnen und Wählern nicht in dem Maße möglich wie in den USA. Wählende sind also besser vor möglicher Manipulation geschützt.
Wie stellt man sicher, dass das so bleibt?
Man muss sich überlegen, welche Kontrollen es da geben sollte. Die meisten Parteien in Deutschland nutzen schon bisher nicht alle Tools, die Facebook, Instagram oder andere zur Verfügung stellen. Zum Teil aus Ressourcengründen, aber auch wegen Datenschutz-Bedenken.
Das könnte sich aber ändern, wenn das Ganze leichter und gebräuchlicher wird, oder?
Ja, aber das bedeutet nicht automatisch etwas Negatives. Parteien könnten zum Beispiel Nicht-Wählende besser ansprechen und dazu bringen, zur Wahl zu gehen – oder ihre internen Wahlkampf-Ressourcen effektiver einsetzen. Grundsätzlich ist es wichtig, dass Parteien den Datenschutz einhalten, transparent ihre Werkzeuge darlegen und Falschinformationen, ob nun automatisch oder manuell generiert, nicht nutzen.
Wofür könnten solche Tools noch genutzt werden?
Eine Partei könnte die Texte der Reden ihrer MdB aus den vergangenen Jahren im Bundestag hochladen und dadurch beispielsweise ein „SPD-GPT“ oder „FDP-GPT“ feintunen, das neue Reden im Stil der alten erstellt. Die gleiche Methodik lässt sich auch auf Pressemitteilungen oder Social-Media-Posts übertragen.
Die AfD hat KI-generierte Bilder verwendet, um vor „noch mehr Flüchtlingen“ zu warnen. Sollten solche politischen Gebrauchsfälle reguliert werden?
Das halte ich für schwierig. Durch solche Tools kann man zum Beispiel auch sehr günstig unterhaltsamen Content für Social-Media-Posts erstellen oder Bilder nachbearbeiten. Optimalerweise sollte aber immer dabeistehen, dass ein KI-Tool genutzt wurde.
Also keine Vorgaben?
Gut wäre eine Selbstverpflichtung der Parteien, solche Tools nicht zur Produktion von Falschinformationen zu nutzen oder zumindest keine Bilder in irreführenden Kontexten einzusetzen. Darüber hinaus wäre eine Taskforce für den digitalen Raum sinnvoll – mit Vertretern von NGOs, Wissenschaft, Medien und vielleicht auch der Politik. Dabei sein sollte auch die Bundesnetzagentur, die die Umsetzung des Digital Services Act der EU in Deutschland koordiniert.
Was wäre die Aufgabe der Taskforce?
Zum einen könnte sie ein Monitoring betreiben, um sicherzustellen, dass die Parteien keine Falschinformationen nutzen. Zum anderen könnte sie gegen mögliche ausländische Informationskampagnen vorgehen und die Plattformen auffordern, entsprechende Posts und Accounts zu entfernen.
Könnte sich die Wahrnehmung von Politik ändern, wenn Parteien vermehrt KI nutzen?
Ich sehe die Gefahr, dass das generelle Vertrauen in Institutionen und Medien weiter sinkt. Auch durch die Debatten, die wir jetzt schon führen darüber, ob es online eigentlich nur noch massenhaft Fakes gibt. Die Möglichkeit des automatisierten Erstellens von Bildern und Texten kann natürlich zu einer Flut von Falschinformationen, insbesondere durch ausländische Akteure, führen. Gleichzeitig sind es aber auch Tools, die konstruktiv genutzt werden können und die Kosten von politischem Marketing extrem senken. Daher es ist schwierig, das Ganze genau vorherzusagen.