Table.Forum

Zwischen Blackbox und Demokratie: Die Risiken der digitalen Gesellschaft

von Gerd Gigerenzer

Nach dem Sieg von Donald Trump bei den republikanischen Vorwahlen 2016 sagte dieser öffentlich: „Ich liebe ungebildete Menschen.“ Tatsächlich zeigten die Wahlergebnisse, dass rund zwei Drittel der weißen Wähler ohne Collegeabschluss für ihn gestimmt hatten. Ähnliche Muster finden sich beim Brexit oder bei den letzten Bundestagswahlen in Deutschland: Wählerinnen und Wähler der AfD stammen überdurchschnittlich häufig aus bildungsfernen Schichten, während Menschen mit Hochschulabschluss deutlich seltener zu dieser Partei neigen.

Vor diesem Hintergrund stellt sich eine zentrale Frage: Brauchen wir Bildung überhaupt noch in einer digitalen Welt?

Stellen wir uns das Jahr 2050 vor. Wir sind deutlich älter, und unser digitaler Assistent weiß alles besser als wir selbst. Eine künstliche Intelligenz schreibt eleganter, übersetzt mehr Sprachen, als wir je lernen könnten, kümmert sich um Gesundheit und Ernährung und organisiert unseren Alltag. Sogar politische Entscheidungen nimmt sie uns ab: Sie weiß längst, welcher Kandidat zu uns passt, und hat im Zweifel schon für uns gewählt. Wir müssen nichts mehr entscheiden.

Diese Vision nennt sich technologischer Paternalismus. Sie wird von einflussreichen Persönlichkeiten wie Eric Schmidt, dem ehemaligen CEO von Google, oder auch von Yuval Noah Harari propagiert. Eric Schmidt beschrieb einmal eine Zukunft, in der Menschen nicht mehr selbst Fragen stellen, sondern von Google direkt gesagt bekommen, was sie heute tun sollen und wie sie ihr Leben führen sollen.

1. Blackbox-Algorithmen und fehlende Transparenz

Immer mehr Entscheidungen werden heute von Algorithmen getroffen: Sie entscheiden, wer als kreditwürdig gilt, welche medizinische Behandlung jemand erhält, welche Nachrichten wir sehen oder wie hoch das Risiko für eine Straftat eingeschätzt wird.

Diese Systeme sind oft intransparent. Ihre Logik ist für Bürgerinnen und Bürger (und oft sogar für Expertinnen und Experten) nicht nachvollziehbar. Das wird damit begründet, dass komplexe Algorithmen bessere Ergebnisse liefern als einfache, transparente Modelle. Doch genau dafür gibt es kaum Belege. In stabilen, vorhersehbaren Welten sind hochkomplexe Systeme wie Reinforcement Learning unschlagbar. In unsicheren, dynamischen Situationen, in denen unerwartete Ereignisse auftreten, schneiden jedoch einfache, transparente Modelle genauso gut oder sogar besser ab. Und vor allem: Man kann sie verstehen.

Die Black-Box Gesellschaft ist also an vielen Stellen unnötig. Wir können mehr Transparenz schaffen. Darauf komme ich später mit einem konkreten Beispiel zurück.

2. Problematische digitale Geschäftsmodelle

Das zweite große Problem sind die Geschäftsmodelle großer Plattformen. Unternehmen wie Meta erzielen über 95 % ihres Umsatzes durch personalisierte Werbung. Um diese Einnahmen zu maximieren, müssen Nutzer möglichst viel Zeit auf der Plattform verbringen: scrollen, klicken, teilen und immer wieder zurückkehren, selbst dann, wenn sie das eigentlich gar nicht wollen.

Die Folgen sind gravierend: zunehmende psychische Probleme wie Depressionen und Einsamkeit sowie kognitive Einbußen, insbesondere bei jungen Menschen.

Eine Studie von 2025 mit objektiv gemessenen Bildschirmzeiten von 13- bis 18-Jährigen berichtete im Durchschnitt 1,5 Stunden Smartphone-Nutzung während der Schulzeit – pro Schultag. Das ist nicht Bildung durch Technologie. Das ist Ablenkung durch Technologie.

Die Entwicklung der PISA-Ergebnisse verdeutlicht das Problem: Nach dem PISA-Schock im Jahr 2000 verbesserten sich die Leistungen deutscher Schülerinnen und Schüler bis etwa 2012 deutlich. Seitdem stagnieren die Leseleistungen und fallen inzwischen sogar unter das Niveau von 2000. Natürlich hat diese Entwicklung mehrere Ursachen. Ein zentraler Faktor ist die massive Verbreitung von Smartphones und sozialen Medien. Bereits 2012 besaßen rund zwei Drittel der Jugendlichen ein Smartphone. Der ehemalige PISA-Leiter Andreas Schleicher weist darauf hin, dass Leistungsabfälle während der Corona-Zeit weniger durch Schulschließungen als durch Smartphone-Nutzung erklärbar sind.

Was kann man dagegen tun? Nicht nur Konzerne bestrafen, sondern auch Geschäftsmodelle regulieren. Statt mit Daten zu zahlen, sollten Nutzer wieder mit Geld zahlen. Um Werbeeinnahmen bei Facebook und Instagram zu ersetzen, müsste jeder Nutzer rund 2 Euro im Monat zahlen. Das wäre machbar, erfordert aber politischen Mut und Bürger, die bereit sind, für Freiheit und Privatsphäre etwas zu investieren. Doch hier zeigt sich das Privatsphäre-Paradox: In Umfragen sagen 75 % der Deutschen, sie seien nicht bereit, auch nur einen Euro für den Schutz ihrer Daten zu zahlen, obwohl sie sich gleichzeitig große Sorgen um ihre Privatsphäre machen.

3. Fehlende digitale Risikokompetenz

Digitale Risikokompetenz ist die Fähigkeit, Risiken und Chances der technologischen Welt informiert und kritisch zu beurteilen – und den Mut zu haben, selbstbestimmt zu handeln.

Deutschland investiert Milliarden in digitale Geräte für Schulen: Tablets, Laptops, Smartboards. Fast nichts wird jedoch in die digitale Risikokompetenz von Schülerinnen, Lehrkräften und der Bevölkerung investiert. Dies belegen alarmierende Zahlen: 92 % der Vorstände von DAX- und MDAX-Unternehmen haben keine dokumentierte Ausbildung im Bereich Digitalisierung. In Großbritannien reproduzieren 60 % der journalistischen KI-Berichterstattung schlicht PR-Aussagen. Nur 11 % der 15-jährigen Jugendlichen in Deutschland können zuverlässig zwischen Fakten und Meinungen unterscheiden. In einer Studie der Stanford University hielten über die Hälfte der Studierenden ein gefälschtes Video zu angeblichem Wahlbetrug für echt.

Wer manipulierte Inhalte Videos unkritisch für wahr hält, wird zum leichten Opfer von Desinformation – und damit zum leichten Opfer derer, die Vertrauen in Demokratie zerstören wollen.

All dies ist ein Warnsignal. In einer Welt, in der die KI immer intelligenter wird, müssen wir Menschen nicht weniger, sondern mehr lernen.

Einige Länder haben damit begonnen. Finnland gilt seit Jahren als Vorreiter, und Initiativen wie Faktabaari zeigen, wie Medien- und Informationskompetenz praktisch vermittelt werden kann. Dennoch wird digitale Urteilskraft vielerorts noch immer als Nebensache behandelt — während die Technologie selbst mit Milliarden gefördert wird.

Auch in Schulen kommt es darauf an, wie Technologie eingesetzt wird. Eine Analyse der PISA-Daten von 2018 zeigt, dass Schülerinnen und Schüler in Schulen, in denen Lehrkräfte digitale Techniken wie Datenprojektoren einsetzen, im Lernfortschritt rund ein Jahr vor jenen aus Schulen ohne diesen Einsatz liegen. Der Einsatz von Tablets durch Schülerinnen und Schüler hingegen geht mit um ein halbes Jahr schlechteren Schulleistungen einher.

Ohne gezielte Vermittlung digitaler Risikokompetenz wird die Demokratie angreifbar. Menschen lassen sich leichter manipulieren und Desinformation wirkt stärker.

Ein positives Beispiel: Transparenz beim Kreditscoring

Zum Schluss ein Beispiel dafür, dass Regulierung und Transparenz in der Praxis möglich sind: 2018 habe ich gemeinsam mit Gerd Wagner ein Gutachten zum verbrauchergerechten Kreditscoring vorgelegt. Zentrale Forderung war die Offenlegung von Scoring-Modellen gegenüber der Öffentlichkeit – einschließlich der verwendeten Variablen und ihrer Gewichtung.

In Zusammenarbeit mit Wissenschaftlerinnen und Wissenschaftlern wurde so das bestehende Scoring-System der Schufa grundlegend überarbeitet. Ein hochkomplexes Modell mit mehr als 250 Variablen wurde auf zwölf klar benennbare Faktoren reduziert – ohne Einbußen bei der Prognosegenauigkeit.

Dieses Modell ist heute öffentlich zugänglich. Verbraucherinnen und Verbraucher können nachvollziehen, welche Faktoren ihren Score beeinflussen. Der Prozess zeigt, dass transparente und zugleich leistungsfähige Algorithmen realisierbar sind, wenn Wissenschaft, Wirtschaft, Politik und Zivilgesellschaft gemeinsam an Lösungen arbeiten.

Digitalisierung muss nicht unverständlich sein. Wir leben in einer Welt voller Blackboxes. Doch das ist kein Naturgesetz. Gerade in einer unsicheren Welt brauchen wir verständliche Regeln, transparente Algorithmen und risikokompetente Bürgerinnen und Bürger.

Autor: Prof. Dr. Gerd Gigerenzer ist langjähriger Direktor des Max-Planck-Instituts für Bildungsforschung und heutiger Direktor des Harding-Zentrums für Risikokompetenz der Universität Potsdam.

Dieser Beitrag basiert auf ihrem Impuls beim High-Level-Round-Table des Table.Forum Datengesellschaft am 5. Mai 2026.

DasTable.Forum Datengesellschaft begleitet die entscheidenden Fragen an der Schnittstelle von Digitalisierung, Datenschutz und gesellschaftlichem Wandel. Wie kann eine zukunftsfähige Datengesellschaft gelingen? Renommierte Stimmen aus Wissenschaft, Politik und Praxis diskutieren, wie Deutschland und Europa die digitale Transformation gestalten können – souverän, fair und innovationsfreundlich. 

Unser Partner: SCHUFA Holding AG

Weitere Beiträge aus dem Table.Forum Datengesellschaft

Impressum

Table.Forum ist ein Angebot von Table.Briefings
Leitung: Regine Kreitz (v.i.S.v. § 18 Abs. 2 MStV)
Table Media GmbH, Wöhlertstraße 12-13, 10115 Berlin · Deutschland,
Telefon +49 30 30 809 520
Amtsgericht Charlottenburg HRB 212399B, USt.-ID DE815849087
Geschäftsführer Dr. Thomas Feinen, Jochen Beutgen