
Nach 18 Monaten, mehr als 40 technischen Sitzungen und rund 90 Erwägungsgründen hat der AI Act mit der Abstimmung des EU-Parlaments eine große Hürde genommen. Die gesamte europäische KI-Branche beobachtet genau, was nun passiert. Denn besonders für viele junge Tech-Unternehmen geht es dabei um die Existenz. Als Gründer und CEO eines forschungsbasierten KI-Start-ups schaue ich deshalb mit besonderem Interesse auf den AI Act.
Zeichen der Zeit erkannt
Zunächst einmal ist es sehr positiv zu bewerten, dass die EU-Politiker und Politikerinnen die Zeichen der Zeit erkannt und sich (gerade für eine solch komplexe Institution) intensiv dem Thema gewidmet haben. Aus Sicht eines deutschen Start-ups ist dies ein erfrischender Perspektivwechsel, da wir hier leider die vergangenen Jahrzehnte erleben mussten, wie viel notwendige zukunftsgerichtete Gestaltung unter anderem bei der Digitalisierung schlichtweg verschlafen wurde.
Ein weiterer sehr wichtiger Punkt: Verabschiedet die EU den AI Act, wird es die weltweit erste umfassende KI-Verordnung sein. Dies setzt auch einen Anspruch auf globaler Ebene und zeigt den europäischen Gestaltungswillen. Durch den Anchoring Effect kann auch erwartet werden, dass Europa damit global den Ton in der KI-Gesetzgebung angibt – vergleichbar mit der internationalen Strahlkraft, die die DSGVO entfaltet hat. Rund 47 Prozent der deutschen KI-Start-ups bewerteten deshalb in einer Umfrage des Bundesverbands Deutsche Startups 2021 eine europäische Regulierung sogar als Vertrauen-bildende Maßnahme, die im internationalen Wettbewerb zum USP (Unique Selling Point, Alleinstellungsmerkmal) werden kann.
Europa bekennt sich zu seinen Werten
Außerdem zeigen sich im AI Act auch das Bekenntnis und der Anspruch Europas zu seinen Werten: Denn im AI Act wurden mit dem risikobasierten Ansatz zum ersten Mal Regeln zum Schutz von Menschenrechten kombiniert mit Regeln zur Produktsicherheit. Deshalb ist es auch gut, dass der Act rote Linien zieht und zum Beispiel Technologien zum Social Scoring ausdrücklich verbietet.
Dies kann in der deutschen Tech-Szene auf fruchtbaren Boden fallen. Denn eine Sensibilität und Bereitschaft zu ethischen Positionen ist auch eine der beherrschenden Tendenzen der deutschen KI-Start-ups: So fanden 2021 zum Beispiel mehr als 80 Prozent der Befragten, dass ethische Fragen bei der KI-Entwicklung mitbedacht werden sollen; und fast 90 Prozent stimmten der Aussage zu, dass KI-Start-ups sich ihrer gesellschaftlichen Bedeutung und Verantwortung bewusst sein sollten.
Sandboxes und Praxisnähe
Dennoch gibt es aber aus Sicht eines KI-Start-ups besonders drei große Herausforderungen, die der AI Act in der finalen und entscheidenden Phase noch bewältigen muss.
Erstens darf die Regulierung nicht nur die bereits bestehenden Monopole großer Konzerne weiter zementieren. Denn neue Vorgaben fallen oftmals gerade bei jüngeren und kleineren Unternehmen viel stärker ins Gewicht als bei etablierten Big Playern. Deshalb sollten bei der notwendigen Definition von Standards auch die Perspektiven von KMU und Start-ups mit einbezogen werden. Regulatory Sandboxes, die auf Start-ups zugeschnitten sind, können zusätzlich Raum für neue Entwicklungen bieten und so die Innovationskraft junger KI-Unternehmen unterstützen.
Damit verbunden ist auch der zweite Punkt: Die aus dem AI Act resultierenden Vorgaben müssen auch für Start-ups in der Praxis umsetzbar sein. Deshalb sollten nicht nur abstrakte Regeln formuliert, sondern auch die Umsetzung mitgedacht werden. Schließlich soll KI-Entwicklung ja nicht komplett verhindert, sondern in sinnvolle Bahnen gelenkt werden, sodass Menschen und Unternehmen in der EU davon langfristig profitieren können.
Das Kommunikationsklima ist ausschlaggebend
Die dritte Herausforderung betrifft den AI Act selbst – und die Kommunikation dazu. (Rechts-)Unsicherheiten müssen so gut es geht vermieden werden. Noch herrscht in der Branche eine große Unklarheit darüber, wer überhaupt wie sehr betroffen wäre und was für Auflagen für wen gelten würden. Dies hemmt nicht nur Entwicklungen auf Seiten der Start-ups, sondern verunsichert auch Investoren enorm.
Bereits jetzt zeichnet sich unter VCs (Venture Capital Fonds) das Stimmungsbild ab, dass sie wegen des AI Acts europäische KI-Startups bei Investitionen benachteiligen würden. Hierbei ist wahrscheinlich auch gar nicht so sehr die Tatsache entscheidend, ob es wegen des AI Acts wirklich gravierende Ein- und Beschränkungen für Unternehmen gäbe. Stattdessen ist das Kommunikationsklima ausschlaggebend: Wie verständlich wird der AI Act auf allen Ebenen kommuniziert? Wie aufgeklärt (zum Beispiel durch Best-Practices-Beispiele) fühlen sich Unternehmen und Investoren?
Ein Gesetz allein reicht nicht
Aus Sicht eines jungen KI-Unternehmens reicht deshalb ein Gesetzestext allein nicht aus. Die EU-Gesetzesgeber- und -geberinnen müssen den AI Act in den größeren Kontext setzen und die unterschiedlichen Perspektiven mitdenken. Parallel dazu sollten die EU-Regierungen auch Geld in die Hand nehmen, um die einheimische europäische KI-Industrie zu fördern – und hier insbesondere auf die Start-ups schauen, da diese als agile Innovationstreiber handeln.
Leif-Nissen Lundbæk ist Mitgründer und CEO des KI-Unternehmens Xayn und seit 2021 Forbes 30Under30-Visionär. Der promovierte Informatiker ist spezialisiert auf Cybersecurity sowie datenschutzfreundliche Algorithmen und Künstliche Intelligenz. Gemeinsam mit Michael Huth und Felix Hahmann gründete er 2017 das Privacy-Tech-Unternehmen als Fortführung seines Forschungsprojektes zu Datenschutz und KI. Xayn ist ein europäisches forschungsbasiertes KI-Unternehmen mit Sitz in Berlin, das datenschutzfreundliche und energieeffiziente Personalisierung für Unternehmen entwickelt.