Antonio Krüger: „Die Regulierung darf Innovationen nicht abwürgen“

Antonio Krüger ist CEO des Deutschen Forschungszentrums für Künstliche Intelligenz in Saarbrücken. Im interview spricht er über die KI-Regulierung der EU.
Antonio Krüger ist CEO des Deutschen Forschungszentrums für Künstliche Intelligenz in Saarbrücken.

Herr Krüger, kann man einen noch so unerforschten Bereich wie KI in einer Verordnung regeln?

Im Prinzip ist es eine gute Idee. Die Regulierung ist für Investitionen in bestimmte Arten von KI förderlich. So kann man den Markt in eine gewünschte Richtung lenken. Denn wir wollen keine chinesischen Verhältnisse.

Was meinen Sie damit?

Social Scoring, Überwachung, selektives Ausnutzen von KI-Techniken für bestimmte Gruppen – all das wollen wir nicht.

Ist der Zeitpunkt richtig oder kommt die EU mit der Künstlichen Intelligenz-Verordnung zu früh oder zu spät?

Wir sind noch vorne mit dabei. China hat gerade begonnen, eigene Vorstellungen über eine Regulierung zu entwickeln. Die USA tun sich eher schwer mit Regulierung und regeln Dinge eher über individuelle Gerichtsverfahren. Besser ist es, man hat einen guten Ordnungsrahmen. Deswegen ist es vernünftig, das jetzt zu tun.

Stimmt der Ansatz?

Ich finde es nicht schlecht, dass die EU mit Risikoklassen arbeitet. Das hat sich in anderen Feldern – wie etwa bei den Medizinprodukten – bewährt. Denn es gibt immer Bereiche, die sensibler sind als andere. Natürlich kommt es auf die Ausgestaltung an. Dabei darf die Regulierung Innovationen nicht abwürgen. Und das ist auch mein erster Kritikpunkt: Mir fehlt der Fokus darauf, innovative Ideen in der KI zu fördern. So ist es zum Beispiel wichtig, kleinen innovativen Firmen mehr Beinfreiheit zu geben.

Warum brauchen kleine Unternehmen mehr Spielraum?

Sonst besteht die Gefahr, dass sie bei so einem umfangreichen Regelwerk – und das wird es ja wohl werden – unter die Räder kommen. Große Unternehmen können sich große Rechtsabteilungen leisten, kleine nicht. Im schlimmsten Fall werden sie bei Verstößen von etablierten Unternehmen verklagt. Es ist in Ordnung zu sagen, wir wollen diesen Bereich regulieren. Aber an erster Stelle muss stehen, dass wir Innovationen in der EU fördern wollen. Das ist mir als Forscher ganz wichtig. Und bis jetzt steht das zu weit hinten.

Was kritisieren Sie noch?

Ich habe große Probleme mit den engen Definitionen zu KI-Systemen, die hier explizit benannt werden, und der Festlegung was ein KI-System ist und was nicht.

Juristen kritisieren, dass die Definitionen viel zu ungenau sind.

Das wundert mich nicht. Ich finde es allerdings besser zu fragen, was man schützen will. Das sind bestimmte Grundwerte. Und Systeme, die diese Grundwerte infrage stellen, die müssen reguliert werden. Eigentlich ist es doch vollkommen sekundär, welche KI-Technik unter der Motorhaube steckt. Wichtig ist, was dabei herauskommt. Wenn man dagegen KI-Systeme so genau definiert, dann wird es am Ende viele Streitereien und Schlupflöcher geben, weil jemand eine neue KI-Technik entwickelt hat und diese dann nicht unter die Regulierung fällt.

Reicht es nicht, einen Annex für solche technischen Entwicklungen zu haben, der fortgeschrieben wird?

Ich wäre eher dafür, die Regulierung vom Ende her zu denken und Risikoklassen, Anwendungsgebiete und Werte zu definieren, die man schützen möchte. Dann würden gewisse Lücken auch nicht entstehen. Neurosymbolische KI – also die Kombination verschiedener KI-Techniken – taucht zum Beispiel im Regelwerk gar nicht auf. Es wird immer Unternehmen geben, die die Regulierung umgehen wollen und wenn sie keine der definierten KI-Systeme nutzen, können sie tun, was sie wollen. Gleichzeitig ist es natürlich auch innovationshemmend, wenn man bereits eine Schere im Kopf hat, die den Einsatz bestimmter Techniken dann verhindert.

Warum ist es innovationshemmend, wenn man nach neuen Lösungen sucht?

Weil bestimmte erfolgversprechende Technologien dann nicht hier, sondern in anderen Teilen der Welt weiterentwickelt werden. Ich tue mich sehr schwer mit einer trennscharfen Definition von KI-Systemen. Hinzu kommt, dass KI sich unglaublich dynamisch entwickelt. Im Moment entstehen ganz neue Verfahren, die gar nicht unter die genannte Beschreibung fallen. Denken Sie nur an Quantencomputing. Ähnlich sieht es bei der Auflistung der Anwendungsgebiete aus. Im Prinzip ist das ok, aber auch hier muss der Regulierer sagen, wie er in diesen Gebieten für Innovationen sorgen und sie nicht nur verhindern will.

Was schlagen Sie vor?

Ich würde die ganze KI-Systematik streichen und viel mehr danach fragen: Was machen denn die Systeme? Beeinflussen sie die Autonomie des Einzelnen? Greifen sie sehr stark in Persönlichkeitsrechte ein? Die Beschreibung von Anwendungsgebieten und die Klassifizierung in Risikobereiche halte ich für gute Schritte, wenn auch einige zu genau und andere zu schwammig definiert sind. Aber hier wird sich sicher ein Kompromiss finden lassen.

Zum Beispiel?

Zum Beispiel im Bereich Social Scoring. Da haben die Regulierer wirklich vom Ende her gedacht: Systeme, die Menschen etwa anhand ihres sozialkonformen Verhaltens klassifizieren, sind als hochriskant eingestuft. Oder Systeme, die autonom Entscheidungen über kritische Infrastrukturen treffen. Das kann ich auch gut nachvollziehen. Aber da brauche ich keinen Satz darüber zu verlieren, wie sie gebaut sind. Wenn ein kritisches Sicherheitssystem anfängt zu würfeln, dann steckt garantiert kein KI-System hinter den Entscheidungen, aber das wollen Sie trotzdem ganz sicher regulieren. Was ich damit sagen will: Es können auch konventionelle Systeme in hochriskanten Bereichen zum Einsatz kommen, die womöglich schlechter arbeiten als KI-Systeme, aber nicht unter die Regulierung fallen.

Das heißt, der wichtigste Punkt ist die Risikoklassifizierung?

Ja, das würde ich so sehen. Es ist wichtig, dass das gut gemacht wird. Bei Unterstützungssystemen, bei denen der Mensch am Ende die Kontrolle behält, wäre ich deutlich entspannter als bei Systemen, die autonom handeln.

Wie sollte die Abstufung konkret erfolgen?

Ich würde das nicht nur an den Anwendungen, sondern auch daran fest machen, wie stark der Assistenzcharakter des Systems ist. Je stärker es sich einbringt, desto höher ist eventuell der Gewinn an Sicherheit und Komfort, aber auch das potenzielle Risiko. Aber es hängt natürlich auch vom Einsatzgebiet ab. Deswegen wird es wohl eine Mischung aus beiden Bereichen sein. Es gibt zum Beispiel diese absurde Diskussion über manipulative Techniken. Wir sind alle psychologischen Wesen, die sich beeinflussen lassen. Jede Werbung ist manipulatives Verhalten. Aber macht es wirklich einen Unterschied, ob ein KI-System dahintersteht oder uns auf andere Weise ein Produkt aufgedrängt wird? Und wie hoch ist andererseits der Schaden? Hier ist die Einstufung für mich noch zu unscharf. Auch hier hängt es sehr stark vom Einsatzgebiet ab.

Finden Sie mit Ihren Einschätzungen Gehör in Brüssel?

Wir bringen uns im Moment sehr stark über CLAIRE ein, den KI-Labornetzverband von Forschern und Anwendern, und auch über andere Verbände. Also, wir werden schon gehört und ich gehe davon aus, dass es noch Änderungen an der Verordnung geben wird.

Antonio Krüger ist CEO und wissenschaftlicher Direktor des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) sowie wissenschaftlicher Direktor des Forschungsbereichs „Kognitive Assistenzsysteme“ am DFKI. Er ist ein international angesehener Experte der Mensch-Maschine-Interaktion und Künstlichen Intelligenz.

Mehr zum Thema

    Paris’ neue Liebe zu erneuerbaren Energien
    Bosnien-Herzegowina vor den Wahlen: Im Griff der Nationalisten
    Rentenreform: Macron muss sich profilieren
    Kommission warnt vor Gaspreisdeckel