Sommer-Spezial: Die Zukunft globaler KI-Regeln
Dauer: 31:15

Sommer-Spezial: Die Zukunft globaler KI-Regeln

Corinna Visser vom Europe.Table moderiert dieses Sommer-Spezial.


Deutschland treibt die Schaffung internationaler Regeln für Künstliche Intelligenz voran, um Missbrauch zu verhindern und Innovationen zu fördern. Das sagt Benjamin Brake, Abteilungsleiter für Digital- und Datenpolitik im Bundesministerium für Digitales und Verkehr, in dieser ersten Folge der Sommerserie des Table.Today-Podcasts.


„Deutschland spielt eine starke Rolle in internationalen Gremien wie der OECD, um den Code of Conduct zu operationalisieren.“


Ebenso wichtig sei es, die Öffentlichkeit besser über die Funktionsweise von KI zu informieren: „Wir müssen die Menschen aufklären und ihnen Tools an die Hand geben, um Fake von echt zu unterscheiden.“ Allerdings seien noch einige Dinge zu tun, um Deutschland und Europa auf internationaler Ebene im Bereich KI wettbewerbsfähig zu machen.


Table.Briefings - For better informed decisions.

  

Sie entscheiden besser, weil Sie besser informiert sind – das ist das Ziel von Table.Briefings. Wir verschaffen Ihnen mit jedem Professional Briefing, mit jeder Analyse und mit jedem Hintergrundstück einen Informationsvorsprung, am besten sogar einen Wettbewerbsvorteil. Table.Briefings bietet „Deep Journalism“, wir verbinden den Qualitätsanspruch von Leitmedien mit der Tiefenschärfe von Fachinformationen.  

Professional Briefings kostenlos kennenlernen: table.media/registrierung.



Hosted on Acast. See acast.com/privacy for more information.

Transkript

Sprecher 1: Table Today mit Michael Bröker und Helene Bubrowski.

Sprecher 2: Hallo und herzlich willkommen zur ersten Folge der Sommerserie von Table Today. Heute geht es um globale Regeln für künstliche Intelligenz. Mein Name ist Corinna Fisser, ich bin Redakteurin bei Europe Table. Unser Team analysiert europäische Politik und Regulierung. Mein Arbeitsbereich ist das Digitale und künstliche Intelligenz ist dabei wohl das meist diskutierte Thema der Zeit. Das liegt nicht nur daran, dass wir gerade lernen, wie mächtig diese Technologie bereits heute ist, sondern wir erkennen auch, dass sie in so gut wie allen Lebensbereichen und vor allem in der Wirtschaft eine entscheidende Rolle spielen wird. KI hat riesiges Potenzial, mit den schier unendlichen Chancen sind aber auch erhebliche Risiken verbunden.

Sprecher 3: I built a couple of AI companies. I sold one of them to Uber. I love AI, but right now I'm worried. One of the things that I'm worried about is misinformation, the possibility that bad actors will make a tsunami of misinformation like we've never seen before.

Sprecher 4: Generative AI and its impact, our blueprint. And what comes next? These are really, really exciting times. A restart of our computer industry. We should accelerate everything. I predict that every application that is processing intensive will be accelerated, and surely every data center will be accelerated in the near future.

Sprecher 5: Whether you think artificial intelligence will save the world or end it, you have Jeffrey Hinton to thank. Hinton has been called the godfather of AI. Hinton believes that AI will do enormous good, but tonight he has a warning.

Sprecher 6: So one of the ways in which these systems might escape control is by writing their own computer code to modify themselves. And that's something we need to seriously worry about.

Sprecher 7: Now, what happens when something vastly smarter than the smartest person comes along in silicon form? It's very difficult to predict what will happen in that circumstance. I think there should be some government oversight because it's a danger to the public.

Sprecher 2: Eine aktuelle Umfrage des Progressiven Zentrums hat gezeigt, dass die Erwartungen an den künftigen Nutzen der KI-Anwendungen in Deutschland ziemlich pessimistisch sind. Demnach glauben aktuell nur 23 Prozent der Deutschen, dass künstliche Intelligenz ihr Leben verbessern wird. Die Gründe dafür sind vielfältig. Klar ist, mit zu viel Pessimismus lässt sich Fortschritt nicht gestalten, weder technisch noch sozial. Die Frage ist, ob Menschen ein besseres Gefühl gegenüber künstlicher Intelligenz bekommen, wenn es strenge Regeln gibt. Die Europäische Union hat sich mit ihrem KI-Gesetz bereits auf den Weg gemacht, menschenzentrierte und mit unseren Werten übereinstimmende Regeln für künstliche Intelligenz festzulegen. Und dieses Gesetz, der AI-Act, wird am 1. August endlich in Kraft treten. Das war ein ziemlich schwieriger Weg bis dahin, weil mitten im Gesetzgebungsverfahren plötzlich Chat-GPT auf den Plan getreten ist und die Diskussion damit nochmal angeheizt hat. Der AI-Act soll aber heute nicht unser Thema sein, denn er ist bei weitem nicht das einzige Regelwerk in diesem Bereich. Auf internationaler Ebene, angefangen bei den Vereinten Nationen, über die OECD bis zu den G7, gibt es bereits Leitlinien und Abkommen zum Thema künstliche Intelligenz oder sie werden gerade noch verhandelt. Doch sind sie miteinander kompatibel? Und was passiert, wenn sich niemand an diese Regeln hält? Wer setzt sie denn über? Ich freue mich, dass wir heute einen Experten zu Gast haben, der die Verhandlungen zu einigen dieser internationalen Vereinbarungen begleitet hat und daher erklären kann, ob wir diese Abkommen brauchen und wie sie zusammenspielen. Unser Gast ist Benjamin Bracke, Abteilungsleiter Digital- und Datenpolitik beim Bundesministerium für Digitales und Verkehr. Herzlich willkommen, Herr Brake.

Sprecher 8: Hallo Frau Fisser und vielen Dank für die Einladung.

Sprecher 2: Was sind denn Ihre persönlichen Erfahrungen, die Sie bereits mit künstlicher Intelligenz gemacht haben?

Sprecher 8: Mit künstlicher Intelligenz machen wir ganz häufig sehr unbewusst Erfahrungen, wenn wir das gar nicht glauben, dass da künstliche Intelligenz hinter steckt. Bei mir ist das zum Beispiel so, eines meiner schönsten Feature oder eines meiner schönsten Erlebnisse mit künstlicher Intelligenz sind die Musikempfehlungen bei Spotify. Jetzt kann man darüber streiten, ob das Machine Learning ist oder künstliche Intelligenz. Da sind die Grenzen ja auch fließend. Was für tolle Musik ich schon über die Empfehlungen dort gefunden habe, das ist Wahnsinn. Das hat mein Leben enorm bereichert tatsächlich und das möchte ich nicht missen.

Sprecher 2: Das ist jetzt eine Anwendung, wo man wahrscheinlich nicht sofort Angst bekommt. Genau. Aber können Sie verstehen, warum viele Menschen Angst haben vor künstlicher Intelligenz?

Sprecher 8: Ich habe ein bisschen Probleme immer mit dem Wort Angst. Ich kann verstehen, dass das Menschen verunsichert. Ja, und es ist auch... Aufgabe der Politik, aber auch der Wirtschaft, zu zeigen, was für Chancen in künstlicher Intelligenz liegen.

Sprecher 2: Und können Sie auch erläutern, welche Aufgaben Ihr Ministerium bei der Regulierung von künstlicher Intelligenz hat?

Sprecher 8: Wir sind insbesondere für den internationalen Bereich der Regulierung von künstlicher Intelligenz zuständig. Also das ist alles, was über die Europäische Union hinausgeht. Allerdings lässt sich das nicht trennscharf trennen. Ich mache das an einem Beispiel fest. Wir haben im Rahmen der G7 einen Code of Conduct entwickelt zum Umgang gerade mit generativer künstlicher Intelligenz. Aber dieser muss natürlich auch im Einklang stehen mit den Überlegungen zur KI-Verordnung. Denn wir wollen ja keine Insellösungen schaffen.

Sprecher 2: Ich habe mal versucht, mir einen Überblick darüber zu verschaffen, welche internationalen Regelungen, Abkommen, Leitlinien, Konventionen es gibt zu künstlicher Intelligenz. Und da ist eine Menge unterwegs. Also wir haben das schon angesprochen, das KI-Gesetz der EU, der AI-Act. Dann hat der Europarat, der ja nicht die EU ist, seine eigene KI-Konvention beschlossen jetzt. Es gab im vergangenen Jahr von den Briten die Bleach-Lay-Declaration. Es gab den Hiroshima-AI-Process, der G7. Die OECD hat Leitlinien entworfen, die Vereinten Nationen. In den USA gibt es eine Executive Order von Präsident Biden. Und China hat auch eigene Regeln. Die hat vorgelegt den New Generation Artificial Intelligence Development Plan. Können Sie da mal so ein bisschen Ordnung bringen? Ja, sehr gerne. Das mal ein bisschen sortieren.

Sprecher 8: Sehr gerne. Am besten kann man es entlang zweier Dimensionen sortieren. Einerseits sozusagen thematische Dimensionen rund um KI. Nehmen wir die Bletchley Park Declaration. Das war der AI Safety Summit und die haben sich sehr, sehr stark auf Sicherheit von generativer KI und hier sehr speziell auf sogenannte Frontier Models spezialisiert oder fokussiert. Das bedeutet sozusagen, was kann von Gefahren tatsächlich ausgehen von ganz, ganz weit entwickelter generativer KI. Wenn Sie jetzt dagegen den AI-Act nehmen, das Thema ist ein anderes. Das ist im Wesentlichen eine Produktregulierung. Also die Frage, wie lassen wir KI sicher im Markt zu? Also wir können sozusagen entlang der Themen ein Stück weit klastern. Und die zweite Dimension ist der Grad der Verbindlichkeit. Je höher sie gehen, desto unverbindlicher wird es. Das hat nichts mit der Thematik KI zu tun. Das ist sozusagen das Wesen von internationalen Vereinbarungen und Konventionen. Je weiter runter sie gehen, also sie brechen es runter von OECD bzw. Von G7 auf die EU und dann auf die Nationalstaaten, desto konkreter wird es. Deshalb sind das, was wir auf G7-Ebene vereinbart haben, wir reden von einem Code of Conduct, ich würde eher von Programmsätzen reden. Das heißt, wir haben uns darauf geeinigt, wie wir generative KI grundsätzlich sehen, welche Punkte wir berücksichtigen müssen, wenn wir es in unseren eigenen Jurisdiktionen dann konkreter machen. Das haben wir mit dem AI-Act gemacht und das machen wir jetzt noch sehr konkret mit dem Umsetzungsgesetz des KI-Actes. Die Amerikaner lösen das auf eine andere Art und Weise. Sie haben die Executive Order angesprochen. Es gibt da auch sogenannte Voluntary Commitments, aber die beziehen sich alle inhaltlich sozusagen auf das, was wir international zusammen beschlossen haben.

Sprecher 2: Sie sprechen die ganze Zeit von generativer KI. Vielleicht sollten wir doch noch einmal kurz definieren, was wir damit meinen.

Sprecher 8: Ja, mit generativer KI ist insbesondere eine sogenannte generelle KI gemeint. Das ist KI, die ihre Informationen aus dem Internet zieht und ganz neue Inhalte dadurch generiert, dass ich mit ihr interagiere, sei es jetzt sozusagen über eine Sprachsteuerung oder eben über Bildgenerierung. Und dabei müssen wir auch lernen, wie wir richtig mit der KI umgehen, also wie wir prompten mit der KI eben auch. Also wie stellen wir eigentlich der KI die richtigen Fragen, damit auch die richtigen Antworten am Ende rauskommen, beziehungsweise bei Bildgenerierung das, was wir uns eben auch vorgestellt haben.

Sprecher 2: Was sind denn jetzt eben die Gefahren, vor die man die Menschen schützen muss, wenn es auch schon so eine Art Wettrennen um die besten Regeln gibt? Also wofür müssen die Menschen geschützt werden?

Sprecher 8: Ganz grundsätzlich lässt sich... Jede Technologie zum Guten einsetzen und zum Schlechten einsetzen. Das ist bei KI nicht anders. Ich komme von einer Veranstaltung, wo diskutiert wurde, wie wir zum Beispiel mit Stimmimitationen, die immer besser werden, umgehen oder sogenannten Deepfakes. Also wenn man nicht mehr erkennt, ob das die Person ist, die in einem Video ist, also ob die wirklich authentisch ist oder ob sie eben generiert worden ist. Und jetzt Ihre Frage ist sehr, sehr schwierig zu beantworten. Wo müssen wir ansetzen, um die Menschen vor den Gefahren zu schützen? Wir müssen sie einerseits, glaube ich, aufklären darüber. Wir müssen ihnen Tools an die Hand geben, um eben Fake von Echt zu unterscheiden. Das muss nicht immer heißen, Fake ist schlecht und Echt ist gut. Sie können auch mit einem KI-Bot kommunizieren im Rahmen von Behördengängen zum Beispiel. Es muss nur transparent sein. Es muss nur transparent sein, dass jeder oder jede, die mit einem Chatbot agiert, weiß, dass dieser zum Beispiel KI gestützt oder KI generiert ist. Wir haben ein ganz großes Thema beim Urheberrecht, wo wir auch Debatten führen, ob hier etwas reguliert werden muss oder ob hier nichts reguliert werden muss. Und dann müssen wir natürlich, und das ist insbesondere auch die Aufgabe unseres Ministeriums, eigentlich auch das Verständnis für die Chancen von KI schärfen.

Sprecher 2: Wenn es jetzt so viele Regeln gibt, auch auf internationaler Ebene, wer setzt die Regeln denn um und wer setzt sie durch? Also wenn wir uns mit den Amerikanern... einig sind im G7-Prozess. Aber wenn die sich nicht dran halten, was passiert denn dann?

Sprecher 8: Also gucken wir vielleicht erstmal auf uns und auf Europa. Den AI-Eck, den wir jetzt haben, der sehr konkret ist, der hat natürlich auch Aspekte der Rechtsdurchsetzung. Und da unterscheiden wir ein Stück weit von der europäischen und wiederum von der nationalen Ebene. Auf europäischer Ebene gibt es das AI-Office, das ist für die Durchsetzung des AI-Ektes zuständig. Aber wir müssen auf nationaler Ebene, ich sagte ja, es ist insbesondere ein... Vorhaben der Produktregulierung und der Produktzulassung. Dafür gibt es schon Stellen bei uns auf nationaler Ebene, die dafür zuständig sind, häufig auch in den Bundesländern. Und unser Anliegen aus dem BMDV heraus ist, dass sich diese Wege für die Unternehmen eigentlich nicht ändern. Dass ich also mit den gleichen Behörden, wo ich zum Beispiel, bevor ich eine Marktzulassung bekomme, ein CE-Kennzeichen beantrage, dass diese Behörden einfach schauen, dass sie Ressourcen und Qualifikationen aufbauen, um eben auch AI zu prüfen. Und da müssen wir aber Hilfestellungen geben. Und das ist etwas, was wir versuchen über das Projekt Mission KI zu machen.

Sprecher 2: Ja, das wäre jetzt auch noch eine Frage gewesen, die mich interessiert. Welche Rolle denn Deutschland da auf dieser internationalen Ebene spielt? internationalen Ebene spielt oder haben wir das jetzt alles an die EU abgegeben auf internationaler Ebene?

Sprecher 8: Nein, mitnichten. Es ist so, dass der Code of Conduct auf eine gemeinsame Initiative von Volker Wissing und Margarete Vestager zurückgegangen ist. Und wir das dann gemeinsam, insbesondere durch die sehr, sehr gute und stringente Arbeit der Japaner, die hatten damals die Präsidentschaft der G7 inne, über die Ziellinie geschoben haben. Aber wir bleiben da nicht stehen. Häufig kommen die Fragen, was wird jetzt aus diesem Code of Conduct? Ich habe ja gerade gesagt, ich spreche lieber von Programmsätzen. Und wir müssen zwei Dinge tun. Wir müssen einerseits über die G7 hinausdenken, also mehr Staaten einbeziehen. Und wir müssen versuchen, diese Regeln auf internationaler Ebene zu operationalisieren. Und da denken wir als erstes an die OECD. Und da spielen wir, spielt Deutschland eine sehr, sehr starke Rolle. Da wird sehr stark in Gremien gearbeitet. Ich selbst sitze dort im Co-Chair des Digital Policy Committees. Und dort wird gerade darüber diskutiert, wie wir es schaffen, den Code of Conduct, die Teilnehmer, die Unterstützer zu verbreitern, ohne dass wir zu einer Verwässerung kommen.

Sprecher 2: Das KI-Gesetz der EU legt ja die Regeln fest, aber ein Ziel war ja auch, dass wir eine erfolgreiche Entwicklung von KI auch in Europa haben. Wie beeinflusst denn jetzt das Gesetz, so wie wir es jetzt vorliegen haben, die Entwicklung und Anwendung von KI in der EU?

Sprecher 8: Es soll Sicherheit geben. Unternehmen, wenn sie Produkte zulassen wollen. Sei es, dass sie KI in schon bestehende Produkte integrieren oder dass sie an sogenannten Standalone-Systemen arbeiten. Das heißt, sie sollen sich an die Stellen, Produktzulassung, Marktüberwachung wenden können, mit denen sie momentan schon kooperieren müssen bei der Zulassung von Produkten und Services. Aber sie sollen darüber hinaus eben auch, und deshalb haben wir die BNets A im Auge momentan, als eine, die eben eine große Rolle spielen soll bei der Umsetzung des KI-Ektes auf nationaler Ebene, die eben eine Hilfestellung gibt. Die BNets A ist eine klassische Regulierungsbehörde und hat somit sozusagen Erfahrung, auch Unternehmen bei ganz unterschiedlichen Regulierungsfragen, und die kommen ja aus einer anderen Ecke sozusagen von der Regulierung klassischer Infrastrukturen, zu beraten. Das heißt... Auf Ihre Frage zurückzukommen, was sozusagen oder wie kriegen wir Innovationen in den Markt, indem wir den Unternehmen möglichst Sicherheiten geben bei der Zulassung ihrer Produkte. Weil ganz häufig ist es so, ich komme ja selbst aus der Privatwirtschaft und ich habe der Unterlag der ihr geleiteten Annahme, dass es möglichst wenig Regulierung bedarf, aber ganz häufig ist es so, dass Regulierung hilft, Sicherheit zu geben. Weil wenn ich Regulierung habe, kann ich mich orientieren und kann eben auch sehen, passt mein Produkt, mein Services eigentlich in diese Regulierung und bin ich dann auch sicher, was die Zulassung angeht.

Sprecher 2: Ja, das ist jetzt nicht so gerade das, was ich immer vor... AI-Akteure, dass die Unternehmen jubeln, sagen, juhu, juhu, er ist da. Jubeln würde ich auch nicht sagen. Dass es eben sehr viel Unsicherheit noch gibt. Und dass das eben genau vielleicht auch der Kritikpunkt ist, dass man nämlich gerne Sicherheit haben möchte und dass der AI-Aktie nicht unbedingt schafft.

Sprecher 8: Ich kann die Kritik ein Stück weit nachvollziehen, aber wir sind bei jeder Regulierung im Bereich Digitales, stehen wir immer vor der Frage, machen wir es sehr konkret? Oder halten wir es, Stichwort unbestimmte Rechtsbegriffe, oder halten wir es etwas vager? Und man kann natürlich argumentieren, am besten wäre es, wenn wir das ganz konkret machen, dann weiß ein Unternehmen, passt das oder passt das nicht. Aber die Politik ist nicht der bessere Unternehmer. Wir sollten einen Rahmen vorgeben, innerhalb dessen sich Geschäftsmodelle entwickeln können. Und dieser Rahmen muss dann etwas variabler sein. Wenn wir sehr strikt uns ausrichten würden und das alles sehr stark definieren würden, wir sprachen gerade darüber, wie schnell sich Technologien entwickeln, wie schnell sich KI entwickelt, dann müssen wir wahrscheinlich, bevor wir das Ganze implementiert bekommen, schon wieder über die Reform nachdenken. Und das ist auch nichts, was ich unter dem Rubrum Rechtssicherheit, Planungssicherheit, Verlässlichkeit, was ja auch immer ein Punkt ist, der an die Politik adressiert wird, subsumieren würde.

Sprecher 2: Wir haben das ja schon angedeutet, Europa steht im Wettbewerb, was die Entwicklung von KI angeht, worüber wir noch nicht so besprochen haben. haben, ist, dass KI ja im Prinzip in Zukunft praktisch alle Lebensbereiche einbringen wird und vor allem erheblichen Einfluss haben wird auf die Wettbewerbsfähigkeit von Unternehmen. Und hier stehen wir dann eben im Wettbewerb, vor allem mit den USA und China, von denen immer gesagt wird, dass sie uns da doch einen Schritt voraus sind. Welche Chancen sehen Sie denn für Deutschland und Europa in diesem Wettbewerb?

Sprecher 8: Ich sehe sehr große Chancen, aber wir brauchen Hilfestellungen für die Unternehmen. Der AI-Act klassifiziert, der sagt, es gibt Hochrisiko-KI, es gibt sozusagen KI mit etwas weniger Risiko und dann sozusagen zum Teil auch KI, wo wir überhaupt gar keine Auflagen brauchen. Für die Hochrisikokategorie ist sehr, sehr klar definiert, was die Vorgaben sind. Aber gerade in diesem Zwischenbereich ist genau exakt das, was Sie gerade gesagt haben, was Unternehmen auch häufig kritisieren, da bleibt es eher vage. Und dafür wollen wir mit Mission KI aus dem BMDV heraus zusammen mit Partnern in der Wirtschaft eine Organisation gründen, die eben hilft, Prüfkriterien auch zu entwickeln, Standards zu entwickeln, die auch in internationalen Gremien die Arbeit an Standardisierungsfragen vorantreibt, sodass wir gemeinsam mit Unternehmen und sozusagen nicht über deren Köpfe hinweg, sondern gemeinsam mit Unternehmen an den richtigen Kriterien arbeiten, um deren Produkte sicher und innovativ in den Markt bringen zu können. Wenn Sie mich jetzt fragen würden, haben wir irgendwann den nächsten Chat-GPT aus? aus Europa oder haben wir die nächste ganz große KI-Innovation aus Europa? Das weiß ich nicht. Wir können einen Rahmen setzen. Die Struktur unserer Wirtschaft ist eine andere als in den USA. Die Struktur unseres Staates ist eine andere als in China. Und deshalb glaube ich, dass wir passgenau eine Lösung finden müssen. Und dabei ist der AI-Act eine vertretbare Lösung, die wir gefunden haben.

Sprecher 2: Sie betonen das immer so, dass die Mission KI aus dem BMDV kommt. Ist das dann allein gegangen oder wie weit ist das jetzt abgestimmt mit den anderen Ministerien, die Sie vorhin auch erwähnt haben, die eben zum Beispiel für den AI-Act führend waren? Und hinzu kommt ja noch, dass im Prinzip, so ähnlich wie die Digitalisierung, ist ja die künstliche Intelligenz etwas, was im Prinzip ja überall hineinspielt. Das heißt, jeder muss sich fragen, wie kann KI unser Regierungshandeln, unser Unternehmertum besser machen. Und insofern, was ist jetzt? Mission KI?

Sprecher 8: Genau. Also Mission KI ist eine innerhalb der Bundesregierung abgestimmte Initiative. Wir haben sehr, sehr lange, weil, wie Sie zu Recht sagen, viele daran arbeiten, in ihren einzelnen Domains, in der Arbeitswelt, in der Forschung, im Medizinbereich, aber eben auch bei uns im Digitalisierungsbereich, arbeiten sehr, sehr viele momentan parallel daran. Wie können wir genau das schaffen? Ich würde im Übrigen nicht von Eindringen sprechen, wenn ich über KI spreche, sondern ich würde vielleicht eher das Wort durchdringen nehmen. Also KI wird diese ganzen einzelnen Domains, die einzelnen Industries wird sie durchdringen. Und wir müssen schauen, dass der Mensch im Mittelpunkt steht und dass es letztendlich eine Art und Weise ist, wie wir... Ausgehend von unseren europäischen Werten KI umsetzen wollen. Und insofern ist Mission KI eben zu verstehen als Hilfestellung für die Unternehmen. Aber es entbindet kein anderes Ministerium, auch selbst darüber nachzudenken, wie in den einzelnen Bereichen KI. In Zukunft mitgedacht werden muss. Und ich gebe Ihnen ein Beispiel aus dem Verkehrsministerium. Haben wir hier immer sozusagen zweigliedrige Überlegungen. Wir müssen überlegen, wie gehen wir eigentlich selbst mit KI um? Wie kann KI uns selbst helfen im Ministeriumsalltag? Und auf der anderen Seite haben wir einen ganz großen nachgeordneten Geschäftsbereich mit vielen Zuständigkeiten. Kraftfahrtbundesamt, Luftfahrtbundesamt, Bundesamt für Seeschifffahrt und Hydrographie. Und die sind eben zum Teil auch dafür zuständig, Dinge zuzulassen. Und dann müssen wir natürlich schauen, wenn jetzt jemand kommt, ein Automobilhersteller und sagt, ich habe hier ein fancy KI-System in meinen Wagen eingebaut, dann muss natürlich dort auch die entsprechende Expertise sein, um das auch bewerten zu können. Der gute Ansatz ist oder der gute Punkt bei der Sache ist, wir fangen da nicht bei Null an. Es gibt jenseits des AI-Acts oder schon vor dem AI-Act Regulierung für künstliche Intelligenz im Bereich der Medizinprodukte. Oder eben auch im Bereich der Finanzwirtschaft. Und insofern gibt es dort schon Strukturen und Erfahrungen mit eben dem Umgang von KI. Und darauf setzen wir.

Sprecher 2: Man muss ja leider konstatieren, dass Deutschland, vor allem auch die Verwaltung, bei der Digitalisierung jetzt nicht so schnell vorangekommen ist, wie sich das der eine oder andere, zum Beispiel ich, gewünscht hätten. Nun gibt es ja dieses Phänomen, dass man, wenn man in diese einen Entwicklungen hinterherhinkt, dass man dann etwas überspringt. Das Sleepfrogging. Ja, genau. Jetzt frage ich mich, ob Sie eine Chance sehen, dass wir bei der Einführung von KI vielleicht einfach schneller sind als andere.

Sprecher 8: Bleiben wir mal bei den Behörden. Ich glaube, da gibt es, wie man so schön sagt, low-hanging fruits, die man erstmal einfahren kann, bevor man über KI nachdenkt. Ich sage nicht, dass wir das nicht tun müssen, aber hier gibt es ganz basale Dinge, die zu adressieren sind und die auch zu lösen sind, ohne dass wir KI einsetzen müssen. Zum Beispiel moderne IT-Systeme, die Beseitigung von Medienbrüchen, die Qualifikation von Mitarbeiterinnen und Mitarbeitern in der öffentlichen Verwaltung. Das sind alles Dinge, die müssten wir eigentlich angehen. Ich glaube nicht, dass KI der Heilsbringer ist jetzt für die Verwaltungsdigitalisierung, bei der wir in der Tat sicherlich noch besser werden können.

Sprecher 2: Das ist jetzt vielleicht ein bisschen ungewöhnlich, die Frage, wenn Sie König von Deutschland wären, welche KI-Strategie würden Sie denn basteln?

Sprecher 8: Das ist tatsächlich eine sehr... Sehr tricky Frage. Ich habe das Lied immer sehr gerne gehört zu Schulzeiten.

Sprecher 2: Ich finde auch die Idee, dass man einfach machen kann, was man möchte, finde ich auch gut.

Sprecher 8: Ja, das ist ja etwas, was sozusagen anderen Regionen immer vorgeworfen wird, dass es da sozusagen die Enthemmung des Marktes gibt. Ich bewerte gar nicht, ob das richtig ist oder nicht, aber dieser Vorwurf steht im Raum. Ich glaube, wenn ich handeln könnte, wie ich wollte, wären die Ergebnisse, zumindest wenn wir jetzt nur über AI sprechen, wahrscheinlich graduell nur anders. Wir hatten am Ende der Verhandlungen um den AI-Act noch ein, zwei, drei Anliegen, von denen ich auch gar nicht glaube, dass sie so politischer Natur gewesen wäre. Sie hätten geholfen, gerade auch im Medizinproduktebereich eine Rechtsklarheit zu schaffen. Ich glaube, so etwas hätte ich dann noch umgesetzt bei der KI. Aber ich glaube nicht, dass ich revolutionär was anderes gemacht hätte. Ich bin kein Revoluzzer.

Sprecher 2: Vielleicht sprechen wir am Schluss nochmal über die größten Chancen, die Sie im Bereich KI für Deutschland sehen.

Sprecher 8: Ja, da kann ich Ihnen jetzt nicht ersparen, dass es vielleicht ein bisschen persönlich wird. Ich glaube, dass künstliche Intelligenz gerade im medizinischen Bereich tatsächlich viel helfen kann. Im medizinischen Bereich liegt es nicht daran, dass wir zu wenig Daten haben. Wir haben viele Daten, wir haben aber da auch viele Medienbrüche. Wir haben Daten in unterschiedlichen Formaten. Ich glaube, diese Bundesregierung insbesondere, auch das BMG unter Karl Lauterbach, macht entscheidende... Schritte vorwärts, was die Digitalisierung angeht. Aber wenn Sie sich alleine angucken, was im Bereich der Bilderkennung künstliche Intelligenz schon jetzt viel besser kann als ein Doktor, als ein Arzt, das gibt mir sehr, sehr viel Hoffnung, dass gerade eben in der Bekämpfung auch von Tumorerkrankungen, von Krebs, in der Analyse sehr, sehr großer Datenmengen, die da vorgenommen werden müssen, künstliche Intelligenz tatsächlich uns sehr, sehr stark auch nach vorne bringen kann. Und im Übrigen, ich glaube, da ist Deutschland mit seinen Medizinprodukte-Sektor auch sehr gut aufgestellt.

Sprecher 2: Also das ist vielleicht eben genau das, wo wir die großen Chancen haben, im Gegensatz zu den Anwendungen jetzt für Verbraucher und so weiter, dass wir eben die ganzen Hidden Champions, die wir haben, den Mittelstand der spezielle Lösung für spezielle Branchen braucht, dass wir da eben... Gute Chancen haben, KI zu entwickeln.

Sprecher 8: Genau. Das ist nochmal die Unterscheidung zwischen diesen Standalone-Systemen. Wir gucken jetzt viel auf ChatGPT. Also im letzten Jahr quasi nur die ganze Diskussion am Ende um den Nier-Eck war eigentlich fast nur noch getriggert aufgrund sozusagen des Produktes ChatGPT. Das ist eine Standalone-Geschichte. Wo ich glaube, wo die Chancen viel stärker sind, ist genau das, was Sie gesagt haben, Frau Fisser, die Integration von KI in bestehende Geschäftsmodelle, in bestehende Produkte und in bestehende Services. Ich glaube, das ist etwas, wo wir uns in Deutschland sehr viel freuen. von Versprechen können.

Sprecher 2: Da ist jetzt die Frage, sind denn diese Unternehmen auch bereit, da jetzt einzusteigen? Sehen Sie da den richtigen Drive, den wir da jetzt brauchen?

Sprecher 8: Ich sehe eine große Neugier auf Seiten der Unternehmen. Ich sehe aber auch, und das kann ich aus Unternehmensperspektive auch verstehen, Unternehmen stehen momentan vor enormen Herausforderungen. Wir haben einen Fachkräftemangel. Die Unternehmen klagen über sehr hohe Energiepreise. Wir erzählen Ihnen seit zehn Jahren in etwa, dass Sie unbedingt was mit Daten machen müssen. Jetzt machen wir eine Gesetzgebung, dass wir sagen, dass Sie diese Daten, ich verkürze sehr stark, dass Sie diese Daten teilen müssen. Das bedarf alles einer Erklärung. Und jetzt sagen wir Ihnen auch noch, ihr müsst was mit KI machen. Und das ist genau der Punkt, wenn die Unternehmen artikulieren, dass das... Eine Menge ist, mit der sie gerade umgehen, dann muss es unsere Aufgabe sein, auch ein Stück weit als Service Provider, würde ich mal sagen, als jemand, der auch aus der Privatwirtschaft kommt, den Unternehmen zur Seite zu stehen und sie zu unterstützen. Wir können aber nicht, und das ist auch, glaube ich, nicht der Anspruch der Unternehmenswelt, die Denkarbeit übernehmen und jetzt sagen, wir gehen dahin oder wir gehen dahin. Das muss sich sozusagen aus diesem wahnsinnig guten Ökosystem in Deutschland, das eben auf mittelständische und auf kleine Unternehmen setzt, entwickeln.

Sprecher 2: Sie sprechen von einem guten Ökosystem. Was dem Ökosystem so ein bisschen fehlt, sind die enormen... finanziellen Mittel, die zum Beispiel in den USA zur Verfügung stehen. Also da kann man sich wahrscheinlich sehr darüber streiten, aber mein Eindruck ist, dass man da sehr, sehr, sehr viel Geld braucht. Und es ist jetzt gerade hier bei uns in Deutschland und Europa, man hat das Gefühl, es steht eben nicht zur Verfügung. Müsste da nicht mal investiert werden?

Sprecher 8: Wir müssen sicherlich, wir stehen ja am Anfang einer neuen Legislaturperiode für das Europäische Parlament. Eine neue Kommission wird es demnächst geben. Und wir müssen bei zwei Dingen sicherlich deutlich besser werden. Wir müssen bessere Investitionsbedingungen schaffen. Nicht unbedingt für den Staat in Unternehmen, aber zum Beispiel von Fonds in Unternehmen oder von Unternehmen wiederum in Unternehmen. Und wir müssen auf der anderen Seite weiterarbeiten an der Vollendung des digitalen Binnenmarktes. Denn ein Grund, warum digitale Geschäftsmodelle sowohl, wenn wir westlich gucken, als auch wenn wir östlich gucken, deutlich erfolgreicher sind, ist, dass die einen Markt haben. Und daran müssen wir weiter arbeiten. Wir müssen weiter... Schritte unternehmen zur Vollendung des digitalen europäischen Binnenmarktes.

Sprecher 2: Das finde ich ein schönes Schlusswort, weil das nämlich bedeutet, wir brauchen mehr Europa.

Sprecher 8: Das stimmt.

Sprecher 2: Und da möchte ich mich sehr herzlich bedanken bei Ihnen, Herr Prake, dass Sie gekommen sind für die spannenden Einblicke, die Sie uns gegeben haben. Und ja, vielleicht kommen Sie mal wieder und wir sprechen darüber, wie weit sich KI schon entwickelt hat und auch welche tollen Anwendungen der Staat. seinen Bürgern bietet.

Sprecher 8: Oder Sie sprechen mit meinem KI-Avatar.

Sprecher 2: Das ist vielleicht auch spannend, aber ich habe mich sehr gefreut, dass Sie mir hier in echt gegenüber sitzen. Und das wollte ich nochmal betonen, dass ich das hiermit bezeuge, dass Sie hier gesessen haben. Vielen Dank.

Sprecher 8: Dankeschön Ihnen.

Sprecher 2: Tschüss. Jetzt sind wir also am Ende unseres Podcasts angekommen. Und wie so oft konnten wir das Thema natürlich nicht vollkommen abschließen. Vor allem auch deswegen nicht, weil die Entwicklung von künstlicher Intelligenz rasend schnell voranschreitet. Das macht es auf der einen Seite für die Regulierer so schwierig, feste Regeln zu machen. Aber Herr Brake hat eben auch unterstrichen, dass unbestimmte Rechtsbegriffe zwar von den Unternehmen kritisiert werden, dass die Politik aber nicht mehr kann und nicht mehr tun sollte, als einen in diesem Fall möglichst flexiblen Rahmen zu setzen. Eben weil die Technologie sich so schnell entwickelt. Das bedeutet aber, dass gerade kleine und mittlere Unternehmen Unterstützung beim Einsatz von KI brauchen. Das Wichtigste ist, dass wir jetzt loslegen. Nicht nur, um den Anschluss nicht zu verpassen, sondern vor allem auch, damit es ein European Way of AI gibt. Herzlichen Dank nochmal fürs Zuhören und Ihr Interesse. Und bitte erhalten Sie es aufrecht für die zweite Folge von unserem Sommerspezial Table Today am kommenden Freitag.

Sprecher 1: Tschüss. Table Today mit Michael Bröker und Helene Bubrowski.