EU und KI: Zwischen Innovation und Regulierung
Sponsored content Für Originaltext auf Französisch umschalten
Diesen Artikel hören
Seit dem Aufkommen von ChatGPT im November 2022 hat die Künstliche Intelligenz sich in allen Bereichen unserer Wirtschaft durchgesetzt. Darum geht es in der aktuellen Episode des Podcasts Evergreens by Spuerkeess, die nun auch in Artikelform verfügbar ist.
Bryan Ferrari und seine drei Gäste sprechen über Generative Künstliche Intelligenz und beleuchten eine zentrale Frage: Wie lassen sich technologische Innovation, strategische Autonomie und Systemsicherheit in einer zunehmend von KI gesteuerten Welt miteinander in Einklang bringen?
Nicolas Griedlich (Deloitte Luxembourg), Francesco Ferrero (LIST) und Rachid M'haouach (Spuerkeess) teilen ihre Erfahrungen und schildern die konkreten Herausforderungen, vor denen Unternehmen bei der Einführung von Künstlicher Intelligenz stehen. Ein intensiver Austausch, der hilft, die Dimensionen einer souveränen, verantwortungsvollen und leistungsfähigen KI besser zu verstehen.
Bryan Ferrari: Wir haben bereits im Mai 2023 darüber gesprochen. Seitdem hat sich vieles verändert. Wer möchte beginnen und erklären, was sich seit dem Aufkommen von ChatGPT im November 2022 im Bereich der Künstlichen Intelligenz getan hat?
Nicolas Griedlich: Seit Mai 2023 ist unglaublich viel passiert. Für manche geht die Entwicklung so schnell, dass es schwer ist, Schritt zu halten. Mir ist es wichtig, immer die gesamte Entwicklung im Blick zu behalten. Man darf nicht vergessen, dass Generative KI bereits 2016 in der Forschung ihren Ursprung hatte. Damals war es reine Wissenschaft. 2022 wurden die Ergebnisse dieser Forschung dann der Öffentlichkeit zugänglich gemacht. Ab diesem Zeitpunkt haben die Technologieanbieter diese neue Möglichkeit für sich entdeckt und in ihre eigenen Tools integriert. Wir haben gesehen, wie alle großen Marktakteure nach und nach ihre eigenen LLMs (Large Language Models) für die Community und Unternehmen bereitgestellt haben. Die Unternehmen wiederum begannen, diese Technologie zu beobachten und sich zu fragen, wie sie sie nutzen könnten. Das brachte viele Fragen mit sich: rechtliche Aspekte, Compliance, Risiken, die Art und Weise der Implementierung… Auch die interne Kommunikation war wichtig – den Mitarbeitenden zu erklären, wie man die Technologie nutzen möchte. Denn die ersten Anwendungen fanden vor allem im privaten Umfeld statt. Die Entwicklung ist dann über die reine Generierung von Texten, Bildern und Videos hinausgegangen. Heute findet sich Generative AI in zahlreichen weiteren Bereichen: Drohnen, Landwirtschaft, Forschung… Der Einfluss geht weit über die reine Inhaltserstellung hinaus. Sie prägt sämtliche Lebens- und Wirtschaftsbereiche – und natürlich bildet auch der Finanzsektor dabei keine Ausnahme.
Nicolas Griedlich
Francesco Ferrero: Meiner Meinung nach hat die Generative AI die Künstliche Intelligenz populär gemacht. Techniker wie ich nutzen KI schon seit Langem, aber für die breite Öffentlichkeit war das bisher nicht der Fall. ChatGPT und ähnliche Systeme haben eine extrem einfache Benutzeroberfläche eingeführt – und das hat alles verändert. Es gibt jedoch ein kleines Problem: Während die Oberfläche simpel wirkt, ist die Technologie dahinter hochkomplex. Sie bringt völlig neue Aspekte mit sich, denn sie ist nicht-deterministisch. Das bedeutet, dass man dieselbe Frage zweimal stellen kann und unterschiedliche Antworten erhält. Das ist ein gravierender Unterschied. Wir sind Präzision gewohnt, hier aber kommt ein kreativer Faktor hinzu. Dieser ist so stark ausgeprägt, dass die Modelle manchmal "halluzinieren", also Dinge erfinden. Das hat bereits zu Problemen geführt, zum Beispiel bei Unternehmen, die Chatbots als Kundenschnittstelle einsetzen. Es gibt bekannte Fälle – etwa jemand, der ein Auto für einen Dollar kaufen konnte, weil er den Chatbot überzeugt hat. Die Modelle werden mit Daten trainiert, die aus der breiten Öffentlichkeit stammen und somit gesellschaftliche Trends widerspiegeln. All das macht es notwendig, darüber nachzudenken, wie wir sowohl die Gesellschaft als auch professionelle Nutzer vorbereiten können. Letztere müssen nicht nur Regeln einhalten, sondern auch qualitativ hochwertige Dienstleistungen anbieten und die Verlässlichkeit der Informationen gewährleisten. Wir müssen gemeinsam daran arbeiten, diese zweite Phase einzuleiten, in der die Technologie besser genutzt wird.
Rachid M'haouach: KI ist mehr als nur ein Buzzword. Sie ist Realität. Ihr Einsatz zeigt echte positive Effekte, aber diese Technologie bringt auch Risiken und Gefahren mit sich. Deshalb wurde 2024 der AI Act eingeführt, um die Nutzung zu rahmen und die sichere Anwendung dieser Technologie zu gewährleisten.
Ferrari: Wieder einmal gilt: Während die anderen erfinden, regulieren wir. Wir waren die Ersten, die einen AI Act eingeführt haben, oder?
Griedlich: Nicht ganz. Die Chinesen haben ein ähnliches Papier mit denselben Prinzipien der Kontrolle und Regulierung schon sechs Monate vor uns veröffentlicht.
Ferrari: Künstliche Intelligenz wurde demokratisiert… aber ihre Reichweite ist viel größer. Einmal mehr sind politische Interessen im Spiel. Die Amerikaner geben den Ton an. Die Chinesen, von denen man dachte, sie seien im Rückstand, haben im Januar das sehr leistungsfähige DeepSeek vorgestellt. Was bedeutet das alles für die Zukunft?
Francesco: Die Amerikaner führen, die Chinesen folgen – und Europa hat derzeit noch keine eigene technische Kapazität. Darin liegt meiner Ansicht nach ein entscheidender Punkt: Es gibt nur eine Handvoll privater Unternehmen, die Modelle entwickeln, die nicht Open Source sind – insbesondere die großen US-Akteure – die wir alle nutzen. Im Grunde arbeiten wir mit Black Boxes, und das ist ein Risiko. Denn wir nutzen eine Technologie, die wir nicht beherrschen, deren Funktionsweise wir nicht kennen – nicht einmal ihre Erfinder verstehen sie vollständig. Angesichts der jüngsten geopolitischen Entwicklungen besteht die Gefahr, dass es irgendwann zu Einschränkungen kommt. Eine Bank oder ein europäisches Unternehmen, das diese Technologie heute für sein Geschäft benötigt, muss sich fragen: Ist das eine verlässliche Technologie, die ich mit der notwendigen Kontinuität einsetzen kann? Man muss aber auch sagen, dass Europa inzwischen reagiert. Man sieht die Initiative, sogenannte AI Factories ins Leben zu rufen. Das ist ein großes Projekt der EU, aber auch der nationalen Regierungen. Dreizehn solcher AI Factories sind bereits gestartet – darunter eine in Luxemburg. Das ist ein sehr wichtiger Schritt.
Ferrari: Was genau ist eigentlich eine AI Factory?
Ferrero: Eine AI Factory ist ein Servicezentrum, das Unternehmen in allen Bereichen unterstützt. In Luxemburg wird es bald eine neue geben – Meluxina AI. Dort wird es möglich sein, mit komplexeren Modellen zu arbeiten, Fine-Tuning vorzunehmen und größere Modelle zu trainieren. Das eröffnet neue Möglichkeiten für Luxemburg und für alle in Europa, die sie nutzen.
Griedlich: Ich denke, Europa hat durchaus Stärken. Das Konzept der AI Factories gibt es erst seit einigen Monaten, aber das Ökosystem ist vorhanden. Wir haben Rechenzentren, wir haben Supercomputer. Man hat viel über den Mangel an NVIDIA-Karten gehört – aber wir haben sie bereits in unseren Rechenzentren. Wir sind also nicht betroffen. Wir wollen vorankommen, und der politische Wille dazu ist klar erkennbar. Auch an Fachkräften mangelt es nicht: Wir haben die Leute, wir haben die Forschungszentren. Oft kommt die Innovation aus Übersee, und wir übernehmen sie. Doch diesmal, mit all den Initiativen, die gerade entstehen, haben wir die Chance, bei diesem Thema zu den Vorreitern zu gehören – weil wir über alle Kompetenzen verfügen. Das LIST beschäftigt rund hundert Data Scientists, die sich seit Langem mit KI befassen. Künstliche Intelligenz ist ein Thema, das über 70 Jahre alt ist. Wir haben also alle Grundlagen, um voranzukommen. Und es ist kein Zufall, dass das einzige neue Thema in Europa der AI Act ist – selbst diese Regulierung ist kein Hemmschuh für Innovation. Sie setzt lediglich Prinzipien fest, um klar zu definieren, was wir tun, und sicherzustellen, dass wir es auf sichere Weise tun.
M'haouach: Ja, man erkennt eindeutig den europäischen Willen, in der Forschung voranzukommen. In den letzten Monaten wurden enorme Investitionen getätigt, um Rückstände aufzuholen – sei es bei der Technik, bei den Modellen oder bei den Infrastrukturen. Die Partnerschaft zwischen der luxemburgischen Regierung und Mistral sowie die Entwicklungen rund um Meluxina werden einen gewaltigen Schub bringen. Das wird uns mehr Flexibilität verschaffen, um die Nutzung von KI in größerem Maßstab sicher umzusetzen, da die Datenströme aus unserem eigenen Umfeld stammen.
Ferrari: Sprechen wir über Rechenzentren. Die Amerikaner verfügen über drei Viertel der weltweiten Rechenleistung. Colossus, die größten Rechenzentren der Welt, wurden von Elon Musk gebaut. Stargate, das Projekt, das Donald Trump Anfang des Jahres angekündigt hat, wird in ähnlicher Größenordnung entstehen… Dort geht alles dreimal so schnell. Wir bewältigen die Komplexität, wie Sie gerade sagten, aber wir haben Jahre Rückstand. Vor allem, wenn wir in dieser Technologie wirklich souverän werden wollen…
Griedlich: Ich glaube nicht, dass die Lösung so einfach ist, zu sagen: "Wir sind im Rückstand, also müssen wir nur aufholen." Wir haben, wie eben erwähnt, bereits viele Grundlagen, die wir nutzen müssen. Es geht um kluge Nutzung. Ein neues Rechenzentrum ausschließlich für diesen Zweck zu bauen, würde bedeuten, dass wir die vorhandenen europäischen Rechenzentren bereits vollständig ausschöpfen – was nicht der Fall ist. Zum Thema Souveränität: Wenn ein Staat Entscheidungen trifft, dann tut er das aus gutem Grund. In einem spezifischen Anwendungsfall könnte man auch Rechenleistung außerhalb Europas nutzen – übergangsweise. Auch das ist ein souveräner Entscheidungsakt. Das Problem ist nur: Wenn wir diese Kapazitäten bei uns nicht haben, sind wir nicht wirklich souverän, weil wir gezwungen wären, anderswo hinzugehen. Das bedeutet: Wir müssen ihre Kapazitäten nicht unbedingt erreichen. Wir sollten uns nicht auf solche Wettläufe einlassen. Wichtiger ist, dass wir genau wissen, wie viel Rechenleistung wir für die Entwicklung der nächsten LLMs benötigen.
Francesco Ferrero
Ferrero: Für mich liegt das Problem in der strategischen Unabhängigkeit. Den Begriff Souveränität mag ich in diesem Zusammenhang nicht besonders. Aber was du sagst, stimmt vollkommen. Ein weiteres Problem ist: Die wenigen Rechenzentren, die wir in Europa gebaut haben, laufen auf amerikanischen Chips. Bald wird es vielleicht chinesische Alternativen geben… Doch das Problem ist, dass Rechenzentren zu kritischen Infrastrukturen werden könnten – was bereits Realität ist, da Künstliche Intelligenz nach und nach für fast alles notwendig wird. Etwa auch für die Verteidigung. Ist KI ein Ermöglicher bestimmter Verteidigungsoperationen? Irgendwann muss man sich fragen, ob die USA oder China entscheiden könnten, uns die notwendigen Chips nicht mehr zu liefern – und ich sage das nicht ohne Grund: Luxemburg ist heute schon betroffen. Eine Entscheidung der Biden-Administration hat Luxemburg auf eine Liste von Ländern gesetzt, die keinen uneingeschränkten Zugang mehr zu amerikanischen Chips haben. Deshalb ist es aus meiner Sicht absolut notwendig, Initiativen zu starten. Interessante Firmen wie OpenChip bieten europäische Alternativen an. Aber dafür braucht es Investitionen, die Technologien müssen reifen – und vor allem müssen wir alles daransetzen, unabhängig zu werden.
Ferrari: Ein weiteres Problem ist die verfügbare Datenbasis. Ich finde den Vergleich mit Apple ganz treffend: Modelle leben von den Daten, mit denen sie gefüttert werden. Google, Meta und Amazon bedienen sich frei. Apple hingegen sagt: "Nein, wir nutzen unsere Daten nicht für das Training von Modellen" – und sie sind nirgendwo im Rennen. Haben wir in Europa mit der DSGVO und dem Data Privacy Law nicht automatisch einen Nachteil gegenüber den Amerikanern?
Ferrero: Große Modelle wie GPT-4 werden mit so gigantischen Datenmengen trainiert, dass niemand genau wissen kann, welche Daten tatsächlich verwendet wurden. Das ist ein Problem, denn der AI Act fordert, die verwendeten Daten zu kontrollieren – obwohl wir wissen, dass das technisch unmöglich ist. Ein weiteres Problem ist die Größe der Modelle. Aber brauchen wir wirklich immer größere Modelle? Das ist eine philosophische Frage. Meiner Meinung nach bestimmt dieser Paradigmenansatz derzeit die Debatte: riesige Modelle, riesige Datenmengen, mit dem Ziel, alle Probleme zu lösen. Für mich ist das aber nicht der richtige Weg. Ich denke, wir sollten stärker auf kleinere, spezialisierte Modelle setzen – und diese dann miteinander kombinieren. Damit ließe sich auch ein zentrales Problem der Zukunft lösen: der Energieverbrauch von Künstlicher Intelligenz. Wenn wir uns irgendwann Kernreaktoren anschaffen müssen, nur um Rechenzentren zu betreiben – und wenn Unternehmen wie Microsoft und Google bereits zugeben mussten, dass sie ihre eigenen Klimaziele für 2025 wegen der KI nicht einhalten können – dann haben wir ein ernstes Problem. Früher oder später wird es nicht genug Energie geben, nicht genug Wasser, das ja ebenfalls nötig ist, um Rechenzentren zu kühlen. Dann müssen wir schwierige Entscheidungen treffen. Deshalb sollten wir auf das setzen, was man "frugale KI" nennt – mit dem Ziel, den Datenbedarf so weit wie möglich zu minimieren, um Probleme effizient zu lösen.
"KI ist mehr als nur ein Buzzword. Sie ist Realität."
Rachid M'haouach, Chief Data Officer bei Spuerkeess
M'haouach: Die Frage der privaten Daten ist eine echte Schlüsselfrage. Brauchen wir wirklich die großen Modelle, um unsere Probleme zu lösen? In der Praxis sehen wir heute, dass in den meisten Fällen kleine oder maximal mittelgroße Modelle völlig ausreichen. Entscheidend ist weniger die Menge der Daten als vielmehr deren Qualität. Wenn ein Modell auf Daten von schlechter Qualität basiert, nützt es nichts, es hier bei uns zu trainieren – das Ergebnis wird nicht stimmen. Die Antworten können dann größtenteils falsch oder sogar komplett falsch sein. Deshalb zählt vor allem die Relevanz der Daten im Hinblick auf den konkreten Use Case. Statt alle Daten für alle Anwendungsfälle zu nutzen, analysiert man das konkrete Problem und entscheidet dann, welche Daten am relevantesten und qualitativ am besten geeignet sind. Das ist ein sehr wichtiger Punkt.
Griedlich: Ich denke, darüber hinaus ist es das Ziel, die Technologie so einzusetzen, dass sie möglichst frugal bleibt. Natürlich muss das verfeinert werden, um den Bedarf zu minimieren. Wenn Autos so angefangen hätten, würden wir heute alle noch Bus fahren. Aber ein weiterer Aspekt, den wir bisher nicht angesprochen haben, betrifft die Kompetenzen, die nötig sind, um diese Technologien in einer Bank beispielsweise einzusetzen. Wir sind nicht alle Forscher, nicht alle haben einen PhD. Wenn es jedes Mal einen PhD braucht, sind wir verloren. Die Mehrheit der Menschen hat keinen – das ist ein Fakt. Aber wir werden Ressourcen brauchen, die nicht unbedingt am Markt verfügbar sind, besonders in Luxemburg. Das ist unausweichlich. Wir müssen daher Wege finden, diese Kompetenzen zu entwickeln – sei es durch neue Bildungsmodelle oder durch neue Modelle der Implementierung – damit Menschen diese Werkzeuge sicher nutzen können, ohne jedes technische Detail zu verstehen. Hinzu kommt die Frage der Kulturation der Nutzer. Denn diese Tools sind inzwischen im öffentlichen Raum angekommen, die Menschen haben sich selbst ein Verständnis angeeignet – durch ihren privaten Gebrauch im Alltag. Doch das entspricht nicht unbedingt dem Einsatz, den wir in Unternehmen verfolgen. Die Realität ist: Wissen muss weitergegeben werden, damit es nicht verloren geht. Ein konkretes Beispiel: Wenn morgen niemand mehr KYC macht, weil Maschinen diese Aufgabe übernehmen, müssen die Menschen trotzdem verstehen, was passiert und warum es gemacht wird. Das wird eine große Herausforderung.
M'haouach: Was du sagst, ist ein entscheidender Punkt. Die Kulturation betrifft Unternehmen auf allen Ebenen. Auch der AI Act geht in diese Richtung: Er soll sicherstellen, dass die Nutzer sich bewusst sind, womit sie arbeiten. Das betrifft also auch den Vorstand – sie müssen die Strategie unterstützen und finanzieren. Um die KI den verschiedenen Mitarbeitenden näherzubringen, haben wir in den einzelnen Abteilungen vorgeschlagen, einen AI Champion oder Data Citizen zu benennen. Diese Personen haben eine mehrtägige Schulung mit praktischen Übungen in Generative AI absolviert. Nachdem sie verstanden hatten, was KI ist, haben wir sie gefragt, wie sie ihnen in ihrer täglichen Arbeit helfen könnte – und wir haben innerhalb weniger Wochen rund fünfzig Use Cases erhalten. Das zeigt klar: Kulturation und Weiterbildung fördern die Akzeptanz.
Ferrero: Am LIST arbeiten wir daran, dieses Problem auf eine andere Weise anzugehen. Wir entwickeln gerade eine komplett Open-Source-Plattform namens Besser, die es ermöglicht, automatisch Software mit KI-Integration zu erstellen – ohne selbst Experte sein zu müssen. Momentan ist es eher eine grafische Oberfläche, aber die Idee ist, wirklich mit einem Chatbot zu interagieren, ihm zu sagen, was man braucht, und die gewünschte Software zu erhalten.
Ferrari: Das klingt nach einer großen Erleichterung, aber am Ende wird es trotzdem Experten brauchen, die die Technologie beaufsichtigen. Das ist eine Gefahr, weil die Menschen dazu neigen werden, ihr zu 100 % zu vertrauen. Welche weiteren Probleme seht ihr?
Ferrero: Persönlich beschäftige ich mich stark mit dem Thema Bias. Wir haben ein Projekt namens AI Sandbox durchgeführt, das den Bias von KI-Modellen – kommerziellen wie Open Source – in allen Sprachen misst. Das ist ein riesiges Thema, denn wenn ein Modell rassistisch oder homophob ist, spiegelt sich das in sämtlichen Antworten wider. Und das ist im Rahmen des AI Act schlicht illegal. Ein weiteres großes Thema ist die Cybersicherheit – vor allem wegen des Trends, den Experten Vibe Coding nennen: also Software oder Code mit KI-Modellen zu entwickeln. Das führt zu Code, der instabil ist und nicht ausreichend gegen Cyberangriffe geschützt. Wenn man solchen Code in eigene Lösungen integriert, macht man sich extrem angreifbar.
Griedlich: Ein Risiko ist, Generative AI einfach nur einzusetzen, um Generative AI einzusetzen.
Ferrari: Das nennt man dann AI Washing?
Griedlich: Genau. Am Ende ist für ein Unternehmen entscheidend, den tatsächlichen Mehrwert zu bewerten – denn das Ganze kostet Geld. Man muss Infrastruktur kaufen, sie aufbauen. Und es geht nicht immer schnell. Wir stellen fest, dass die meisten KI-Projekte über die geplanten Budgets hinauslaufen. Warum? Weil ein ganzes Ökosystem betroffen ist und man oft erst später merkt, dass es Dinge gibt, die man nicht antizipiert hat. Natürlich macht es Sinn, solche Projekte für die Zukunft vorzubereiten – aber die ersten Initiativen kosten nun einmal mehr als geplant. Deshalb ist es absolut wesentlich, den Business Case sorgfältig zu prüfen. Worauf ich hinaus will: Wenn man die Einführung auf fünf Use Cases beschränkt, hat man keine echte Transformation erreicht. Das Ziel ist nicht, Generative AI einzusetzen, sondern effizienter zu werden – mehr zu schaffen mit derselben Anzahl an Mitarbeitenden. Das ist ein komplexer Prozess. Eine Gefahr besteht also darin, nicht über die Ambition nachzudenken, die man sich mit dieser Technologie setzt. Und das gilt letztlich für jede neue Technologie.
Rachid M'haouach
Ferrari: Zum Abschluss: Welche Chancen und Trends seht ihr? Manche sprechen von Automatisierung, Robotern, autonomen Autos… Was ist eurer Meinung nach in naher Zukunft realistisch?
M'haouach: Wir sind von der klassischen KI gestartet, dann zur Generativen KI übergegangen – und nun bewegen wir uns in Richtung Agentische KI. Also hin zu Agenten, die in der Lage sind, eine Vielzahl von Aufgaben völlig autonom auszuführen. Für mich ist das die nächste große Entwicklung, die wir in naher Zukunft sehen werden.
Ferrari: Also sozusagen Siri auf Steroiden. Ein Siri, das für dich beim Friseur einen Termin vereinbart oder deinem Chef meldet, dass du krank bist. So in der Art?
M'haouach: Genau.
Griedlich: Ja, genau in diese Richtung geht es – und das wird alle Branchen betreffen. Forschung und Entwicklung betrachten nie nur eine einzelne Technologie, sondern verbessern Prozesse kontinuierlich. Natürlich wird deshalb jeder versuchen herauszufinden, wie diese Technologie die eigenen Abläufe verbessern kann. Aber es gibt einen wichtigen Punkt: Ein Agent führt per Definition eine Aufgabe aus. Wie du sagst – er macht deinen Termin, plant deinen Urlaub, fasst deine Mails zusammen. Agentische KI bedeutet, dass mehrere Agenten gemeinsam auf ein übergeordnetes Ziel hinarbeiten. All die Themen, über die wir gesprochen haben – Kausalität, Bias usw. – werden sich verstärken, sobald Agenten zusammenarbeiten. Ihr habt vielleicht schon Videos auf YouTube gesehen, in denen Agenten miteinander reden und diskutieren. Sie kommen nie zu einem Ende, weil sie immer noch eine weitere Meinung haben. Das ist ein entscheidender Punkt, der nicht rein technologisch ist: die Governance dieser Agenten. Wie wird man das steuern? Wie stellt man sicher, dass eine Interferenz nicht das Verhalten eines anderen Agenten verändert? Vor allem dann, wenn sie beginnen, Entscheidungen zu treffen, die für euch wichtig sind.
M'haouach: Zum Glück erlaubt der AI Act nicht, dass Maschinen ganz alleine Entscheidungen treffen. Es wird also immer eine Zusammenarbeit zwischen Mensch und Maschine geben.