Diesen Artikel hören
Künstliche Intelligenz fasziniert und gibt gleichzeitig Anlass zur Sorge. Branchenexpert*innen fordern ein umfassendes Nachdenken über ihre Rolle in unserer Gesellschaft, über unser Verhältnis zu den Medien und zur Demokratie.
Dieser Artikel wird dir gratis zur Verfügung gestellt. Wenn du unser Team unterstützen willst, schließe jetzt ein Abo ab.
Die internationale Medienrangliste von Reporter ohne Grenzen zeigt oft, wie gut es einer Demokratie geht und umgekehrt. Unabhängige Medien können in autoritären Regimen nicht existieren, da diese darauf bedacht sind, die Presse mundtot zu machen und ihr auferlegen, die Propaganda des Regimes weiterzugeben. Was können technische Hilfsmittel wie die KI in diesem empfindlichen Gleichgewicht bewirken? Ursprünglich als Rechenwerkzeug entwickelt, wird Künstliche Intelligenz heute dazu verwendet, Stimmen, Bilder und andere Inhalte zu erstellen, die immer echter aussehen, aber von Maschinen stammen. Für Journalist*innen und Politiker*innen ist es eine neue Art, zu arbeiten, mit nicht immer zuverlässigen Informationsquellen, die die breite Öffentlichkeit sortieren muss. Das Thema ist so komplex, dass sich Forscher*innen aus verschiedenen Disziplinen damit beschäftigen, um die gesellschaftliche Diskussion über die Rolle von KI anzustoßen.
Ein Beispiel dafür ist das AI, media & democracy lab mit Sitz in Amsterdam, das vor zwei Jahren ins Leben gerufen wurde. Obwohl die Technologie schneller voranschreitet als die Gesetzgeber, will Europa bei der Regulierung der KI im Wilden Westen eine Vorreiterrolle einnehmen. "Wofür wollen wir sie nutzen und was sind die Bedürfnisse, wo müssen wir vorsichtig sein, z. B. bei der Faktualität der Inhalte, die aus ChatGPT hervorgehen, usw.? Die Gesetzgebung hat diesen Rückstand noch nicht aufgeholt. Ich denke, das Wichtigste ist, anzuerkennen, dass im Moment nicht alles starr ist, dass sich alles mit hoher Geschwindigkeit entwickelt und dass die Menschen diese Technologien bereits annehmen", erklärt Sara Spaargaren, Managerin des Labs, die wir per Videokonferenz interviewt haben.
Für sie ist es unerlässlich, dass die Forschung der Gesellschaft Antworten liefert, die angesichts der Anwendungen von KI verloren ist. Insbesondere für die Medien, die zunehmend mit Speech-to-Text-Tools (automatische Spracherkennung, die es ermöglicht, Audio-Interviews zu transkribieren), Übersetzungen oder auch ChatGPT arbeiten, um beispielsweise formelle E-Mails zu generieren. Das hat aber auch Konsequenzen: "Wenn etwas schiefgeht und das große Auswirkungen hat, wer übernimmt dann die Verantwortung? Das ist genau die Art von Fragen, die Medienunternehmen derzeit zu lösen versuchen. Ich denke, dass die akademische Welt und Wissenseinrichtungen die richtigen Ansprechpartner sein können, um einen Schritt zurückzutreten und zu bewerten, was wir wollen, wie wir die Nutzung dieser Werkzeuge lenken wollen. Das ist es, was wir mit dem Labor tun." Zwei der Forscher*innen werden demnächst zur BBC entsandt, damit sie eng mit den Journalist*innen zusammenarbeiten und verstehen, was in diesem Beruf auf dem Spiel steht.
Sara Spaargaren
Denn wir sind in wenigen Jahren von Artikelempfehlungen, sozialen Netzwerken, die bestimmte Inhalte aufgrund unserer Vorlieben hervorheben, zu maschinengenerierten Inhalten übergegangen. Ein Fortschritt, der einige Fragen aufwirft. Für Dr. Maxime Amblard, Professor für Informatik an der Université de Lorraine in Nancy, geht es zunächst einmal darum, die Problematik mit einer genauen Definition dessen, was KI ist, richtigzustellen. "Ich denke, es gibt ein Problem am Anfang, nämlich dass man heute alles und jedes als KI bezeichnet. Die Informatik ist eine Wissenschaft, die um die Arbeiten von Alan Turing eingeführt wurde (britischer Mathematiker und Kryptologe, Verfasser von Arbeiten, die die Informatik wissenschaftlich begründen. Er ist auch einer der Pioniere der Künstlichen Intelligenz, d. Red.), weil er etwas tut, das extrem schwierig, aber grundlegend ist, nämlich die mathematische Berechnung im Prozess der Entstehung. Das ist es, was die Grundbausteine liefert, aus denen sich die Informatik entwickeln wird. Sowohl theoretisch als auch dann konkret mit der Realisierung von Programmiersprachen. Die Algorithmik ist der Teil, der mehr auf der Seite des Designs liegt, um die Berechnung zu organisieren, die gerade durchgeführt wird. Diese verschiedenen Bausteine bilden Algorithmen, die man dann mit einer Programmiersprache implementieren wird. Für Turing wird es von Interesse sein, herauszufinden, ob diese Berechnung eine menschliche Fähigkeit simulieren kann, die der Mensch nicht berechnen oder ausführen kann, oder weil es zu viele Daten zu verwalten gibt. Und das ist es, was er künstliche Intelligenz nennt."
Künstliche Intelligenz nach der Definition von Alan Turing sei lediglich ein Ersatz für menschliche Inkompetenz, fährt Prof. Amblard fort: "Wir haben eine konzeptionelle Revolution erlebt, eher Anfang der 2000er Jahre, wo sowohl die richtigen theoretischen mathematischen Werkzeuge auftauchten, als auch die Rechenkapazität. Auch die Daten, die wir mit unseren eigenen Computern gesammelt haben, waren später ausschlaggebend. Wenn wir heute von künstlicher Intelligenz sprechen, vermischen wir diese beiden Aspekte ein wenig. Theoretisch kann man KI auch ohne Lernen betreiben. Und dann macht man vor allem jede Menge Informatik, die überhaupt keine KI ist."
Das berühmteste Werkzeug, das aus der künstlichen Intelligenz hervorgegangen ist, ist ChatGP, das alle Vorhersagewerkzeuge dieser Art revolutioniert hat. Prof. Amblard meint: "Es ist ein Werkzeug zur Texterzeugung, das in Wirklichkeit nichts anderes ist als ein mathematisches Supermodell der Wahrscheinlichkeit. Es aggregiert eine Menge Textdaten, die bereits existieren. Es ernährt sich also von einer Unmenge an Daten, die gestohlen oder ohne Zustimmung der Autoren verwendet werden. Aber das Modell, das erstellt wird, ist nur ein Modell, das das nächste Wort, das wahrscheinlichste, vorhersagt. Und es generiert das nächste, wahrscheinlichste Wort so gut, dass es Sätze bildet." Im Gegensatz zu Menschen, die "Bedeutungsmaschinen sind, denn sobald das digitale Werkzeug einen Satz produziert hat, sind wir Menschen es, die sich diesen Satz ansehen und sagen: 'Aha, was bedeutet das oder was hat die Maschine damit gemeint?' Aber die Maschine, also das Modell, bedeutet gar nichts, es hat nichts implizieren wollen, es gibt keine versteckte Botschaft, es gibt nur ein Modell für die Verteilung der Wörter. Das ist das wirklich Wichtige daran, dass es nichts mit der Wahrheit zu tun hat. Denn um die Wahrheit zu sagen, muss man ein Wissen über die Welt haben."
"Man braucht nicht mehr Daten, um intelligenter zu werden, man braucht tatsächlich mehr qualitativ hochwertige Informationen, um ein System zu haben, das bessere Inhalte generiert."
Maxime Amblard, Professor für Informatik an der Université de Lorraine
Die derzeitigen Tools haben für den Forscher also nicht die Fähigkeit, Inhalte zu produzieren, die von sich aus Sinn machen. Für Sara Spaargaren ist die Reflexion insbesondere für die Medien notwendig, die versucht sein könnten, z. B. ChatGPT zu nutzen. "Wenn man sich die Organisation der Medien ansieht, wo sie produziert werden und wie sie verbreitet werden, sowie die Technologien, die ihnen zugrunde liegen, dann gibt es in der Regel eine große Spaltung innerhalb der Medienorganisation. Und ich denke, dass dies auch in der Gesellschaft im Allgemeinen der Fall ist. Die Technologien richten sich nicht wirklich an den Endnutzer oder den Nutzer des Werkzeugs. Daher ist es schwierig, die technologischen Designentscheidungen und ihre langfristigen Auswirkungen zu überwachen."
Für Maxime Amblard besteht das Problem von ChatGPT aus Sicht der Medien darin, "wie wird dem, was produziert wurde, Bedeutung verliehen? Und hier muss ein Mensch eingreifen und das, was produziert wurde, redaktionell aufbereiten. Das ist die typische Arbeit eines Journalisten, der die Sätze aufnimmt und dafür sorgt, dass das, was generiert wurde, eine Idee, ein Konzept aufbaut, das in Bezug auf die Wahrheit und die Ethik Sinn macht. Neu ist, dass man in der Lage ist, falsche Bilder, Texte, Videos zu erzeugen, man ist technologisch zu vielen Operationen in der Lage. Der Mensch ist gezwungen, einzugreifen, um den Diskurs zu validieren, den Diskurs der Realität aufzubauen. Das ist nicht die Aufgabe des Werkzeugs", betont der Forscher.
Für ihn ist der Beruf von Journalist*innen also noch weit davon entfernt, durch Maschinen ersetzt zu werden. "Wenn man sich ChatGPT 3.5 im Vergleich zu ChatGPT 4 ansieht, macht es mehr. ChatGPT 4 scheint effizienter zu sein, aber wenn man ihn bittet, einfache Denkaufgaben zu lösen, ist ChatGPT 3.5 tatsächlich besser als die letzte Version." Der Forscher erklärt dies mit Unkenntnis über KI. "Man braucht nicht mehr Daten, um intelligenter zu werden, man braucht tatsächlich mehr qualitativ hochwertige Informationen, um ein System zu haben, das bessere Inhalte generiert. Aber wir haben ein Niveau erreicht, auf dem wir so viele qualitativ minderwertige oder synthetisch generierte Daten verwendet haben, dass wir am Ende ein bisschen immer das Gleiche erfassen. Die mathematische Natur, die in diesen Tools verwendet wird, verstärkt nur mechanisch das, was sich in den Daten ausdrückt." Auch wenn die Fortschritte im Bereich der KI recht spektakulär sind, sind wir noch weit davon entfernt, von den Maschinen überholt zu werden, relativiert der Wissenschaftler: "Ich bin wirklich überhaupt nicht beunruhigt in dem Sinne, dass ich nicht glaube, dass die KI die Macht über die Menschen übernehmen wird. Ich denke, dass die Menschen begreifen müssen, was KI ist und dass sie nicht mehr als ein Werkzeug ist."
Maxime Amblard
Die Verzerrung der KI und damit der Daten, aus denen sie gespeist wird, ist ein Problem, dessen sich der Forscher sehr wohl bewusst ist. In einem früheren Artikel haben wir darüber mit der Aktivistin des European Network Against Racism (ENAR), Oyidiya Oji, gesprochen, die nach Luxemburg gekommen war, um einen Vortrag zu diesem Thema zu halten. Damals wunderte sie sich über Anwendungen für die Allgemeinheit, die auf verzerrten Daten basierten: "Ich begann zu lesen, dass beispielsweise in den USA fahrerlose Autos in Frauen hineinfahren oder mit größerer Wahrscheinlichkeit in sie hineinfahren, insbesondere wenn es sich um farbige Frauen oder Menschen mit irgendeiner Behinderung handelt, da das Auto dunklere Hauttöne nicht sehen kann. Da die Ingenieure in diesem Fall oft Männer sind, sagen sie sich, dass es natürlich funktioniert. Aber es funktioniert für sie." Die Professorin stellt sich auch die Frage nach der Voreingenommenheit der KI. "In Europa hat man sich auch die Frage gestellt, wie man weniger voreingenommene Modelle bauen kann, und tatsächlich ist das extrem schwierig. Wir haben es also nicht unbedingt ultramedial geschafft, aber wir sind mit Fragen konfrontiert, die wirklich schwierig sind."
Ein Bewusstsein für die Medien
Es bedarf also eines Bewusstseins, für die Branche, aber auch für Nutzungsinstanzen wie die Medien. "Dass es Organisationen und Berufe durcheinanderbringt, ist klar, wie die Frage der computergestützten Übersetzung, die den Beruf des Übersetzers durcheinanderbringt", sagt Maxime Amblard, der beispielsweise zwischen automatischen Übersetzungstools für den schnellen Alltagsgebrauch und Qualitätsübersetzungen, die immer von kompetenten Personen überwacht werden müssen, unterscheidet. Der Forscher macht sich keine Sorgen, dass bestimmte Berufe verschwinden könnten. Wenn Aufgaben automatisiert werden, ist das seiner Meinung nach eine gute Sache: "Wenn man sich wiederholende Aufgaben ohne Mehrwert automatisieren kann und Werkzeuge hat, die dazu in der Lage sind, umso besser. Dann bleibt viel mehr Zeit für die eigentliche Arbeit, die man als Politiker oder Journalist machen kann und die dann für Journalisten die redaktionelle Bearbeitung und für Politiker der Aufbau eines Gedankens zur Organisation der Gesellschaft ist."
Und um diese Diskussion in Gang zu bringen, müssen sich laut Sara Spaargaren die verschiedenen Akteure der Gesellschaft an einen Tisch setzen, um die wirklichen Herausforderungen ins Visier zu nehmen: "Was wir hier versuchen, ist, Diskussionsgruppen zu organisieren, Gespräche mit den technischen Entwicklern einer Organisation, aber auch mit den Verlegern, die das Management verwalten, denn sie entscheiden, welche Werkzeuge verwendet werden können und was wir tun und was wir nicht tun können. Es geht also darum, verschiedene Gruppen zusammenzubringen, die wie Inseln innerhalb einer Organisation agieren können." Für Dr. Amblard "geht es bei der künstlichen Intelligenz um eine explizite und große Souveränitätsfrage. Man braucht Menschen, die entwickeln, verstehen und analysieren, was mit künstlicher Intelligenz gemacht wird und was möglich ist, und gleichzeitig muss man in Bezug auf die politische, soziale und gesellschaftliche Organisation entscheiden, was man tut. Es besteht die Gefahr einer großen Polarisierung zwischen Akteuren, die die künstliche Intelligenz beherrschen, und Akteuren, die völlig von anderen Marktteilnehmern abhängig wären."
"Ich denke, es wird Gesetze geben, die zumindest dafür sorgen, dass die Plattformen expliziter darauf eingehen, wie sie den Menschen Informationen empfehlen."
Sara Spaargaren, Managerin des Labors AI, media & democracy
Beide Expert*innen sind sich einig, dass die Schlüsselbotschaft in der Erziehung der breiten Öffentlichkeit zu einem besseren Umgang mit diesen Werkzeugen liegen wird. Gerüchte und andere Falschmeldungen hat es zwar schon immer gegeben, aber die erleichterte und massenhafte Produktion erfordert eine größere Aufmerksamkeit für alles, was man sieht und liest. "Ich denke, es wird Gesetze geben, die zumindest dafür sorgen, dass die Plattformen expliziter darauf eingehen, wie sie den Menschen Informationen empfehlen. Ein weiterer Aspekt ist, dass dies stärker am Menschen orientiert sein muss. Wir akzeptieren den Cookie immer, wir sagen alle ja. Und das ist in Ordnung. Aber Sie müssen wirklich das Gefühl haben, dass Sie die Wahl haben und dass Sie sozusagen für Ihr Informationsregime verantwortlich sind. Solche Fragen sind wirklich wichtig, wenn wir die Technologie in eine Richtung lenken wollen, die der Vielfalt wirklich zugute kommt", erklärt Sara Spaargaren. "Die breite Öffentlichkeit hat noch nicht verinnerlicht, dass ein Bild nicht die Realität ist. Das ist etwas, das sich durchsetzen wird. Raymond Depardon, Capra, das ist vorbei. Man ist dabei, ein anderes Verhältnis zur Information aufzubauen, im Sinne von visueller Information, akustischer Information, Textinformation. Wir sind dabei, dieses Verhältnis zu verändern. Man stellt fest, dass ein Prozent der Konten auf X (Twitter) 34 Prozent der zirkulierenden Informationen produzieren. Das bedeutet, dass die Informationen, die auf Twitter zirkulieren, nicht dem entsprechen, was die Menschen ausdrücken können. Das Problem ist, dass es niemanden gibt, der den Diskurs dekonstruiert, man lässt sie in dem Glauben, dass, wenn sie das in großen Mengen auf Twitter sehen, es wahrscheinlich wahr ist. Und wenn sie dann versuchen, irgendwo den Ausdruck der Wahrheit zu finden, wird das dem Journalismus oder der Politik wieder eine sehr große Bedeutung verleihen", erklärt Dr. Amblard.
In Erwartung der Tatsache, dass die breite Öffentlichkeit und andere sich über die Herausforderungen der KI weiterbilden, sind sich die Experten und Expertinnen einig, dass der AI Act einen willkommenen Rahmen setzen wird. "Europa ist Vorreiter in Sachen digitaler Strategie. Und zwar nicht nur eine KI-Gesetzgebung, die vorschreibt, wie Algorithmen eingesetzt werden können und sollen, sondern auch Gesetze für digitale Dienstleistungen, die große Plattformen wie Facebook und Twitter regulieren. Es gibt eine ganze Reihe von Regelungen, die insgesamt sehr innovativ sind, und ich glaube nicht, dass es so etwas irgendwo anders auf der Welt gibt", meint Sara Spaargaren.
Während sich einige Forscher*innen und andere Tech-Spezialist*innen über die Regulierung beschweren, gehört Maxime Amblard zu denjenigen, die in der Regulierung ein gutes Mittel sehen, um einen Schritt zurückzutreten und die richtigen Entscheidungen über die Nutzung dieser neuen Technologien zu treffen. "In Europa werden wir bei der Entwicklung eines Teils unserer Forschung aufgrund von Rechtsfragen behindert. Das zwingt uns jedoch dazu, eine ethische und deontologische Forschung voranzutreiben. Das mag wie ein Hemmnis erscheinen, wenn man sich ansieht, wie weit die Entwicklung in den USA fortgeschritten ist, aber wir haben einen sehr guten Stand der Reflexion über ethische und deontologische Fragen. Ich möchte keinesfalls sagen, dass es in den USA nichts gibt, denn ich habe viele Kollegen, die daran arbeiten. Sie konnten eine ganze Reihe von Dingen tun, ohne sich Fragen zu stellen, während wir in Europa sehr schnell daran gehindert wurden, Daten zu sammeln und sie zu verwenden. Wir waren gezwungen, uns zu fragen, was es bedeutet, Daten ohne Genehmigung zu nehmen, was es bedeutet, Modelle zu haben, die Verzerrungen, die in den Daten auftauchen, verstärken? Man hat den Eindruck, dass im Internet jeder seine Meinung äußert, obwohl das in Wirklichkeit bei weitem nicht der Fall ist. Es sind immer noch viele Menschen aus westlichen Ländern, viele Männer. Sobald man rassisiert ist, sobald man eine Frau ist, tun sich die Modelle enorm schwer."
Auch in Amsterdam geht es voran. "Vor kurzem haben wir einen Rechtsdesign-Workshop mit Akteuren der Zivilgesellschaft im digitalen Raum namens Algorithm Watch veranstaltet. Wir haben Experten aus diesem Bereich und aus der Wissenschaft zusammengebracht, um Vorschläge zu erarbeiten, wie man KI für allgemeine Zwecke und generative KI auf eine Art und Weise regulieren kann, die es Europa ermöglicht, den verantwortungsvollen Umgang mit KI zu bewahren, den es angekündigt hat und der angenommen werden soll. Es gibt also eine Reihe von Empfehlungen, denen die politischen Entscheidungsträger folgen können, und wir sind auch bereit, mit den Organisationen, die das Gesetz umsetzen müssen, einen Dialog zu führen."
Auch wenn die KI und ihre Anwendungen Angst machen können, ist Maxime Amblard der Meinung, dass nicht das Werkzeug selbst schuld ist. Für den Wissenschaftler liegt es an der Gesellschaft, zu entscheiden, was sie daraus machen will: "Was ich an all diesen Diskussionen und an all den Präsentationen, die ich machen kann, interessant finde, ist, die Botschaft zu vermitteln, dass es nur die Arbeit von Wissenschaftlern ist. Wir produzieren Werkzeuge und es ist Sache der Gesellschaft, zu sagen, ob diese Werkzeuge akzeptabel sind oder nicht, ob sie in ihre Arbeitsweise integriert werden sollten oder nicht. Ich muss sie nicht als Wissenschaftler beurteilen, ich kann sie als Bürger beurteilen. Und das ist die Schwierigkeit. Derzeit nehmen die Bürger künstliche Intelligenz als etwas außerordentlich Überlegenes wahr, das genutzt werden muss, weil es existiert. Aber ohne auch nur eine Sekunde lang zu hinterfragen: Was ist das? Was bewirkt es auf der einen Seite? Geschweige denn, was bewirkt es in der Gesellschaft? Und leider wäre das für uns Wissenschaftler die richtige Frage, und ich würde mich freuen, wenn sie beantwortet würde, aber das liegt nicht in meiner Verantwortung als Wissenschaftler."
Die Illustrationen in diesem Artikel wurden von DALL.E 3 (Open AI) generiert.