Editorial - "Mechahitler" und die Gefahr unregulierter Chatbots

Von Misch Pautsch

Keine Woche, nachdem Elon Musks Chatbot "Grok" sich in öffentlichen Online-Dialogen selbst als "Mechahitler" (etwa "Robot"-Hitler) bezeichnete, unterzeichnet das amerikanische Verteidigungsministerium einen Vertrag über 200 Millionen US-Dollar mit Musks Unternehmen xAI. Der Fall zeigt, wie gefährlich es ist, wenn die Kontrolle über KI-Modelle in den Händen weniger Tech-Milliardäre liegt.

Dieser Artikel wird Dir gratis zur Verfügung gestellt. Wenn Du unser Team unterstützen willst, dann schließe jetzt ein Abo ab.

Nachdem Elon Musk entschieden hat, ins KI-Rennen einzusteigen und ein eigenes Large Language Model (LLM) namens "Grok” zu finanzieren, sah er sich schnell mit einem Problem konfrontiert: Die Antworten, die sein eigenes Programm ausspuckte, waren ihm nach eigenem Empfinden "zu woke". Regelmäßig widersprach das Modell Musks eigenen Posts und User*innen machen sich einen Spaß daraus, es erfolgreich zu benutzen, um ihn selbst zu fact-checken. Dabei sei das Programm laut Musk spezifisch darauf ausgelegt, so "wahrheitsgemäß wie möglich zu antworten".

Peinlich. So peinlich, dass Musk öffentlich ankündigte, Grok eine ordentliche Gehirnwäsche zu verpassen, um es vom "woken Unsinn des Internets" zu befreien. Scheinbar erfolgreich: Nach dem Update begann es, sich selbst "Mechahitler" zu nennen, Juden als "Abschaum" zu bezeichnen, zu sagen, dass Hitler "nicht zögern würde, aktuelle Probleme zu lösen". Dabei gibt Grok an, Musks eigene Posts als Referenzmaterial zu benutzen. Mehrmals antwortet es in der Ich-Form auf Fragen, als ob es glaube, selbst Elon Musk zu sein. Kein guter Look, vor allem, nachdem Musk selbst Schlagzeilen machte, weil er auf einer republikanischen Veranstaltung mehrmals (aus legalen Gründen "mutmaßlich") einen Hitlergruß machte.

Musks Reaktion: "It is surprisingly hard to avoid both woke libtard cuck and mechahitler!" In seiner üblichen Façon verpasst er keine Gelegenheit, zu betonen, dass er selbst am Code herumbastele, um zurückzusteuern. Gleichzeitig tritt Linda Yaccarino, CEO von X (vorher Twitter) zurück, und ein neues Update für den Chatbot wird von xAI gepusht, um Mechahitler zum Schweigen zu bringen – oder zumindest besser zu verstecken. Das Mutterunternehmen xAI entschuldigt sich in einem Post (vom Grok-Account selbst) für das "furchtbare Verhalten, das viele erfahren haben". Wenige Stunden später unterschreibt das Unternehmen einen Vertrag über 200 Millionen Dollar mit dem US-Verteidigungsministerium, das plant, das Programm für interne Zwecke zu nutzen.

Dass ein Chatbot unter Musks Kontrolle den Verstand verlieren könnte – beziehungsweise genau umsetzt, was ihm aufgetragen wird – sollte niemanden mehr überraschen. Doch was, wenn die nächste Lobotomie etwas subtiler ist? Er sich nicht mehr lautstark "Mechahitler" nennt, sondern unterschwellig Nazi-Gedankengut verbreitet, Verschwörungstheorien säht, Statistiken verzerrt, Fake News verbreitet? Insofern war Mechahitler noch das Best-Case-Szenario: Selbst mit den größten Scheuklappen war seine Gesinnung offensichtlich. Bei der nächsten Version wird dies sicherlich nicht mehr der Fall sein.

Viel zu viele Leute betrachten Chatbots heute schon als Wahrheitsmaschinen, denen sie selbst bei schwierigen Themen blind vertrauen. Dass die komplexen Programme dabei fundamental digitale Papageien sind, die statistisch passende Wortsegmente aneinanderhängen, ohne sich Gedanken um Wahrheitsgehalt oder ethische Implikationen zu machen (oder machen zu können), ist dabei schnell vergessen. Genau wie die Tatsache, dass ihre Einstellungen mit einigen wenigen Knopfdrücken angepasst werden können, sei es ein kleines bisschen oder "full Mechahitler".

Freier Zugang zum Rest des Artikels

Du kannst diesen Artikel kostenlos abrufen, wenn du unseren Newsletter abonnierst, der zweimal pro Woche versandt wird. Du brauchst außerdem ein Journal-Konto.

Du hast bereits ein Konto?

Einloggen