Éditorial - "MechaHitler" et le danger des chatbots non réglementés
Par Misch Pautsch Changer en allemand pour l'article original
Moins d'une semaine après que le chatbot Grok d’Elon Musk s’est qualifié lui-même de "MechaHitler" (soit une sorte de "Hitler robotique") dans des dialogues publics en ligne, le ministère américain de la Défense a signé un contrat de 200 millions de dollars avec l’entreprise xAI de Musk. Ce cas illustre à quel point il est dangereux que le contrôle des modèles d’intelligence artificielle soit entre les mains de quelques milliardaires de la tech.
Cet article est mis gratuitement à ta disposition. Si tu veux soutenir notre équipe, souscris dès maintenant à un abonnement.
Après avoir décidé de se lancer dans la course à l'IA et de financer son propre Large Language Model (LLM) appelé Grok, Elon Musk a rapidement été confronté à un problème : les réponses que son propre programme crachait étaient, selon son propre sentiment, "trop woke". Régulièrement, le modèle contredisait les propres posts de M. Musk et les utilisateur·trice·s s'amusaient à l'utiliser avec succès pour le fact-checker eux et elles-mêmes. Selon M. Musk, le programme est spécifiquement conçu pour "répondre le plus fidèlement possible".
Gênant. Tellement gênant que M. Musk a annoncé publiquement qu'il allait faire un bon lavage de cerveau à Grok afin de le débarrasser des "absurdités woke d'internet". Apparemment avec succès : après la mise à jour, le chatbot s’est mis à se qualifier lui-même de "MechaHitler", à désigner les juifs comme de la "vermine" et à affirmer qu’Hitler "n’hésiterait pas à résoudre les problèmes actuels". Grok affirme s’appuyer sur les publications de M. Musk lui-même comme matériel de référence. À plusieurs reprises, il répond aux questions à la première personne, comme s’il croyait être Elon Musk en personne. Pas vraiment une image flatteuse, surtout après que M. Musk a lui-même fait les gros titres pour avoir exécuté à plusieurs reprises (disons prétendument, pour des raisons légales) un salut hitlérien lors d’un événement républicain.
La réaction de M. Musk : "It is surprisingly hard to avoid both woke libtard cuck and mechahitler !" Fidèle à lui-même, il ne rate pas une occasion de souligner qu’il met lui-même les mains dans le code pour corriger la trajectoire. Dans le même temps, Linda Yaccarino, PDG de X (anciennement Twitter), démissionne, et une nouvelle mise à jour du chatbot est poussée par xAI pour faire taire MechaHitler – ou du moins mieux le dissimuler. La maison mère xAI s’excuse dans une publication (depuis le compte Grok lui-même) pour le "comportement épouvantable que beaucoup ont pu observer". Quelques heures plus tard, l’entreprise signe un contrat de 200 millions de dollars avec le ministère américain de la Défense, qui prévoit d’utiliser le programme à des fins internes.
Qu’un chatbot sous le contrôle de Musk puisse perdre la tête – ou plutôt exécuter exactement ce qu’on lui a demandé – ne devrait plus surprendre personne. Mais que se passe-t-il si la prochaine lobotomie est plus subtile ? S’il ne se nomme plus bruyamment "MechaHitler", mais propage insidieusement une idéologie néonazie, sème des théories du complot, déforme des statistiques, diffuse de fausses informations ? En ce sens, MechaHitler était presque un scénario idéal : même avec les œillères les plus épaisses, son idéologie restait évidente. Ce ne sera certainement plus le cas avec la prochaine version.
Bien trop de gens considèrent déjà les chatbots comme des machines à vérité, auxquelles ils font confiance aveuglément, même sur des sujets complexes. Le fait que ces programmes sophistiqués ne sont fondamentalement que des perroquets numériques, qui enchaînent statistiquement des segments de mots sans se soucier de la véracité ou des implications éthiques (et sans en avoir la capacité), est vite oublié. Tout comme le fait que leurs réglages peuvent être modifiés en quelques clics, que ce soit un peu… ou en mode "full MechaHitler".
La suite de cet article est gratuite
Elle est disponible pour les utilisateur·rice·s abonné·e·s à la newsletter, qui est envoyée deux fois par semaine, et ayant un compte Journal.
As-tu déjà un compte ?
Connecte-toi