Écouter cet article
L’intelligence artificielle fascine et provoque des inquiétudes. Les spécialistes du secteur appellent à une réflexion globale sur son rôle dans notre société, à notre rapport aux médias et à la démocratie.
Cet article est mis à ta disposition gratuitement. Si tu veux soutenir notre équipe et le journalisme de qualité, abonne-toi maintenant.
Le classement international des médias de Reporters sans frontières révèle bien souvent la bonne santé des démocraties et inversement. Des médias indépendants ne peuvent exister dans des régimes autoritaires, ces derniers ayant à cœur de museler la presse qui doit alors relayer la propagande du régime. Que viennent alors faire les outils technologiques comme l’IA dans ce fragile équilibre ? Créée comme un outil de calcul à la base, l’intelligence artificielle est utilisée aujourd’hui pour créer des voix, images et autres contenus qui ont de plus en plus l’air vrai, mais qui sont issus des machines. Une nouvelle façon de travailler pour les journalistes et les politiques, avec des sources d’information pas toujours fiables pour lesquelles le grand public doit faire le tri. La thématique est tellement complexe qu’elle fait l’objet d’attention de chercheur·euse·s de disciplines diverses, pour amorcer une conversation sur le rôle de l’IA dans notre société.
C’est le cas du laboratoire AI, media & democracy basé à Amsterdam, qui a vu le jour il y a deux ans. Si la technologie avance bien plus vite que nos législateur·rice·s, l’Europe veut être à la pointe concernant la régulation d’une espèce de Far-West qu’est devenue l’IA. "À quelles fins voulons-nous l'utiliser et quels sont les besoins, les points sur lesquels nous devons être prudents, par exemple, la factualité de ce contenu qui émerge de ChatGPT, etc. La loi, bien sûr, n'a pas encore rattrapé son retard. Je pense que l'essentiel est de reconnaître que tout n'est pas figé pour l'instant, que tout se développe à grande vitesse et que les gens adoptent déjà ces technologies", explique Sara Spaargaren, manager du lab que nous avons interviewée par visioconférence.
Pour cette dernière, il est impératif que la recherche apporte des réponses pour une société qui est perdue face aux applications de l’IA. Notamment pour les médias qui travaillent de plus en plus avec des outils de speech-to-text (reconnaissance vocale automatique qui permet de retranscrire des interviews audio), traduction ou encore ChatGPT pour générer des e-mails formels par exemple. Mais ce n’est pas sans conséquence : "Lorsque quelque chose ne va pas et que l'impact devient important, qui en prend la responsabilité ? C'est exactement le type de questions que les entreprises de médias tentent de résoudre en ce moment. Je pense que le monde universitaire et les institutions du savoir peuvent être des interlocuteurs de choix pour prendre du recul et évaluer ce que nous voulons, comment nous voulons guider l'utilisation de ces outils. C'est ce que nous faisons avec le laboratoire." Deux de ses chercheur·euse·s vont être prochainement envoyé·e·s dans les locaux de la BBC, pour que ces dernier·ère·s travaillent en collaboration étroite avec les journalistes et comprennent les enjeux de la profession.
Sara Spaargaren
Car nous sommes passés en quelques années à des recommandations d’articles, des réseaux sociaux qui mettent en avant certains contenus d’après nos préférences, à des contenus générés par des machines. Une avancée qui pose certaines questions. Pour Dr Maxime Amblard, professeur d'informatique à l’Université de Lorraine à Nancy, il s’agit tout d’abord de bien poser la problématique avec une définition précise de ce qu’est l’IA. "Je pense qu'il y a un problème au départ, c'est qu’on appelle aujourd'hui IA un peu tout et n'importe quoi. L'informatique est une science qui est introduite autour des travaux d’Alan Turing (mathématicien et cryptologue britannique, auteur de travaux qui fondent scientifiquement l'informatique. Il est aussi un des pionniers de l'Intelligence artificielle. Ndlr), parce qu’il fait quelque chose qui est extrêmement difficile, mais qui est fondamental, le calcul mathématique en train de se faire. C'est ça qui donne les briques de base qui vont devenir l'informatique. À la fois théorique et puis concret avec la réalisation des langages de programmation. L'algorithmique est la partie qui est plus du côté de la conception, pour organiser le calcul qui est en train d'être réalisé. Ces différentes briques forment des algorithmes qu'on va ensuite implémenter avec un langage de programmation. Pour Turing, ce qui va être intéressant c'est de savoir si ce calcul permet de simuler une compétence humaine que l'Homme n'arrive pas à calculer ou à faire, ou encore parce qu’il y a trop de données à gérer. Et c'est ça qu'il appelle l'intelligence artificielle."
L'intelligence artificielle, selon la définition d’Alan Turing, est simplement de suppléer les incompétences des humains, poursuit Prof. Amblard : "Nous avons connu une révolution conceptuelle, plutôt au début des années 2000 où il y a eu à la fois les bons outils mathématiques théoriques qui sont apparus, et puis la capacité de calcul. Les données récoltées à partir de nos propres ordinateurs ont également été par la suite déterminantes. Aujourd'hui quand on parle d'intelligence artificielle, on fait un peu un mélange entre ces deux aspects. Théoriquement, on peut tout à fait faire de l'IA sans les apprentissages d'une part. Et puis surtout on fait plein d'informatique qui n’est pas du tout de l'IA."
L’outil le plus célèbre issu de l’intelligence artificielle, c’est ChatGPT qui a révolutionné tous les outils de prédiction du genre. Pour Prof. Amblard, "c'est un outil de génération de texte qui en fait n'est qu’un super modèle mathématique de probabilité. Il agrège plein de données de textes qui existent déjà. Il se nourrit donc au travers d’énormément de données qui sont volées ou qui sont utilisées sans le consentement de ses auteurs. Mais le modèle qui est construit, ça n'est qu’un modèle qui prédit le mot suivant, le plus probable. Et il génère tellement bien le mot suivant le plus probable que cela forme des phrases." Au contraire des humains qui eux "sont des machines à faire du sens parce que c'est une fois que l'outil numérique a produit une phrase, c'est nous, humains, qui regardons cette phrase et qui nous disons, 'ah qu'est-ce que ça veut dire ou qu'est-ce que la machine a voulu dire avec ça ?' Mais la machine, enfin le modèle ne veut rien dire du tout, il n’a rien voulu sous-entendre, il n’y a pas de message caché, il n'y a qu'un modèle de distribution des mots. C'est ça qui est vraiment important, c'est que cela n'a rien à voir avec la vérité. Parce que pour dire la vérité, il faut avoir une connaissance du monde."
"Il ne faut pas plus de données pour devenir plus intelligent, il faut en fait plus d'informations de qualité pour avoir un système qui génère de meilleurs contenus."
Maxime Amblard, professeur d'informatique à l’Université de Lorraine
Les outils actuels n’ont donc pour le chercheur pas de capacité à produire des contenus qui feront sens par eux-mêmes. Pour Sara Spaargaren, la réflexion est nécessaire notamment pour les médias qui seraient tentés d’utiliser ChatGPT par exemple. "Si vous regardez l'organisation des médias, où ils sont produits et comment ils sont diffusés, ainsi que les technologies qui les sous-tendent, il y a généralement une grande division au sein de l'organisation des médias. Et je pense que c'est également le cas dans la société en général. Les technologies ne s'adressent pas vraiment à l'utilisateur final ou à l'utilisateur de l'outil. Il est donc difficile de superviser les choix de conception technologique et leur impact à long terme."
Pour Maxime Amblard, le problème de ChatGPT du point de vue des médias, c'est "comment est-ce qu'on va donner du sens à ce qui a été produit ? Et c'est là où c'est un humain qui doit intervenir et éditorialiser ce qui a été produit. C'est tout le travail du journaliste typiquement, de prendre la suite des phrases et faire en sorte que ce qui a été généré construise une idée, un concept qui a du sens par rapport à la vérité et la déontologie. Ce qui est nouveau, c'est qu'on est capable de générer des fausses images, textes, vidéos, on est technologiquement capable de plein d'opérations. L'humain est obligé d’intervenir pour valider le discours, construire le discours de la réalité. Cela n'est pas la tâche de l'outil", insiste le chercheur.
Pour ce dernier, le métier de journaliste n’est donc pas près d’être remplacé par des machines. "Quand on regarde ChatGPT 3.5 par rapport à ChatGPT 4, il fait plus de choses. ChatGPT 4 a l'air d'être plus efficace, mais si on lui demande de résoudre des tâches de raisonnement simple, en fait ChatGPT 3.5 est meilleur que la dernière version." Le chercheur explique cela par une méconnaissance de l’IA. "Il ne faut pas plus de données pour devenir plus intelligent, il faut en fait plus d'informations de qualité pour avoir un système qui génère de meilleurs contenus. Mais nous avons atteint un niveau où nous avons tellement utilisé de données de mauvaise qualité ou générées synthétiquement qu’on finit par capter un peu toujours la même chose. La nature mathématique qui est utilisée dans ces outils ne fait que mécaniquement amplifier ce qui s'exprime dans les données." Si les avancées dans le domaine de L’IA sont assez spectaculaires, on est encore loin d’être dépassés par les machines, relativise le scientifique : "Je ne suis vraiment pas du tout inquiet au sens que je ne pense pas que l'IA va prendre le pouvoir sur les humains. Je pense que les humains doivent concevoir ce qu'est l'IA et que ce n'est pas plus que des outils."
Maxime Amblard
Le biais de l’IA, et par là des données dont elle se nourrit, est un problème dont le chercheur est bien conscient. Nous en avions parlé dans un article précédent avec la militante du réseau européen contre le racisme (European Network Against Racism – ENAR) Oyidiya Oji, venue à Luxembourg pour donner une conférence sur le sujet. Elle s’étonnait alors d’applications pour le grand public qui se basaient sur des données biaisées : "J'ai commencé à lire qu'aux États-Unis, par exemple, des voitures sans conducteur s'écrasaient ou avaient plus de chances de s'écraser contre des femmes, surtout s'il s'agissait de femmes de couleur ou de personnes souffrant d'un handicap quelconque, car la voiture ne voit pas les peaux plus foncées. Dans ce cas, comme les ingénieurs sont souvent des hommes, ils se disent que, bien sûr, ça marche. Mais ça marche pour eux." Le professeur se pose également la question du biais de l’IA. "En Europe, on s'est aussi posé la question de comment construire des modèles moins biaisés et en fait, c'est extrêmement difficile. Donc on n'a pas forcément réussi de manière ultra médiatique mais on est confronté à des questions qui sont vraiment difficiles."
Une prise de conscience pour les médias
Il faut donc une prise de conscience, pour le secteur, mais également pour les utilisateurs intermédiaires que sont les médias. "Que cela bouscule les organisations et des métiers, c'est évident, comme la question de la traduction assistée par ordinateur qui bouscule le métier de traducteur", indique Maxime Amblard, qui distingue par exemple des outils de traduction automatique pour des usages rapides du quotidien et des traductions de qualité qui doivent toujours être supervisées par des personnes compétentes. Le chercheur ne s’inquiète pas de la disparition de certaines professions. Si des tâches vont être automatisées, c’est une bonne chose selon lui : "Des tâches répétitives et sans plus-value, si on peut les automatiser et qu'on a des outils qui sont capables de les faire, tant mieux. Cela laisse beaucoup plus de temps pour faire le vrai travail que vous savez faire en tant que politique ou journaliste et qui est alors pour les journalistes l'éditorialisation et pour les politiques, la construction d'une pensée de l'organisation de la société."
Et pour amorcer cette discussion, Sara Spaargaren estime que les différent·e·s acteur·rice·s de la société doivent se mettre autour de la table pour cibler les vrais enjeux : "Ce que nous essayons de faire ici, c'est d'organiser des groupes de discussion, des conversations avec les développeurs techniques d'une organisation, mais aussi avec les éditeurs qui gèrent la gestion, car ce sont eux qui décident quels outils peuvent être utilisés et ce que nous pouvons faire et ce que nous ne pouvons pas faire. Il s'agit donc de réunir différents groupes qui peuvent agir comme des îlots au sein d'une organisation." Pour Dr Amblard, "il y a un enjeu de souveraineté explicite et majeur autour de l'intelligence artificielle. Il faut des gens qui développent, comprennent et analysent ce qui se fait et ce qui est possible de faire avec l'intelligence artificielle et à la fois il faut, en termes d'organisation politique, sociale, sociétale, décider ce que l'on fait. Il y a un risque de polarisation majeure entre des acteurs qui maîtrisent l'intelligence artificielle et des acteurs qui seraient complètement dépendants des autres opérateurs."
"Je pense qu'il y aura des lois qui veilleront au moins à ce que les plateformes soient plus explicites sur la manière dont elles recommandent des informations aux gens."
Sara Spaargaren, manager du laboratoire AI, media & democracy
Les deux spécialistes sont d’accord sur le fait que le message clé résidera dans l’éducation du grand public à mieux appréhender ces outils. Si les rumeurs et autres fausses nouvelles ont toujours existé, la production facilitée et de masse nécessite une plus grande attention à tout ce que l’on voit et lit. "Je pense qu'il y aura des lois qui veilleront au moins à ce que les plateformes soient plus explicites sur la manière dont elles recommandent des informations aux gens. Un autre aspect est que cela doit être plus orienté vers l'humain. Nous acceptons toujours le cookie, nous disons tous oui. Et c'est très bien. Mais vous devez vraiment sentir que vous avez le choix et que vous êtes responsable de votre régime d'information, pour ainsi dire. Ce type de questions est vraiment important si nous voulons orienter la technologie dans une direction qui profite réellement à la diversité", explique Sara Spaargaren. "Le grand public n’a pas encore intégré qu’une image n'est pas la réalité. C’est quelque chose qui va s'imposer. Raymond Depardon, Capra, c'est fini. On est en train de construire un autre rapport à l'information, enfin au sens de l'information visuelle, de l'information sonore, de l'information textuelle. On est en train de modifier ce rapport-là. On se rend compte qu’il y a 1% des comptes sur X (Twitter) qui produisent 34% de l'information qui circule. Cela veut dire que l'information qui circule sur Twitter n'est pas à l'image de ce que les gens peuvent exprimer. Le problème est qu'il n'y a personne pour déconstruire le discours, on les laisse croire que s’ils voient ça en grande quantité sur Twitter, c'est que c'est probablement vrai. Et quand ils essaieront de trouver quelque part l'expression de la vérité, cela redonnera un sens très grand au journalisme ou aux politiques", explique Dr Amblard.
En attendant à ce que le grand public et les autres se forment aux défis que représentent l’IA, les spécialistes sont tous et toutes unanimes pour dire que l’AI Act va poser un cadre bienvenu. "L'Europe est à l'avant-garde en matière de stratégie numérique. Et pas seulement une IA qui dictera comment les algorithmes peuvent et doivent être utilisés, mais aussi des lois sur les services numériques, qui réglementent les grandes plateformes telles que Facebook et Twitter. Il y a tout un ensemble de réglementations qui sont, dans l'ensemble, très innovantes et je ne pense pas qu'il y en ait ailleurs dans le monde", estime Sara Spaargaren.
Si certain·e·s chercheur·euse·s et autres spécialistes de la tech se plaignent des régulations, Maxime Amblard fait partie de ceux·celles qui voient en la régulation un bon moyen de prendre un peu de recul pour prendre les bonnes décisions sur l’utilisation de ces nouvelles technologies. "En Europe, nous sommes entravés dans le développement d'une partie de nos recherches pour des questions de droit. Mais cela nous force à faire porter une recherche éthique et déontologique. Cela peut apparaître comme un frein quand on regarde le niveau d'avancement de ce qui se fait aux États-Unis, mais nous avons un état de réflexion sur les questions éthiques et déontologiques qui est très bon. Je ne veux surtout pas dire qu'il n’y a rien aux États-Unis parce que j'ai plein de collègues qui travaillent là-dessus. Ils ont pu faire tout un tas de choses sans se poser de questions alors que nous en Europe, on s'est très rapidement retrouvé empêchés de collecter des données et de les utiliser. On a été forcé de s'interroger sur qu'est-ce que ça veut dire que de prendre des données sans autorisation, qu'est-ce que ça veut dire que d'avoir des modèles qui amplifient des biais qui apparaissent dans les données ? On a l'impression que sur le web, tout le monde s'exprime, alors qu'en fait, c'est loin d'être le cas. Ça reste beaucoup d'Occidentaux, beaucoup d'hommes. Dès qu'on est racisé, qu'on est une femme, les modèles peinent énormément."
Du côté d’Amsterdam les choses avancent également. "Récemment, nous avons organisé un atelier de conception juridique avec des acteurs de la société civile dans l'espace numérique appelé Algorithm Watch. Nous avons réuni des experts du domaine et des milieux universitaires pour formuler des suggestions visant à réglementer l'IA à usage général et l'IA générative d'une manière qui permette à l'Europe de préserver l'approche responsable de l'IA qu'elle a annoncée comme devant être adoptée. Il existe donc une série de recommandations que les décideurs politiques peuvent suivre et nous sommes également prêts à dialoguer avec les organisations qui doivent mettre en œuvre la loi."
Si l’AI et ses applications peuvent faire peur, Maxime Amblard estime que ce n’est pas l’outil lui-même que l’on doit blâmer. Pour le scientifique, c’est à la société de décider de ce qu'elle veut en faire : "Ce que je trouve intéressant derrière toutes ces discussions et derrière toutes les présentations que je peux faire, c'est de porter le message que ça n'est que du travail de scientifique. Nous produisons des outils et c'est à la société de dire si ces outils sont acceptables ou pas, s'ils doivent être intégrés à son mode de fonctionnement ou pas. Je n'ai pas à juger en tant que scientifique, je peux les juger en tant que citoyen. Et c'est la difficulté. Actuellement, les citoyens prennent l'intelligence artificielle comme quelque chose d’extraordinairement supérieur, qui doit être utilisé parce que ça existe. Mais sans s’interroger une seule seconde, qu'est-ce que c'est ? Qu'est-ce que ça fait d'une part ? Et encore moins qu'est-ce que ça produit dans la société ? Et malheureusement pour nous, scientifiques, ce serait la bonne question et je serais ravi qu'elle soit traitée, mais ce n’est pas de mon ressort en tant que scientifique."
Les illustrations dans cet article ont été générées par DALL.E 3 (Open AI)