UE et intelligence artificielle : entre innovation et régulation

Contenu sponsorisé

Écouter cet article

Depuis l'irruption de ChatGPT en novembre 2022, l'intelligence artificielle a quitté les laboratoires pour s'imposer dans tous les secteurs de notre économie. C'est le sujet de l'actuel épisode du podcast Evergreens by Spuerkeess, désormais disponible sous forme d'article.

Bryan Ferrari et ses trois invité·e·s parlent d'intelligence artificielle générative et explorent une question centrale : Comment concilier innovation technologique, autonomie stratégique et sécurité des systèmes dans un monde de plus en plus piloté par l'IA ?

Nicolas Griedlich (Deloitte Luxembourg), Francesco Ferrero (LIST) et Rachid M'haouach (Spuerkeess) partagent leurs expériences et les défis concrets auxquels font face les entreprises dans l'adoption de l'intelligence artificielle. Un échange riche qui aide à mieux comprendre les enjeux d'une IA souveraine, responsable et performante.

Bryan Ferrari : On en a parlé en mai 2023. Depuis, beaucoup de choses ont évolué. Pour commencer, qui veut nous dire ce qui a changé suite à l'arrivée de ChatGPT en novembre 2022 dans le domaine de l'intelligence artificielle ?

Nicolas Griedlich : Depuis mai 2023, beaucoup de choses se sont passées. Pour certaines personnes, ça va tellement vite qu'il est compliqué de suivre. J'aime toujours regarder un développement dans son entièreté. Se rappeler que l'IA générative a démarré en 2016. C'était de la recherche. Puis, en 2022, le résultat de cette recherche a été rendu disponible au public. De là, les acteurs technologiques se sont approprié cette nouvelle technologie et l'ont intégré dans leurs propres outils. On a vu tous les acteurs du marché progressivement déployer leur propre LLM (grand modèle de langage, ndlr) pour la communauté et des entreprises. Les entreprises ont commencé à observer cette technologie et à se demander comment elle pourrait l'utiliser. Ça a posé beaucoup de questions en termes d'aspects légaux, compliance, risques, comment on peut adopter cette technologie… La communication avec les employés aussi, leur expliquer comment on va l'utiliser parce que le premier usage s'est fait dans la sphère privée. On a vu développement qui est allé au-delà de la génération de contenu, de texte, de vidéos. C'est rentré dans la technologie de plein d'autres domaines. Drones, agriculture, recherche… La portée de la Generative AI va au-delà de la création de contenu. Elle impacte tous les domaines de la société – et évidemment, le financier ne fait pas exception.

Nicolas Griedlich

Francesco Ferrero : Selon moi, la Generative AI a popularisé l'intelligence artificielle. Les techniciens comme moi utilisent l'IA depuis longtemps, mais ce n'est pas le cas du grand public. ChatGPT et ses confrères ont amené une interface utilisateur hyper simple. Ça a tout changé. Sauf qu'il y a un petit problème : c'est que si l'interface est simple, la technologie qui se cache derrière est hyper complexe. Elle apporte des aspects complètement nouveaux, c’est une technologie non déterministe. Ça veut dire qu'on peut poser deux fois la même question sans avoir la même réponse. C'est une grosse différence. On a l'habitude de la précision alors qu'ici, il y a un côté créatif. Ce côté est tellement poussé que parfois les modèles peuvent halluciner, ils peuvent inventer des choses. Ça a déjà créé des problèmes, par exemple pour des entreprises qui utilisent des chatbots comme interface client. Il y a des cas très célèbres. Quelqu'un qui a réussi à acheter un véhicule pour un dollar, parce qu'il a réussi à convaincre le chatbot. Les modèles sont entraînés sur des données qui sont créées par le grand public et donc qui reflètent les tendances de la société. Pour toutes ces raisons, il faut réfléchir à comment préparer la société, mais aussi les utilisateurs professionnels, qui doivent non seulement respecter des règles, mais aussi produire des services de qualité et assurer la fiabilité des informations. Il faut travailler ensemble pour arriver à préparer cette deuxième phase avec une utilisation meilleure de la technologie.

Rachid M'haouach : L'IA est plus qu'un buzz. C'est une réalité. Son utilisation montre de vrais impacts positifs, mais cette technologie vient aussi avec ses menaces et dangers. C'est pourquoi l'IA Act est arrivée en 2024 pour cadrer et pour assurer l'utilisation de cette technologie en toute sécurité.

Bryan : Une fois de plus, pendant que les autres inventent, nous, on régule. On était les premiers à mettre en place un IA Act, n'est-ce pas ?

Nicolas : Pas vraiment. Les Chinois ont sorti un papier similaire, avec les mêmes principes de contrôle et de régulation de l'AI, six mois avant nous.

Bryan : L'intelligence artificielle a été démocratisée… mais son ampleur est beaucoup plus grande. On a une fois de plus des intérêts politiques en jeu. Les Américains mènent la danse. Les Chinois, qu'on pensait en retard, ont lancé le très performant Deep Seek en janvier. Qu'est-ce que tout ça veut dire pour le futur ?

Francesco : Les Américains mènent le tir, les Chinois les suivent et l'Europe n'a aujourd'hui pas encore de capacité technique. Là se cache, à mon avis, un aspect très important, c'est qu'il y a un petit nombre de sociétés privées qui développent des modèles qui ne sont pas open source – c'est notamment le cas des grands acteurs américains – et dont on est tous utilisateurs. En fait, on utilise des black boxes et c'est un risque parce que finalement, on utilise une technologie qu'on ne maîtrise pas et dont on ne connaît pas le fonctionnement intérieur, même les inventeurs ne le connaissent pas. Avec les évolutions géopolitiques qu'on a vues, il y a un risque d'un jour avoir des limitations. Donc une banque, une société européenne qui doit aujourd'hui utiliser cette technologie pour son business, elle doit se poser la question : est-ce que c'est une technologie fiable que je peux utiliser avec la continuité nécessaire ? Il faut aussi dire que l'Europe commence aussi enfin à réagir. On voit l'initiative de lancer les AI factories. C'est un grand projet de l'Europe, mais aussi des gouvernements nationaux. Treize AI factories sont déjà lancées, dont une au Luxembourg. C'est très important.

Bryan : Une AI factory, c'est quoi exactement ?

Francesco : Une AI factory, c'est un centre de service qui va accompagner toutes les entreprises. On va en avoir une nouvelle au Luxembourg – la Meluxina AI. Elle permettra de travailler sur des modèles assez complexes, de faire du fine tuning, d'entraîner des modèles plus larges. Elle va ouvrir des nouvelles possibilités pour le Luxembourg et pour ceux en Europe qui l'utilisent.

Nicolas : Je pense qu'en Europe, on a quand même des atouts. Le principe des AI factories est arrivé il y a quelques mois et l'écosystème est là. On a des data centers, on a des super computers. On a entendu parler de la pénurie de cartes NVIDIA. Nous, on les a déjà dans nos data centers. On n'est pas impactés. On veut aller de l'avant, il y a une volonté politique qui est en train de s'affirmer. En termes de skills, on a les personnes, on a les centres de recherche. On constate que l'innovation vient souvent de l'autre côté de l'Atlantique et qu'on la récupère. Je pense que cette fois, avec ce qui est en train de s'activer, on a une opportunité d'être les front runners sur ce sujet parce qu'on a toutes les compétences. Le LIST a une centaine de data scientists, qui recherchent l'intelligence artificielle depuis longtemps. L'intelligence artificielle, c'est un sujet qui a plus de 70 ans. On a tous les fondamentaux pour avancer et ce n'est pas pour rien que le seul nouveau sujet en Europe est l'AI Act – et même cette réglementation n'est pas un frein à l'innovation. Elle vient juste en fait mettre des principes en place pour bien définir ce qu'on est en train de faire afin d'être sûr qu'on le fait de façon sécurisée.

Rachid : Oui, on constate qu'il y a une volonté européenne d'avancer sur le sujet de la recherche. Des investissements colossaux ont été faits ces derniers mois pour rattraper le retard qu'on a, que ce soit en technicité, en modèles ou en infrastructures. Le partenariat entre le gouvernement luxembourgeois et Mistral ainsi que ce qui se passe actuellement chez Meluxina vont donner un coup de boost énorme. Ça va nous apporter une certaine flexibilité pour passer à l'échelle en termes de l'utilisation de l'IA, en toute sécurité parce que le flux de données vient de chez nous.

Bryan : Parlons des data centers. Les Américains possèdent les trois quarts de la puissance de calcul du monde. Colossus, les plus gros data centers du monde, ont été créés par Elon Musk. Stargate, le projet annoncé par Donald Trump en début d’année, sera de la même ampleur… Chez eux, ça avance trois fois plus vite. On gère la complexité, comme vous venez de le dire, mais on a des années de retard. Surtout si on veut devenir souverains en ce qui concerne cette technologie…

Nicolas : Je pense que la solution n'est pas si simple que de dire qu'on est juste en retard et qu'il faut qu'on le rattrape. Je pense qu'on a déjà beaucoup de fondamentaux qui sont là, comme je le disais tout à l'heure, et qu'il faut exploiter. C'est de la gestion d'utilisation. Construire un nouveau data center juste pour ça, ce serait dire qu'on est arrivé au maximum de capacité d'exploitation des data centers qu'on a en Europe. Maintenant, le point sur la souveraineté… Quand un État prend une décision, il fait ses choix en raison. Dans un cas d'usage particulier, on pourrait utiliser de la puissance de calcul qui n'est pas en Europe, dans un temps transitoire. C'est aussi un choix souverain que de le faire. C'est juste que, si on n'a pas la capacité de le faire chez nous, on n'est plus vraiment souverain, parce qu'à priori, on n'a pas d’autre choix que d'aller ailleurs. Donc pour le coup, on n'est pas obligé d'égaler leur capacité. Il ne faut pas qu'on rentre dans des batailles comme ça. Je pense qu'il faut juste qu’on sache de quoi on a besoin comme puissance de calcul disponible pour l'évolution des prochains LLM.

Francesco Ferrero

Francesco : Pour moi, le problème, c'est l'indépendance stratégique. Je n'aime pas le terme souverain. Ce que tu dis est tout à fait vrai. Un autre problème, c'est que le peu de data centers qu'on vient de construire en Europe utilisent des puces américaines. Alors, il y aura bientôt des alternatives chinoises… Mais le problème, c’est si les data centers deviennent des infrastructures critiques. Ce qui est une réalité parce que l'intelligence artificielle devient tout doucement nécessaire pour tout faire. Pour la défense, par exemple. L'IA est-elle un facilitateur de certaines opérations de défense ? À moment donné il faut se demander si les Etats-Unis ou la Chine pourraient décider d'arrêter de nous fournir les puces qu'il nous faut – et je dis pas ça par hasard parce que le Luxembourg est déjà touché aujourd'hui. Une décision de l'administration Biden a mis le Luxembourg dans une liste de pays qui n'ont pas un accès illimité aux puces américaines. Selon moi, il est donc impératif de lancer des initiatives. Des boîtes intéressantes comme OpenChip proposent des alternatives européennes. Mais il faudra des investissements, il faudra faire maturer ces technologies, mais surtout, il faut tout faire pour être indépendants.

Bryan : Un autre problème, c'est la data disponible. J'aime bien l'analogie Apple. L'alimentation des modèles vit de la data. Google, Meta et Amazon se servent librement. Apple disent 'non, on n'utilise pas nos données pour alimenter les modèles' et… ils ne sont nulle part. Est-ce qu'en Europe avec la GDPR, avec la Data Privacy Law, on n'a pas un désavantage par rapport aux Américains ?

Francesco : Les grands modèles comme GPT4 sont entraînés sur des quantités de données tellement énormes que personne ne peut savoir exactement quelles données sont utilisées. Cela pose problème, car l’AI Act demande de contrôler les données utilisées alors qu'on sait que c'est techniquement impossible. L'autre problème, c'est que les modèles deviennent trop énormes. Mais est-ce qu'on a vraiment besoin de ça ? C'est une question philosophique. Je pense que ce paradigme-là est le paradigme gagnant dans la discussion sur l'intelligence artificielle d'aujourd'hui. On développe d'énormes modèles avec d'énormes masses de données dans le but de résoudre tous les problèmes. Selon moi, ce n'est pas le bon paradigme. Selon moi, il faut plutôt penser à des modèles plus petits, à des modèles spécialisés et à combiner des modèles petits et spécialisés entre eux. Ça résoudrait aussi le grand problème à venir, celui de la consommation énergétique pour l'intelligence artificielle. Parce que si on doit s'acheter des réacteurs nucléaires pour alimenter les data centers, si toutes les boîtes comme Microsoft et Google ont dû annoncer qu'ils n'arriveront pas à atteindre les objectifs climat qu'ils s'étaient donnés en 2025 à cause de l'IA, c'est qu'on a un problème. À un moment, il n'y aura pas assez d'énergie, pas assez d'eau, parce qu'il faut l'eau aussi pour refroidir les data centers, et on va devoir faire des choix compliqués. Donc je pense qu'il faut travailler sur ce qu'on appelle l'IA frugale, avec l'optique de minimiser la quantité de données dont on a besoin pour résoudre les problèmes.

"L'IA est plus qu'un buzz. C'est une réalité."

Rachid M'haouach, Chief Data Officer à la Spuerkeess

Rachid : La question des données privées, c'est une vraie question. Est-ce qu'on a vraiment besoin des gros modèles pour répondre à nos problèmes ? On voit aujourd'hui sur le terrain que dans la majorité des cas, on n'a besoin que d'un modèle de taille petite, voire moyenne. Au-delà de la quantité de données, ce qui est le plus pertinent, c'est la qualité de données. Si un modèle se base sur des données de mauvaises qualité, on a beau l'entraîner chez nous, ça ne rimera à rien. La réponse, au-delà de l'assignation, peut être majoritairement fausse, voire complètement fausse. Donc c'est la pertinence de la donnée par rapport à un use case qui compte. Au lieu d'utiliser l'ensemble des données pour l'ensemble des use cases, on analyse le cas d'usage et la problématique à résoudre pour savoir quelles données sont les plus pertinentes et qualitatives à utiliser. C'est un point très important.

Nicolas : Je pense qu'au-delà de ça, avoir la technologie et en faire quelque chose de frugal, c'est l'objectif. Après, je suis d'accord, ça doit être raffiné pour minimiser ce dont on a besoin. Si les voitures avaient commencé comme ça, on serait tous en bus. Maintenant, un des points qu'on n'a pas évoqués, c'est les compétences qui sont nécessaires pour déployer ces technologies dans une banque, par exemple. On n'est pas tous chercheurs, on n'a pas tous un PhD. Si à chaque fois il nous faut un PhD, on n'est pas sauvé. La majorité des gens n'ont pas de PhD, c'est un fait. Or on va avoir besoin des ressources qui ne seront pas forcément disponibles sur le marché. D'autant plus au Luxembourg. C'est inévitable. Il va falloir arriver à trouver ces compétences et des modèles d'éducation ou des modèles de déploiement où les gens arrivent à utiliser ces outils en toute sécurité, sans forcément comprendre in and out ce qu'il se passe. Ensuite, il y a la question de la culturation des gens qui vont utiliser ces outils. Car une fois de plus, on est dans le domaine public, il y a une compréhension des gens qui a été faite par eux-mêmes dans leur utilisation au quotidien. Ce qui n'est pas forcément en fait l'usage qu'on veut en faire dans les entreprises. La réalité, c'est qu'il y a un passage de connaissance à faire pour les générations d'après afin que les connaissances ne se perdent pas. Prenons un exemple concret. Si demain plus personne ne fait de KYC parce que c'est des machines qui le font, il faut quand même que les gens comprennent ce qui se passe et pourquoi on le fait. Ça va être un challenge.

Rachid : Ce que tu dis là, c'est un point essentiel. La culturation, ça concerne les entreprises à tous les niveaux. L'IA Act va dans ce sens aussi, faire en sorte que les utilisateurs soient conscients de ce qu'ils utilisent. Ça concerne donc aussi le board, à eux d'appuyer et de financer une stratégie. Nous, pour faire adopter l'IA aux différents utilisateurs, on a proposé aux différents services de designer un Champion AI ou un Data Citizen. Ces gens-là ont suivi une formation de quelques jours avec des exercices pratiques en Gen AI. Une fois qu'ils avaient compris ce qu'est l'AI, on leur a demandé comment elle pourrait les aider dans leurs travaux quotidiens – et on a reçu une cinquantaine de use case en quelques semaines. Ça montre que la culturation et la formation aident à l'adoption.

Francesco : Au LIST, pour pallier à ce problème, on est train de créer une plateforme complètement open source qui s'appelle Besser et qui permet de développer automatiquement des logiciels qui intègrent de l'intelligence artificielle, sans pour autant être des experts. Pour le moment, c'est plutôt une interface graphique, mais l'idée c'est vraiment de pouvoir dialoguer avec un chatbot, de lui dire ce dont on a besoin et d’obtenir le logiciel dont on a besoin.

Bryan : Donc même si ça nous permet d'améliorer les choses, il faudra toujours des experts pour superviser cette technologie. C'est un danger, car les gens vont avoir tendance à s'y fier à 100%. Quels sont les autres problèmes que vous observez ?

Francesco : Personnellement, je m'intéresse particulièrement au sujet du biais. On a fait un travail intitulé AI Sandbox qui vise à mesurer le biais des modèles d'intelligence artificielle, commercial ou open source, et dans toutes les langues. C'est un énorme sujet, parce que si un modèle est raciste ou homophobe, ça se reflète dans toutes ses réponses, ce qui est illégal dans le cadre de l'AI Act. La cybersécurité aussi est un grand sujet, surtout parce qu'il y une tendance de ce qu'on appelle le vibe coding dans le monde des experts, donc de développer du logiciel, du code avec les modèles. Ça crée du code qui est fragile, qui n'est pas sécurisé contre les attaques informatiques – et si on commence à intégrer ce code dans ses solutions, on s'expose à des attaques.

Nicolas : Un des risques, c'est de déployer du Gen AI pour déployer du Gen AI.

Bryan : C'est ce qu'on appelle l'AI washing ?

Nicolas : C'est ça. En fin de compte, ce qui est super important pour une entreprise, c'est d'évaluer ce que ça lui apporte vraiment parce que ça coûte de l'argent. Il faut acheter de l'infrastructure, il faut la développer. Puis, ça ne va pas forcément très vite. On constate que la plupart des projets IA sont en overrun par rapport à leur estimation. Pourquoi ? Parce que tout un écosystème est impacté et qu'on se rend parfois compte plus tard qu'il y avait des choses qu'on n'avait pas anticipé. On le fait pour préparer le future donc ça fait du sens, mais les premiers projets coûtent plus cher que prévu. Donc il est tout à fait essentiel de bien évaluer sa business case. Là où je veux en venir, c'est que si l'adoption ne se fait que sur cinq use cases, vous n'aurez pas fait la transformation nécessaire pour réellement adopter cette technologie. Le but final, ce n'est pas d'adopter la Gen AI, c'est de vous rendre plus efficace, de faire plus avec le même nombre de personnes. C'est un processus compliqué à exécuter. Donc un des dangers, c'est de ne pas en fait réfléchir à l'ambition qu'on se donne avec cette technologie-là. Et c'est vrai pour toutes les technologies.

Rachid M'haouach

Bryan : Pour finir, quelles sont les opportunités et les tendances observées. Certains parlent d'automatisation, de robots, de voitures autonomes… Selon vous, qu'est-ce qui est réalisable dans un horizon pas trop lointain ?

Rachid : On est parti de l'IA classique, puis on est passé à l'IA générative et maintenant on se dirige vers l'IA agentique. Des agents qui sont capables d'exécuter un certain nombre des tâches de manière complètement autonome. Pour ma part c'est ce que je vois venir dans un futur proche.

Bryan : Donc Siri, mais sous stéroïdes. Siri qui peut prendre rendez-vous pour toi chez le coiffeur ou prévenir ton patron que tu es malade. C'est ça ?

Rachid : C'est ça.

Nicolas : C'est par là qu'on va, oui, et ça va toucher tous les secteurs d'activité. Fondamentalement un processus de recherche et de développement ne regarde pas qu'une seule technologie, il améliore un process en continu. Donc évidemment tout le monde va essayer de voir comment cette technologie-là peut améliorer son processus. Cela dit, il y a un point important à considérer. Un agent, par définition, ça exécute un tâche. Comme tu l'as dit, c'est celui qui prend ton rendez-vous, qui prépare tes vacances, qui te résume tes mails. L'agentique, c'est des agents qui collaborent ensemble à un objectif commun. Tout ce qu'on a dit en termes de limitation – la causalité, le biais… – ne va faire qu'augmenter en mettant des agents ensemble. Vous avez peut-être vu des exemples sur YouTube d'agents qui parlent ensemble et qui débattent. Ils n'arrivent jamais à une fin, parce qu'ils ont toujours en fait un avis à donner. Ça, c'est un des aspects super importants qui n'est pas du tout technologique. C'est la gouvernance de ces agents. Comment vous allez gérer ça ? Comment vous allez vous assurer que l'interférence ne vienne pas changer le comportement d'un autre agent ? Surtout quand ils vont commencer à prendre des décisions qui sont importantes pour vous.

Rachid : Heureusement, l'AI Act n'autorise pas que les machines prenne des décisions seules, il y aura donc toujours une collaboration entre la machine et l'humain.