Les larges modèles de langage (LLM, large language models), mis en lumière avec ChatGPT, ont redéfini le paysage contemporain de l’intelligence artificielle, en concentrant autour de leur développement tous les espoirs de la discipline. La production automatisée et très convaincante d’écrits, mais également d’images, de vidéos, de musiques n’a pas tardé à provoquer une réelle sidération collective, mêlant espoirs fantasmatiques, critiques alarmistes et appels à la raison.
Les vieux routiers de l’informatique, particulièrement ceux ayant connu l’hiver de l’IA des années 1990, ont vécu cet emballement avec le flegme des grands frères regardant leurs cadets dans une boum s’enivrer de champomy. Ces modèles sont fascinants et ouvrent nombre de perspectives inédites, mais ils ne seront pas la solution universelle à tous les problèmes que nous n’avons pas su résoudre avec des moyens informatiques jusqu’à aujourd’hui.
La vectorisation de notre langage est bien parvenue à capter, avec une profondeur inédite, la texture du véhicule de notre pensée. La résolution de cette texture demeure toutefois tributaire des limites intrinsèques au formalisme mathématique, statistique et probabiliste des diverses techniques algorithmiques employées. La profondeur de cette même texture se limite également à capturer les liens entre les expressions linguistiques, sans atteindre ni révéler la part substantielle des mécanismes sous-jacents de notre intelligence. Autrement dit, la modélisation de notre langage a permis d’en découvrir les constantes formelles, mais sans révéler le coeur des mécanismes les plus profond caractérisant notre intelligence : le raisonnement et la planification. Tout comme il lui manque également une mémoire persistante et l’accès à une bonne représentation du monde. La main de l’intelligence artificielle générative est donc guidée, lorsqu’elle produit un contenu, par la seule obligation d’enchaîner de mots et de phrases se succédant de manière probable et non par le fil d’une pensée synthétique.
La langue que nous apprenons à pratiquer lors des conversations avec nos machines n’est donc, en réalité, ni l’anglais, ni le français, ni aucune autre des langues parlées dans le monde. Il s’agit d’une langue que nous apprenons à pratiquer, sans le savoir, à longueur d’invites (de prompts), en nous adaptant aux contraintes de la machine : cette langue, c’est la langue des probables. Elle est, tel un proto-langage, une langue universelle composée de morceaux de mots ou de phrases vectorisés (les tokens) et manipulée au travers du tamis des larges modèles de langage. L’essence de cette langue ne nous est pas directement accessible, ni perceptible dans le fatras des liens bâtis par les réseaux de neurones profonds. Mais c’est bien celle que nous pratiquons en développant des stratégies et des procédures pour rédiger des invites corsetant la machine pour qu’elle réponde à nos intentions et éviter qu’elle ne dérive.
La puissance de cette langue tient à sa capacité, inédite dans l’histoire humaine, d’être calculable, et donc manipulable à l’envi par des systèmes de traitement de l’information dont les performances n’ont cessé de s’améliorer durant les dernières décennies. Dans le même temps, cette langue est encore loin d’être totalement optimisée, la puissance de calcul et l’énergie encore nécessaires pour des tâches très simples étant infiniment supérieures à d’autres modalités informatiques. Le chemin paraît encore long à parcourir pour la recherche quand l’on connaît la très basse consommation électrique de notre propre cerveau, pour effectuer des tâches bien plus complexes.
La langue des probables sera donc appelée à évoluer… et très probablement à disparaître. La sophistication extrême des approches computationnelles ou connexionnistes pour simuler notre cognition se rapprochent déjà d’un plafond. Et même si l’on parvient à le rehausser un peu, d’autres méthodes apparaîtront inéluctablement avec des changements profonds de paradigmes, comme avec l’émergence d’une informatique quantique exploitable à grande échelle. En attendant, riches de réalisations déjà extraordinaires, tâchons de ne pas faire replonger ce que nous qualifions « d’IA » dans un nouvel hiver, en surestimant de trop leurs capacités… la perte de confiance qui pourrait en résulter conduirait à rater les réelles opportunités qui nous sont déjà et très concrètement offertes.
Magistrat et maître de conférences associé à l’université de Strasbourg
Auteur des ouvrages « L’intelligence artificielle en procès » (Bruylant) et « IA générative et professionnels du droit » (LexisNexis)
Les opinions exprimées n’engagent que son auteur.