Dernières Infos

Pourquoi l’IA semble-t-elle si humaine si elle n’est qu’une « calculatrice de mots » ?

Tang Yu, une femme robot, est devenue la PDG de l'entreprise Netdragon Websoft, l'un des leader chinois du jeu vidéo. (NETDRAGON WEBSOFT / CAPTURE ÉCRAN)

Les tentatives visant à communiquer ce qu’est l’intelligence artificielle générative (IA) et ce qu’elle fait ont produit une gamme de métaphores et d’analogies.

D’une « boîte noire » à une « saisie semi-automatique sous stéroïdes », en passant par un « perroquet » et même une paire de « baskets », l’objectif est de rendre accessible la compréhension d’une technologie complexe en la fondant sur des expériences quotidiennes – même si la comparaison qui en résulte est souvent trop simplifiée ou trompeuse.

Une analogie de plus en plus répandue décrit l’IA générative comme une « calculatrice de mots ». Popularisée en partie par le directeur général d’OpenAI, Sam Altman , cette comparaison suggère que, tout comme les objets en plastique que nous utilisons pour traiter les nombres en cours de mathématiques, les outils d’IA générative ont pour objectif de nous aider à traiter de grandes quantités de données linguistiques.

L’analogie avec la calculatrice a été critiquée à juste titre , car elle peut occulter les aspects les plus problématiques de l’IA générative. Contrairement aux chatbots, les calculatrices ne présentent pas de biais intrinsèques, ne commettent pas d’erreurs et ne posent pas de dilemmes éthiques fondamentaux.

Il y a cependant un danger à rejeter complètement cette analogie, étant donné qu’à la base, les outils d’IA générative sont des calculateurs de mots.

Ce qui compte, cependant, n’est pas l’objet lui-même, mais la pratique du calcul. Or, les calculs des outils d’IA générative sont conçus pour imiter ceux qui sous-tendent l’usage quotidien du langage humain.

Les langues ont des statistiques cachées
La plupart des utilisateurs de langues ne sont qu’indirectement conscients de la mesure dans laquelle leurs interactions sont le produit de calculs statistiques.

Pensez, par exemple, à la gêne d’entendre quelqu’un dire « poivre et sel » plutôt que « sel et poivre ». Ou au regard étrange que vous susciteriez si vous commandiez « thé puissant » plutôt que « thé fort » dans un café.

Les règles qui régissent la manière dont nous sélectionnons et ordonnons les mots, et bien d’autres séquences linguistiques, découlent de la fréquence de nos interactions sociales avec eux. Plus on entend une phrase prononcée d’une certaine manière, moins toute alternative paraîtra viable. Ou plutôt, moins toute autre séquence calculée paraîtra plausible.

En linguistique, vaste discipline consacrée à l’étude du langage, ces séquences sont appelées « collocations ». Elles ne sont qu’un des nombreux phénomènes qui montrent comment les humains calculent des structures de mots multiples selon qu’elles leur semblent justes, qu’elles sonnent de manière appropriée, naturelle et humaine.

Pourquoi les résultats des chatbots « semblent corrects »
L’une des principales réussites des grands modèles de langage (LLM) – et donc des chatbots – est qu’ils ont réussi à formaliser ce facteur « se sentir bien » d’une manière qui trompe désormais avec succès l’intuition humaine.

En fait, ils font partie des systèmes de collocation les plus puissants au monde.

En calculant les dépendances statistiques entre les jetons (qu’il s’agisse de mots, de symboles ou de points de couleur) à l’intérieur d’un espace abstrait qui cartographie leurs significations et leurs relations, l’IA produit des séquences qui, à ce stade, non seulement passent pour humaines dans le test de Turing , mais peut-être plus troublant encore, peuvent amener les utilisateurs à tomber amoureux d’elles.

L’une des principales raisons expliquant la possibilité de ces développements réside dans les racines linguistiques de l’IA générative, souvent enfouies dans le récit du développement de cette technologie. Or, les outils d’IA sont autant issus de l’informatique que de différentes branches de la linguistique.

Les ancêtres des LLM contemporains tels que GPT-5 et Gemini sont les outils de traduction automatique de l’époque de la Guerre froide, conçus pour traduire le russe en anglais. Cependant, avec le développement de la linguistique sous des figures comme Noam Chomsky , l’objectif de ces machines est passé de la simple traduction au décodage des principes du traitement du langage naturel (c’est-à-dire humain) .

Le processus de développement du LLM s’est déroulé par étapes, en commençant par des tentatives de mécanisation des « règles » (comme la grammaire) des langues, en passant par des approches statistiques qui mesuraient les fréquences des séquences de mots sur la base d’ensembles de données limités, et jusqu’aux modèles actuels qui utilisent des réseaux neuronaux pour générer un langage fluide.

Cependant, la pratique sous-jacente du calcul des probabilités est restée la même. Bien que l’échelle et la forme aient considérablement changé, les outils d’IA contemporains restent des systèmes statistiques de reconnaissance de formes.

Ils sont conçus pour calculer notre « langage » à propos de phénomènes tels que la connaissance, le comportement ou les émotions, sans accès direct à ces éléments. Si vous demandez à un chatbot comme ChatGPT de vous « révéler » ce fait, il s’exécutera sans hésiter.

L’IA ne fait que calculer
Alors pourquoi ne le reconnaissons-nous pas facilement ?

L’une des principales raisons réside dans la manière dont les entreprises décrivent et nomment les pratiques des outils d’IA générative. Au lieu de « calculer », les outils d’IA générative « pensent », « raisonnent », « cherchent » ou même « rêvent ».

L’implication est qu’en déchiffrant l’équation de la façon dont les humains utilisent les modèles linguistiques, l’IA générative a eu accès aux valeurs que nous transmettons via le langage.

Mais du moins pour l’instant, ce n’est pas le cas.

Il peut calculer que « je » et « tu » sont plus susceptibles de correspondre à « amour », mais ce n’est ni un « je » (ce n’est pas une personne), ni ne comprend « amour », ni, d’ailleurs, vous – l’utilisateur qui écrit les invites.

L’IA générative ne fait que calculer. Et il ne faut pas la confondre avec autre chose.La conversation

Eldin Milak , maître de conférences, École des médias, des arts créatifs et de la recherche sociale, Université Curtin

Adaptation Terra Projects

Source : https://www.sciencealert.com/

(0)

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.