Dernières Infos

La superintelligence artificielle (ASI) : absurdité de science-fiction ou véritable menace pour l’humanité ?

Nos systèmes d’IA actuels pourraient un jour évoluer vers une entité superintelligente, mais les scientifiques ne savent pas encore exactement à quoi cela pourrait ressembler et quelles en seraient les implications.

Les progrès rapides de l’intelligence artificielle (IA) incitent les gens à s’interroger sur les limites fondamentales de cette technologie. De plus en plus, un sujet autrefois relégué à la science-fiction – la notion d’une IA superintelligente – est aujourd’hui envisagé sérieusement par les scientifiques et les experts.

L’idée que les machines puissent un jour égaler, voire dépasser, l’intelligence humaine ne date pas d’hier. Mais le rythme des progrès de l’IA au cours des dernières décennies a redonné de l’urgence à ce sujet, en particulier depuis la publication de puissants modèles de langage (LLM) par des entreprises comme OpenAI, Google et Anthropic, entre autres.

Les experts ont des avis très divergents sur la faisabilité de cette idée de « superintelligence artificielle » (ASI) et sur la date de son apparition, mais certains suggèrent que ces machines hypercapables sont à portée de main. Ce qui est certain, c’est que si et quand l’ASI apparaîtra, elle aura d’énormes implications pour l’avenir de l’humanité.

« Je pense que nous entrerions dans une nouvelle ère de découvertes scientifiques automatisées, de croissance économique considérablement accélérée, de longévité et d’expériences de divertissement inédites », a déclaré à Live Science Tim Rocktäschel, professeur d’IA à l’University College London et chercheur principal chez Google DeepMind, qui donne son opinion personnelle plutôt que la position officielle de Google DeepMind. Il a toutefois émis une mise en garde : « Comme pour toute technologie importante dans l’histoire, il existe un risque potentiel.

Qu’est-ce que la superintelligence artificielle (ASI) ?
Traditionnellement, la recherche sur l’IA s’est concentrée sur la reproduction de capacités spécifiques dont font preuve les êtres intelligents. Il s’agit notamment de la capacité d’analyser visuellement une scène, d’analyser le langage ou de naviguer dans un environnement. Dans certains de ces domaines étroits, l’IA a déjà atteint des performances surhumaines, a déclaré M. Rocktäschel, notamment dans des jeux comme le jeu de go et les échecs.

Toutefois, l’objectif global de l’IA a toujours été de reproduire la forme plus générale d’intelligence observée chez les animaux et les humains, qui combine plusieurs de ces capacités. Ce concept a reçu plusieurs noms au fil des ans, notamment « IA forte » ou « IA universelle », mais aujourd’hui il est plus communément appelé intelligence générale artificielle (AGI).

« Pendant longtemps, l’AGI a été une étoile polaire lointaine pour la recherche sur l’IA », a déclaré M. Rocktäschel. Cependant, avec l’avènement des modèles de fondation [autre terme pour les LLM], nous disposons désormais d’une IA capable de réussir un large éventail d’examens d’entrée à l’université et de participer à des concours internationaux de mathématiques et de codage ».

Cela amène les gens à prendre plus au sérieux la possibilité de l’AGI, a déclaré M. Rocktäschel. Et surtout, une fois que nous aurons créé une IA capable d’égaler les humains dans un large éventail de tâches, il ne faudra peut-être pas attendre longtemps avant qu’elle n’atteigne des capacités surhumaines dans tous les domaines. C’est en tout cas l’idée. « Une fois que l’IA aura atteint des capacités de niveau humain, nous serons en mesure de l’utiliser pour s’améliorer de manière autoréférentielle », a déclaré M. Rocktäschel. « Personnellement, je pense que si nous atteignons l’AGI, nous atteindrons l’ASI dans peu de temps, peut-être quelques années plus tard.

Une fois cette étape franchie, nous pourrions assister à ce que le mathématicien britannique Irving John Good a appelé en 1965 une « explosion de l’intelligence ». Selon lui, une fois que les machines seront suffisamment intelligentes pour s’améliorer elles-mêmes, elles atteindront rapidement des niveaux d’intelligence bien supérieurs à ceux de l’homme. Il a décrit la première machine ultra-intelligente comme « la dernière invention que l’homme devra jamais faire ».

Le célèbre futurologue Ray Kurzweil a affirmé que cela conduirait à une « singularité technologique » qui transformerait soudainement et irréversiblement la civilisation humaine. Ce terme fait le parallèle avec la singularité au cœur d’un trou noir, où notre compréhension de la physique s’effondre. De la même manière, l’avènement de l’ASI conduirait à une croissance technologique rapide et imprévisible qui dépasserait notre compréhension.

Le moment exact où une telle transition pourrait se produire est discutable. En 2005, Kurzweil a prédit que l’AGI apparaîtrait en 2029 et que la singularité suivrait en 2045, une prédiction à laquelle il s’est tenu depuis. D’autres experts de l’IA proposent des prévisions très variables, allant de cette décennie à jamais. Toutefois, une enquête récente menée auprès de 2 778 chercheurs en IA a révélé que, dans l’ensemble, ils estiment qu’il y a 50 % de chances que l’ASI apparaisse d’ici à 2047. Une analyse plus large a confirmé que la plupart des scientifiques s’accordent à dire que l’AGI pourrait arriver d’ici 2040.

Que signifierait l’ASI pour l’humanité ?
Les implications d’une technologie telle qu’ASI seraient énormes, incitant les scientifiques et les philosophes à consacrer un temps considérable à l’identification des promesses et des pièges potentiels pour l’humanité.

Du côté positif, une machine dotée d’une capacité d’intelligence presque illimitée pourrait résoudre certains des problèmes les plus urgents du monde, a déclaré Daniel Hulme, PDG des sociétés d’IA Satalia et Conscium. En particulier, les machines superintelligentes pourraient « supprimer les frictions liées à la création et à la diffusion de la nourriture, de l’éducation, des soins de santé, de l’énergie, des transports, à tel point que nous pourrions ramener le coût de ces biens à zéro », a-t-il déclaré à Live Science.

L’espoir est de libérer les gens de l’obligation de travailler pour survivre et de leur permettre de passer du temps à faire des choses qui les passionnent, a expliqué M. Hulme. Mais si des systèmes ne sont pas mis en place pour soutenir ceux dont les emplois sont supprimés par l’IA, l’issue pourrait être plus sombre. « Si cela se produit très rapidement, nos économies pourraient ne pas être en mesure de se rééquilibrer et cela pourrait conduire à des troubles sociaux », a-t-il déclaré.

Cela suppose également que nous puissions contrôler et diriger une entité beaucoup plus intelligente que nous, ce qui, selon de nombreux experts, est peu probable. « Je ne souscris pas vraiment à l’idée qu’elle veillera sur nous, qu’elle s’occupera de nous et qu’elle s’assurera que nous sommes heureux », a déclaré M. Hulme. « Je ne peux tout simplement pas imaginer qu’elle s’en préoccupe.

La possibilité d’une superintelligence sur laquelle nous n’aurions aucun contrôle a suscité la crainte que l’IA ne présente un risque existentiel pour notre espèce. C’est devenu un thème populaire dans la science-fiction, avec des films comme « Terminator » ou « Matrix », qui mettent en scène des machines malveillantes résolues à détruire l’humanité.

Mais le philosophe Nick Bostrom a souligné qu’une ASI n’aurait même pas besoin d’être activement hostile aux humains pour que les différents scénarios d’apocalypse se réalisent. Dans un article publié en 2012, il a suggéré que l’intelligence d’une entité est indépendante de ses objectifs, de sorte qu’une ASI pourrait avoir des motivations qui nous sont totalement étrangères et qui ne sont pas alignées sur le bien-être de l’homme.

Bostrom a développé cette idée avec une expérience de pensée dans laquelle une IA supercapable se voit confier la tâche apparemment inoffensive de produire autant de trombones que possible. Si elle n’est pas alignée sur les valeurs humaines, elle peut décider d’éliminer tous les humains pour les empêcher de l’éteindre, ou de transformer tous les atomes de leur corps en davantage de trombones.

Rocktäschel est plus optimiste. « Nous construisons les systèmes d’IA actuels pour qu’ils soient utiles, mais aussi inoffensifs et des assistants honnêtes de par leur conception », a-t-il déclaré. « Ils sont réglés pour suivre les instructions humaines et sont formés en fonction du retour d’information afin de fournir des réponses utiles, inoffensives et honnêtes.

Bien que Rocktäschel admette que ces mesures de protection peuvent être contournées, il est convaincu que nous développerons de meilleures approches à l’avenir. Il pense également qu’il sera possible d’utiliser l’IA pour superviser d’autres IA, même si elles sont plus fortes.

M. Hulme estime que la plupart des approches actuelles en matière d’« alignement des modèles », c’est-à-dire les efforts visant à garantir que l’IA soit alignée sur les valeurs et les désirs humains, sont trop rudimentaires. En règle générale, elles fournissent des règles sur la manière dont le modèle doit se comporter ou l’entraînent à partir d’exemples de comportement humain. Mais il pense que ces garde-fous, qui sont fixés à la fin du processus de formation, pourraient être facilement contournés par l’ASI.

Au lieu de cela, Hulme pense que nous devons construire une IA dotée d’un « instinct moral ». Sa société Conscium tente d’y parvenir en faisant évoluer l’IA dans des environnements virtuels qui ont été conçus pour récompenser des comportements tels que la coopération et l’altruisme. Pour l’instant, l’entreprise travaille avec une IA très simple, de niveau « insecte », mais si l’approche peut être mise à l’échelle, elle pourrait rendre l’alignement plus robuste. « Intégrer la morale dans l’instinct d’une IA nous place dans une position beaucoup plus sûre que de simples garde-fous à la Whack-a-Mole », a déclaré M. Hulme.

Cependant, tout le monde n’est pas convaincu qu’il faille commencer à s’inquiéter tout de suite. Une critique courante du concept d’ASI, a déclaré Rocktäschel, est que nous n’avons pas d’exemples d’êtres humains qui soient hautement capables d’accomplir un large éventail de tâches, et qu’il n’est donc peut-être pas possible d’atteindre cet objectif dans un modèle unique. Une autre objection est que les ressources informatiques requises pour réaliser l’ASI peuvent être prohibitives.

Plus concrètement, la façon dont nous mesurons les progrès de l’IA peut nous induire en erreur quant à la proximité de la superintelligence, a déclaré Alexander Ilic, directeur de l’ETH AI Center à l’ETH Zurich, en Suisse. La plupart des résultats impressionnants obtenus ces dernières années dans le domaine de l’IA sont le fruit de tests très artificiels portant sur des compétences individuelles telles que le codage, le raisonnement ou la compréhension du langage, que les systèmes sont explicitement entraînés à réussir, a déclaré M. Ilic.

Il compare cela au bachotage pour les examens à l’école. « Vous chargez votre cerveau pour le faire, puis vous passez l’examen et vous l’oubliez complètement », a-t-il déclaré. « Vous avez été plus intelligent en assistant au cours, mais l’examen lui-même n’est pas un bon indicateur des connaissances réelles.

L’IA capable de réussir bon nombre de ces tests à des niveaux surhumains n’est peut-être qu’à quelques années de distance, a déclaré M. Ilic. Mais il pense que l’approche dominante d’aujourd’hui ne conduira pas à des modèles capables d’effectuer des tâches utiles dans le monde physique ou de collaborer efficacement avec les humains, ce qui sera crucial pour qu’ils aient un large impact dans le monde réel.

Adaptation Terra Projects

Source : https://www.livescience.com/

(0)

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.