{"id":26868,"date":"2025-05-04T12:00:58","date_gmt":"2025-05-04T10:00:58","guid":{"rendered":"https:\/\/www.laterredufutur.com\/accueil\/?p=26868"},"modified":"2025-04-29T13:10:27","modified_gmt":"2025-04-29T11:10:27","slug":"la-superintelligence-artificielle-asi-absurdite-de-science-fiction-ou-veritable-menace-pour-lhumanite","status":"publish","type":"post","link":"https:\/\/www.laterredufutur.com\/accueil\/la-superintelligence-artificielle-asi-absurdite-de-science-fiction-ou-veritable-menace-pour-lhumanite\/","title":{"rendered":"La superintelligence artificielle (ASI) : absurdit\u00e9 de science-fiction ou v\u00e9ritable menace pour l&rsquo;humanit\u00e9 ?"},"content":{"rendered":"<div class=\"1665f18d14f35dd9e7566e1a8ac9a3e9\" data-index=\"1\" style=\"float: none; margin:10px 0 10px 0; text-align:center;\">\n<script async src=\"https:\/\/pagead2.googlesyndication.com\/pagead\/js\/adsbygoogle.js\"><\/script>\r\n<ins class=\"adsbygoogle\"\r\n     style=\"display:block; text-align:center;\"\r\n     data-ad-layout=\"in-article\"\r\n     data-ad-format=\"fluid\"\r\n     data-ad-client=\"ca-pub-2860849627502538\"\r\n     data-ad-slot=\"3019501113\"><\/ins>\r\n<script>\r\n     (adsbygoogle = window.adsbygoogle || []).push({});\r\n<\/script>\n<\/div>\n<p>Nos syst\u00e8mes d&rsquo;IA actuels pourraient un jour \u00e9voluer vers une entit\u00e9 superintelligente, mais les scientifiques ne savent pas encore exactement \u00e0 quoi cela pourrait ressembler et quelles en seraient les implications.<\/p>\n<p>Les progr\u00e8s rapides de l&rsquo;intelligence artificielle (IA) incitent les gens \u00e0 s&rsquo;interroger sur les limites fondamentales de cette technologie. De plus en plus, un sujet autrefois rel\u00e9gu\u00e9 \u00e0 la science-fiction &#8211; la notion d&rsquo;une IA superintelligente &#8211; est aujourd&rsquo;hui envisag\u00e9 s\u00e9rieusement par les scientifiques et les experts.<\/p>\n<p>L&rsquo;id\u00e9e que les machines puissent un jour \u00e9galer, voire d\u00e9passer, l&rsquo;intelligence humaine ne date pas d&rsquo;hier. Mais le rythme des progr\u00e8s de l&rsquo;IA au cours des derni\u00e8res d\u00e9cennies a redonn\u00e9 de l&rsquo;urgence \u00e0 ce sujet, en particulier depuis la publication de puissants mod\u00e8les de langage (LLM) par des entreprises comme OpenAI, Google et Anthropic, entre autres.<\/p>\n<p>Les experts ont des avis tr\u00e8s divergents sur la faisabilit\u00e9 de cette id\u00e9e de \u00ab superintelligence artificielle \u00bb (ASI) et sur la date de son apparition, mais certains sugg\u00e8rent que ces machines hypercapables sont \u00e0 port\u00e9e de main. Ce qui est certain, c&rsquo;est que si et quand l&rsquo;ASI appara\u00eetra, elle aura d&rsquo;\u00e9normes implications pour l&rsquo;avenir de l&rsquo;humanit\u00e9.<\/p>\n<p>\u00ab Je pense que nous entrerions dans une nouvelle \u00e8re de d\u00e9couvertes scientifiques automatis\u00e9es, de croissance \u00e9conomique consid\u00e9rablement acc\u00e9l\u00e9r\u00e9e, de long\u00e9vit\u00e9 et d&rsquo;exp\u00e9riences de divertissement in\u00e9dites \u00bb, a d\u00e9clar\u00e9 \u00e0 Live Science Tim Rockt\u00e4schel, professeur d&rsquo;IA \u00e0 l&rsquo;University College London et chercheur principal chez Google DeepMind, qui donne son opinion personnelle plut\u00f4t que la position officielle de Google DeepMind. Il a toutefois \u00e9mis une mise en garde : \u00ab Comme pour toute technologie importante dans l&rsquo;histoire, il existe un risque potentiel.<\/p>\n<p>Qu&rsquo;est-ce que la superintelligence artificielle (ASI) ?<br \/>\nTraditionnellement, la recherche sur l&rsquo;IA s&rsquo;est concentr\u00e9e sur la reproduction de capacit\u00e9s sp\u00e9cifiques dont font preuve les \u00eatres intelligents. Il s&rsquo;agit notamment de la capacit\u00e9 d&rsquo;analyser visuellement une sc\u00e8ne, d&rsquo;analyser le langage ou de naviguer dans un environnement. Dans certains de ces domaines \u00e9troits, l&rsquo;IA a d\u00e9j\u00e0 atteint des performances surhumaines, a d\u00e9clar\u00e9 M. Rockt\u00e4schel, notamment dans des jeux comme le jeu de go et les \u00e9checs.<\/p>\n<p>Toutefois, l&rsquo;objectif global de l&rsquo;IA a toujours \u00e9t\u00e9 de reproduire la forme plus g\u00e9n\u00e9rale d&rsquo;intelligence observ\u00e9e chez les animaux et les humains, qui combine plusieurs de ces capacit\u00e9s. Ce concept a re\u00e7u plusieurs noms au fil des ans, notamment \u00ab IA forte \u00bb ou \u00ab IA universelle \u00bb, mais aujourd&rsquo;hui il est plus commun\u00e9ment appel\u00e9 intelligence g\u00e9n\u00e9rale artificielle (AGI).<\/p>\n<p>\u00ab Pendant longtemps, l&rsquo;AGI a \u00e9t\u00e9 une \u00e9toile polaire lointaine pour la recherche sur l&rsquo;IA \u00bb, a d\u00e9clar\u00e9 M. Rockt\u00e4schel. Cependant, avec l&rsquo;av\u00e8nement des mod\u00e8les de fondation [autre terme pour les LLM], nous disposons d\u00e9sormais d&rsquo;une IA capable de r\u00e9ussir un large \u00e9ventail d&rsquo;examens d&rsquo;entr\u00e9e \u00e0 l&rsquo;universit\u00e9 et de participer \u00e0 des concours internationaux de math\u00e9matiques et de codage \u00bb.<\/p>\n<p>Cela am\u00e8ne les gens \u00e0 prendre plus au s\u00e9rieux la possibilit\u00e9 de l&rsquo;AGI, a d\u00e9clar\u00e9 M. Rockt\u00e4schel. Et surtout, une fois que nous aurons cr\u00e9\u00e9 une IA capable d&rsquo;\u00e9galer les humains dans un large \u00e9ventail de t\u00e2ches, il ne faudra peut-\u00eatre pas attendre longtemps avant qu&rsquo;elle n&rsquo;atteigne des capacit\u00e9s surhumaines dans tous les domaines. C&rsquo;est en tout cas l&rsquo;id\u00e9e. \u00ab Une fois que l&rsquo;IA aura atteint des capacit\u00e9s de niveau humain, nous serons en mesure de l&rsquo;utiliser pour s&rsquo;am\u00e9liorer de mani\u00e8re autor\u00e9f\u00e9rentielle \u00bb, a d\u00e9clar\u00e9 M. Rockt\u00e4schel. \u00ab Personnellement, je pense que si nous atteignons l&rsquo;AGI, nous atteindrons l&rsquo;ASI dans peu de temps, peut-\u00eatre quelques ann\u00e9es plus tard.<\/p>\n<p>Une fois cette \u00e9tape franchie, nous pourrions assister \u00e0 ce que le math\u00e9maticien britannique Irving John Good a appel\u00e9 en 1965 une \u00ab explosion de l&rsquo;intelligence \u00bb. Selon lui, une fois que les machines seront suffisamment intelligentes pour s&rsquo;am\u00e9liorer elles-m\u00eames, elles atteindront rapidement des niveaux d&rsquo;intelligence bien sup\u00e9rieurs \u00e0 ceux de l&rsquo;homme. Il a d\u00e9crit la premi\u00e8re machine ultra-intelligente comme \u00ab la derni\u00e8re invention que l&rsquo;homme devra jamais faire \u00bb.<\/p>\n<p>Le c\u00e9l\u00e8bre futurologue Ray Kurzweil a affirm\u00e9 que cela conduirait \u00e0 une \u00ab singularit\u00e9 technologique \u00bb qui transformerait soudainement et irr\u00e9versiblement la civilisation humaine. Ce terme fait le parall\u00e8le avec la singularit\u00e9 au c\u0153ur d&rsquo;un trou noir, o\u00f9 notre compr\u00e9hension de la physique s&rsquo;effondre. De la m\u00eame mani\u00e8re, l&rsquo;av\u00e8nement de l&rsquo;ASI conduirait \u00e0 une croissance technologique rapide et impr\u00e9visible qui d\u00e9passerait notre compr\u00e9hension.<\/p>\n<p>Le moment exact o\u00f9 une telle transition pourrait se produire est discutable. En 2005, Kurzweil a pr\u00e9dit que l&rsquo;AGI appara\u00eetrait en 2029 et que la singularit\u00e9 suivrait en 2045, une pr\u00e9diction \u00e0 laquelle il s&rsquo;est tenu depuis. D&rsquo;autres experts de l&rsquo;IA proposent des pr\u00e9visions tr\u00e8s variables, allant de cette d\u00e9cennie \u00e0 jamais. Toutefois, une enqu\u00eate r\u00e9cente men\u00e9e aupr\u00e8s de 2 778 chercheurs en IA a r\u00e9v\u00e9l\u00e9 que, dans l&rsquo;ensemble, ils estiment qu&rsquo;il y a 50 % de chances que l&rsquo;ASI apparaisse d&rsquo;ici \u00e0 2047. Une analyse plus large a confirm\u00e9 que la plupart des scientifiques s&rsquo;accordent \u00e0 dire que l&rsquo;AGI pourrait arriver d&rsquo;ici 2040.<\/p>\n<p>Que signifierait l&rsquo;ASI pour l&rsquo;humanit\u00e9 ?<br \/>\nLes implications d&rsquo;une technologie telle qu&rsquo;ASI seraient \u00e9normes, incitant les scientifiques et les philosophes \u00e0 consacrer un temps consid\u00e9rable \u00e0 l&rsquo;identification des promesses et des pi\u00e8ges potentiels pour l&rsquo;humanit\u00e9.<\/p>\n<p>Du c\u00f4t\u00e9 positif, une machine dot\u00e9e d&rsquo;une capacit\u00e9 d&rsquo;intelligence presque illimit\u00e9e pourrait r\u00e9soudre certains des probl\u00e8mes les plus urgents du monde, a d\u00e9clar\u00e9 Daniel Hulme, PDG des soci\u00e9t\u00e9s d&rsquo;IA Satalia et Conscium. En particulier, les machines superintelligentes pourraient \u00ab supprimer les frictions li\u00e9es \u00e0 la cr\u00e9ation et \u00e0 la diffusion de la nourriture, de l&rsquo;\u00e9ducation, des soins de sant\u00e9, de l&rsquo;\u00e9nergie, des transports, \u00e0 tel point que nous pourrions ramener le co\u00fbt de ces biens \u00e0 z\u00e9ro \u00bb, a-t-il d\u00e9clar\u00e9 \u00e0 Live Science.<\/p><div class=\"1665f18d14f35dd9e7566e1a8ac9a3e9\" data-index=\"2\" style=\"float: none; margin:10px 0 10px 0; text-align:center;\">\n<script async src=\"https:\/\/pagead2.googlesyndication.com\/pagead\/js\/adsbygoogle.js\"><\/script>\r\n<ins class=\"adsbygoogle\"\r\n     style=\"display:block; text-align:center;\"\r\n     data-ad-layout=\"in-article\"\r\n     data-ad-format=\"fluid\"\r\n     data-ad-client=\"ca-pub-2860849627502538\"\r\n     data-ad-slot=\"3019501113\"><\/ins>\r\n<script>\r\n     (adsbygoogle = window.adsbygoogle || []).push({});\r\n<\/script>\n<\/div>\n\n<p>L&rsquo;espoir est de lib\u00e9rer les gens de l&rsquo;obligation de travailler pour survivre et de leur permettre de passer du temps \u00e0 faire des choses qui les passionnent, a expliqu\u00e9 M. Hulme. Mais si des syst\u00e8mes ne sont pas mis en place pour soutenir ceux dont les emplois sont supprim\u00e9s par l&rsquo;IA, l&rsquo;issue pourrait \u00eatre plus sombre. \u00ab Si cela se produit tr\u00e8s rapidement, nos \u00e9conomies pourraient ne pas \u00eatre en mesure de se r\u00e9\u00e9quilibrer et cela pourrait conduire \u00e0 des troubles sociaux \u00bb, a-t-il d\u00e9clar\u00e9.<\/p>\n<p>Cela suppose \u00e9galement que nous puissions contr\u00f4ler et diriger une entit\u00e9 beaucoup plus intelligente que nous, ce qui, selon de nombreux experts, est peu probable. \u00ab Je ne souscris pas vraiment \u00e0 l&rsquo;id\u00e9e qu&rsquo;elle veillera sur nous, qu&rsquo;elle s&rsquo;occupera de nous et qu&rsquo;elle s&rsquo;assurera que nous sommes heureux \u00bb, a d\u00e9clar\u00e9 M. Hulme. \u00ab Je ne peux tout simplement pas imaginer qu&rsquo;elle s&rsquo;en pr\u00e9occupe.<\/p>\n<p>La possibilit\u00e9 d&rsquo;une superintelligence sur laquelle nous n&rsquo;aurions aucun contr\u00f4le a suscit\u00e9 la crainte que l&rsquo;IA ne pr\u00e9sente un risque existentiel pour notre esp\u00e8ce. C&rsquo;est devenu un th\u00e8me populaire dans la science-fiction, avec des films comme \u00ab Terminator \u00bb ou \u00ab Matrix \u00bb, qui mettent en sc\u00e8ne des machines malveillantes r\u00e9solues \u00e0 d\u00e9truire l&rsquo;humanit\u00e9.<\/p>\n<p>Mais le philosophe Nick Bostrom a soulign\u00e9 qu&rsquo;une ASI n&rsquo;aurait m\u00eame pas besoin d&rsquo;\u00eatre activement hostile aux humains pour que les diff\u00e9rents sc\u00e9narios d&rsquo;apocalypse se r\u00e9alisent. Dans un article publi\u00e9 en 2012, il a sugg\u00e9r\u00e9 que l&rsquo;intelligence d&rsquo;une entit\u00e9 est ind\u00e9pendante de ses objectifs, de sorte qu&rsquo;une ASI pourrait avoir des motivations qui nous sont totalement \u00e9trang\u00e8res et qui ne sont pas align\u00e9es sur le bien-\u00eatre de l&rsquo;homme.<\/p>\n<p>Bostrom a d\u00e9velopp\u00e9 cette id\u00e9e avec une exp\u00e9rience de pens\u00e9e dans laquelle une IA supercapable se voit confier la t\u00e2che apparemment inoffensive de produire autant de trombones que possible. Si elle n&rsquo;est pas align\u00e9e sur les valeurs humaines, elle peut d\u00e9cider d&rsquo;\u00e9liminer tous les humains pour les emp\u00eacher de l&rsquo;\u00e9teindre, ou de transformer tous les atomes de leur corps en davantage de trombones.<\/p>\n<p>Rockt\u00e4schel est plus optimiste. \u00ab Nous construisons les syst\u00e8mes d&rsquo;IA actuels pour qu&rsquo;ils soient utiles, mais aussi inoffensifs et des assistants honn\u00eates de par leur conception \u00bb, a-t-il d\u00e9clar\u00e9. \u00ab Ils sont r\u00e9gl\u00e9s pour suivre les instructions humaines et sont form\u00e9s en fonction du retour d&rsquo;information afin de fournir des r\u00e9ponses utiles, inoffensives et honn\u00eates.<\/p>\n<p>Bien que Rockt\u00e4schel admette que ces mesures de protection peuvent \u00eatre contourn\u00e9es, il est convaincu que nous d\u00e9velopperons de meilleures approches \u00e0 l&rsquo;avenir. Il pense \u00e9galement qu&rsquo;il sera possible d&rsquo;utiliser l&rsquo;IA pour superviser d&rsquo;autres IA, m\u00eame si elles sont plus fortes.<\/p>\n<p>M. Hulme estime que la plupart des approches actuelles en mati\u00e8re d&rsquo;\u00ab alignement des mod\u00e8les \u00bb, c&rsquo;est-\u00e0-dire les efforts visant \u00e0 garantir que l&rsquo;IA soit align\u00e9e sur les valeurs et les d\u00e9sirs humains, sont trop rudimentaires. En r\u00e8gle g\u00e9n\u00e9rale, elles fournissent des r\u00e8gles sur la mani\u00e8re dont le mod\u00e8le doit se comporter ou l&rsquo;entra\u00eenent \u00e0 partir d&rsquo;exemples de comportement humain. Mais il pense que ces garde-fous, qui sont fix\u00e9s \u00e0 la fin du processus de formation, pourraient \u00eatre facilement contourn\u00e9s par l&rsquo;ASI.<\/p>\n<p>Au lieu de cela, Hulme pense que nous devons construire une IA dot\u00e9e d&rsquo;un \u00ab instinct moral \u00bb. Sa soci\u00e9t\u00e9 Conscium tente d&rsquo;y parvenir en faisant \u00e9voluer l&rsquo;IA dans des environnements virtuels qui ont \u00e9t\u00e9 con\u00e7us pour r\u00e9compenser des comportements tels que la coop\u00e9ration et l&rsquo;altruisme. Pour l&rsquo;instant, l&rsquo;entreprise travaille avec une IA tr\u00e8s simple, de niveau \u00ab insecte \u00bb, mais si l&rsquo;approche peut \u00eatre mise \u00e0 l&rsquo;\u00e9chelle, elle pourrait rendre l&rsquo;alignement plus robuste. \u00ab Int\u00e9grer la morale dans l&rsquo;instinct d&rsquo;une IA nous place dans une position beaucoup plus s\u00fbre que de simples garde-fous \u00e0 la Whack-a-Mole \u00bb, a d\u00e9clar\u00e9 M. Hulme.<\/p>\n<p>Cependant, tout le monde n&rsquo;est pas convaincu qu&rsquo;il faille commencer \u00e0 s&rsquo;inqui\u00e9ter tout de suite. Une critique courante du concept d&rsquo;ASI, a d\u00e9clar\u00e9 Rockt\u00e4schel, est que nous n&rsquo;avons pas d&rsquo;exemples d&rsquo;\u00eatres humains qui soient hautement capables d&rsquo;accomplir un large \u00e9ventail de t\u00e2ches, et qu&rsquo;il n&rsquo;est donc peut-\u00eatre pas possible d&rsquo;atteindre cet objectif dans un mod\u00e8le unique. Une autre objection est que les ressources informatiques requises pour r\u00e9aliser l&rsquo;ASI peuvent \u00eatre prohibitives.<\/p>\n<p>Plus concr\u00e8tement, la fa\u00e7on dont nous mesurons les progr\u00e8s de l&rsquo;IA peut nous induire en erreur quant \u00e0 la proximit\u00e9 de la superintelligence, a d\u00e9clar\u00e9 Alexander Ilic, directeur de l&rsquo;ETH AI Center \u00e0 l&rsquo;ETH Zurich, en Suisse. La plupart des r\u00e9sultats impressionnants obtenus ces derni\u00e8res ann\u00e9es dans le domaine de l&rsquo;IA sont le fruit de tests tr\u00e8s artificiels portant sur des comp\u00e9tences individuelles telles que le codage, le raisonnement ou la compr\u00e9hension du langage, que les syst\u00e8mes sont explicitement entra\u00een\u00e9s \u00e0 r\u00e9ussir, a d\u00e9clar\u00e9 M. Ilic.<\/p>\n<p>Il compare cela au bachotage pour les examens \u00e0 l&rsquo;\u00e9cole. \u00ab Vous chargez votre cerveau pour le faire, puis vous passez l&rsquo;examen et vous l&rsquo;oubliez compl\u00e8tement \u00bb, a-t-il d\u00e9clar\u00e9. \u00ab Vous avez \u00e9t\u00e9 plus intelligent en assistant au cours, mais l&rsquo;examen lui-m\u00eame n&rsquo;est pas un bon indicateur des connaissances r\u00e9elles.<\/p>\n<p>L&rsquo;IA capable de r\u00e9ussir bon nombre de ces tests \u00e0 des niveaux surhumains n&rsquo;est peut-\u00eatre qu&rsquo;\u00e0 quelques ann\u00e9es de distance, a d\u00e9clar\u00e9 M. Ilic. Mais il pense que l&rsquo;approche dominante d&rsquo;aujourd&rsquo;hui ne conduira pas \u00e0 des mod\u00e8les capables d&rsquo;effectuer des t\u00e2ches utiles dans le monde physique ou de collaborer efficacement avec les humains, ce qui sera crucial pour qu&rsquo;ils aient un large impact dans le monde r\u00e9el.<\/p>\n<p>Adaptation <a href=\"https:\/\/www.laterredufutur.com\/accueil\/\" target=\"_blank\">Terra Projects<\/a><\/p>\n<p>Source : <a href=\"https:\/\/www.livescience.com\/technology\/artificial-intelligence\/what-is-artificial-superintelligence-asi\" target=\"_blank\">https:\/\/www.livescience.com\/<\/a><\/p>\n<p class=\"bawpvc-ajax-counter\" data-id=\"26868\">(173)<\/p>\n<!--CusAds0-->\n<div style=\"font-size: 0px; height: 0px; line-height: 0px; margin: 0; padding: 0; clear: both;\"><\/div>","protected":false},"excerpt":{"rendered":"<p>Nos syst\u00e8mes d&rsquo;IA actuels pourraient un jour \u00e9voluer vers une entit\u00e9 superintelligente, mais les scientifiques ne savent pas encore exactement&#8230;<\/p>\n","protected":false},"author":1,"featured_media":25703,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_exactmetrics_skip_tracking":false,"_exactmetrics_sitenote_active":false,"_exactmetrics_sitenote_note":"","_exactmetrics_sitenote_category":0,"ngg_post_thumbnail":0,"jetpack_post_was_ever_published":false,"_jetpack_newsletter_access":"","_jetpack_dont_email_post_to_subs":false,"_jetpack_newsletter_tier_id":0,"_jetpack_memberships_contains_paywalled_content":false,"_jetpack_memberships_contains_paid_content":false,"footnotes":"","jetpack_publicize_message":"","jetpack_publicize_feature_enabled":true,"jetpack_social_post_already_shared":false,"jetpack_social_options":{"image_generator_settings":{"template":"highway","default_image_id":0,"font":"","enabled":false},"version":2}},"categories":[8194],"tags":[8219,745,4043,1762],"class_list":["post-26868","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-technologie","tag-asi","tag-ia","tag-intelligence-artificielle","tag-singularite","wpcat-8194-id"],"jetpack_publicize_connections":[],"jetpack_featured_media_url":"https:\/\/i0.wp.com\/www.laterredufutur.com\/accueil\/wp-content\/uploads\/2024\/03\/IA-singulartie-3.jpg?fit=1024%2C1024&ssl=1","jetpack_shortlink":"https:\/\/wp.me\/p631RN-6Zm","jetpack-related-posts":[{"id":21885,"url":"https:\/\/www.laterredufutur.com\/accueil\/lintelligence-artificielle-ne-pourra-pas-etre-contenue-et-maitrisee\/","url_meta":{"origin":26868,"position":0},"title":"L&rsquo;intelligence artificielle ne pourra pas \u00eatre contenue et maitris\u00e9e","author":"Admin","date":"29 janvier 2021","format":false,"excerpt":"La superintelligence ou l'intelligence artificielle sera un agent hypoth\u00e9tique qui poss\u00e8dera une intelligence d\u00e9passant de loin celle des esprits humains les plus brillants et les plus dou\u00e9s. \u00c0 la lumi\u00e8re des progr\u00e8s r\u00e9cents de l'intelligence artificielle, un certain nombre de scientifiques, de philosophes et de technologues ont relanc\u00e9 la discussion\u2026","rel":"","context":"Dans &quot;Technologie et IA&quot;","block_context":{"text":"Technologie et IA","link":"https:\/\/www.laterredufutur.com\/accueil\/sujets\/technologie\/"},"img":{"alt_text":"","src":"https:\/\/i0.wp.com\/www.laterredufutur.com\/accueil\/wp-content\/uploads\/2019\/09\/intelligence-artificelle.jpg?fit=1000%2C541&ssl=1&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/i0.wp.com\/www.laterredufutur.com\/accueil\/wp-content\/uploads\/2019\/09\/intelligence-artificelle.jpg?fit=1000%2C541&ssl=1&resize=350%2C200 1x, https:\/\/i0.wp.com\/www.laterredufutur.com\/accueil\/wp-content\/uploads\/2019\/09\/intelligence-artificelle.jpg?fit=1000%2C541&ssl=1&resize=525%2C300 1.5x, https:\/\/i0.wp.com\/www.laterredufutur.com\/accueil\/wp-content\/uploads\/2019\/09\/intelligence-artificelle.jpg?fit=1000%2C541&ssl=1&resize=700%2C400 2x"},"classes":[]},{"id":25697,"url":"https:\/\/www.laterredufutur.com\/accueil\/le-monde-a-loree-dune-super-intelligence-artificielle-pour-2027\/","url_meta":{"origin":26868,"position":1},"title":"Le monde \u00e0 l&rsquo;or\u00e9e d&rsquo;une super intelligence artificielle pour 2027","author":"Admin","date":"24 mars 2024","format":false,"excerpt":"Nous n'avons peut-\u00eatre pas encore atteint l'intelligence artificielle g\u00e9n\u00e9rale (AGI), mais, comme l'affirme l'un des principaux experts dans ce domaine, elle pourrait arriver plus t\u00f4t que pr\u00e9vu. Lors de son discours de cl\u00f4ture du Beneficial AGI Summit de cette ann\u00e9e au Panama, l'informaticien et passionn\u00e9 Ben Goertzel a d\u00e9clar\u00e9 que,\u2026","rel":"","context":"Dans &quot;Monde Futur&quot;","block_context":{"text":"Monde Futur","link":"https:\/\/www.laterredufutur.com\/accueil\/sujets\/monde-futur\/"},"img":{"alt_text":"","src":"https:\/\/i0.wp.com\/www.laterredufutur.com\/accueil\/wp-content\/uploads\/2024\/03\/IA-singulartie-2.jpg?fit=1024%2C1024&ssl=1&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/i0.wp.com\/www.laterredufutur.com\/accueil\/wp-content\/uploads\/2024\/03\/IA-singulartie-2.jpg?fit=1024%2C1024&ssl=1&resize=350%2C200 1x, https:\/\/i0.wp.com\/www.laterredufutur.com\/accueil\/wp-content\/uploads\/2024\/03\/IA-singulartie-2.jpg?fit=1024%2C1024&ssl=1&resize=525%2C300 1.5x, https:\/\/i0.wp.com\/www.laterredufutur.com\/accueil\/wp-content\/uploads\/2024\/03\/IA-singulartie-2.jpg?fit=1024%2C1024&ssl=1&resize=700%2C400 2x"},"classes":[]},{"id":23327,"url":"https:\/\/www.laterredufutur.com\/accueil\/les-calculs-suggerent-quil-sera-impossible-de-controler-une-ia-super-intelligente\/","url_meta":{"origin":26868,"position":2},"title":"Les calculs sugg\u00e8rent qu&rsquo;il sera impossible de contr\u00f4ler une IA super intelligente","author":"Admin","date":"5 novembre 2021","format":false,"excerpt":"L'id\u00e9e d'une intelligence artificielle renversant l'humanit\u00e9 est \u00e9voqu\u00e9e depuis de nombreuses d\u00e9cennies, et en janvier 2021, les scientifiques ont rendu leur verdict sur la question de savoir si nous serions capables de contr\u00f4ler une super-intelligence informatique de haut niveau. La r\u00e9ponse ? Presque certainement pas. Le probl\u00e8me est que le\u2026","rel":"","context":"Dans &quot;Divers&quot;","block_context":{"text":"Divers","link":"https:\/\/www.laterredufutur.com\/accueil\/sujets\/divers\/"},"img":{"alt_text":"","src":"https:\/\/i0.wp.com\/www.laterredufutur.com\/accueil\/wp-content\/uploads\/2021\/11\/IA-2001-lodyssee-de-l-espace.jpg?fit=1024%2C415&ssl=1&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/i0.wp.com\/www.laterredufutur.com\/accueil\/wp-content\/uploads\/2021\/11\/IA-2001-lodyssee-de-l-espace.jpg?fit=1024%2C415&ssl=1&resize=350%2C200 1x, https:\/\/i0.wp.com\/www.laterredufutur.com\/accueil\/wp-content\/uploads\/2021\/11\/IA-2001-lodyssee-de-l-espace.jpg?fit=1024%2C415&ssl=1&resize=525%2C300 1.5x, https:\/\/i0.wp.com\/www.laterredufutur.com\/accueil\/wp-content\/uploads\/2021\/11\/IA-2001-lodyssee-de-l-espace.jpg?fit=1024%2C415&ssl=1&resize=700%2C400 2x"},"classes":[]},{"id":24836,"url":"https:\/\/www.laterredufutur.com\/accueil\/eliezer-yudkowsky-nous-alerte-sur-une-possible-fin-dhumanite-a-cause-de-lia\/","url_meta":{"origin":26868,"position":3},"title":"Eliezer Yudkowsky nous alerte sur une possible fin d&rsquo;Humanit\u00e9 \u00e0 cause de l&rsquo;IA","author":"Admin","date":"2 avril 2023","format":false,"excerpt":"Eliezer Yudkowsky est un chercheur en intelligence artificielle (IA), un \u00e9crivain et un activiste am\u00e9ricain. Il est surtout connu pour son travail sur l'IA et la th\u00e9orie de l'optimisation de la Bay\u00e9sienne. Yudkowsky est n\u00e9 en 1979 \u00e0 San Jose, en Californie. Il a \u00e9t\u00e9 \u00e9duqu\u00e9 \u00e0 la maison pendant\u2026","rel":"","context":"Dans &quot;Technologie et IA&quot;","block_context":{"text":"Technologie et IA","link":"https:\/\/www.laterredufutur.com\/accueil\/sujets\/technologie\/"},"img":{"alt_text":"","src":"https:\/\/i0.wp.com\/www.laterredufutur.com\/accueil\/wp-content\/uploads\/2020\/05\/t1000-robot-liquide-james-cameron.jpg?fit=1000%2C517&ssl=1&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/i0.wp.com\/www.laterredufutur.com\/accueil\/wp-content\/uploads\/2020\/05\/t1000-robot-liquide-james-cameron.jpg?fit=1000%2C517&ssl=1&resize=350%2C200 1x, https:\/\/i0.wp.com\/www.laterredufutur.com\/accueil\/wp-content\/uploads\/2020\/05\/t1000-robot-liquide-james-cameron.jpg?fit=1000%2C517&ssl=1&resize=525%2C300 1.5x, https:\/\/i0.wp.com\/www.laterredufutur.com\/accueil\/wp-content\/uploads\/2020\/05\/t1000-robot-liquide-james-cameron.jpg?fit=1000%2C517&ssl=1&resize=700%2C400 2x"},"classes":[]},{"id":22564,"url":"https:\/\/www.laterredufutur.com\/accueil\/notre-monde-glisse-vers-lage-de-la-singularite\/","url_meta":{"origin":26868,"position":4},"title":"Notre monde glisse vers l&rsquo;\u00e2ge de la singularit\u00e9","author":"Admin","date":"29 mai 2021","format":false,"excerpt":"La singularit\u00e9 technologique (ou simplement la singularit\u00e9) est l'hypoth\u00e8se selon laquelle l'invention de l'intelligence artificielle d\u00e9clencherait un emballement de la croissance technologique qui induirait des changements impr\u00e9visibles sur la soci\u00e9t\u00e9 humaine. Au-del\u00e0 de ce point, le progr\u00e8s ne serait plus l\u2019\u0153uvre que d\u2019intelligences artificielles, ou \u00ab supraintelligence \u00bb qui s\u2019auto-am\u00e9lioreraient,\u2026","rel":"","context":"Dans &quot;Monde Futur&quot;","block_context":{"text":"Monde Futur","link":"https:\/\/www.laterredufutur.com\/accueil\/sujets\/monde-futur\/"},"img":{"alt_text":"","src":"https:\/\/i0.wp.com\/www.laterredufutur.com\/accueil\/wp-content\/uploads\/2021\/05\/intelligence-artificielle.jpg?fit=1024%2C685&ssl=1&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/i0.wp.com\/www.laterredufutur.com\/accueil\/wp-content\/uploads\/2021\/05\/intelligence-artificielle.jpg?fit=1024%2C685&ssl=1&resize=350%2C200 1x, https:\/\/i0.wp.com\/www.laterredufutur.com\/accueil\/wp-content\/uploads\/2021\/05\/intelligence-artificielle.jpg?fit=1024%2C685&ssl=1&resize=525%2C300 1.5x, https:\/\/i0.wp.com\/www.laterredufutur.com\/accueil\/wp-content\/uploads\/2021\/05\/intelligence-artificielle.jpg?fit=1024%2C685&ssl=1&resize=700%2C400 2x"},"classes":[]},{"id":24418,"url":"https:\/\/www.laterredufutur.com\/accueil\/des-chercheurs-affirment-quil-sera-impossible-de-controler-une-ia-super-intelligente\/","url_meta":{"origin":26868,"position":5},"title":"Des chercheurs affirment qu&rsquo;il sera impossible de contr\u00f4ler une IA super intelligente","author":"Admin","date":"18 septembre 2022","format":false,"excerpt":"L'id\u00e9e d'une intelligence artificielle se retournant contre l'humanit\u00e9 est \u00e9voqu\u00e9e depuis des d\u00e9cennies, et en 2021, les scientifiques ont livr\u00e9 leur verdict sur la question de savoir si nous serions capables de contr\u00f4ler une super-intelligence informatique de haut niveau. La r\u00e9ponse ? certainement que non ! Le probl\u00e8me est que\u2026","rel":"","context":"Dans &quot;Technologie et IA&quot;","block_context":{"text":"Technologie et IA","link":"https:\/\/www.laterredufutur.com\/accueil\/sujets\/technologie\/"},"img":{"alt_text":"","src":"https:\/\/i0.wp.com\/www.laterredufutur.com\/accueil\/wp-content\/uploads\/2022\/09\/IA-selon-2001-l-odyssee-de-l-espace.jpg?fit=1024%2C415&ssl=1&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/i0.wp.com\/www.laterredufutur.com\/accueil\/wp-content\/uploads\/2022\/09\/IA-selon-2001-l-odyssee-de-l-espace.jpg?fit=1024%2C415&ssl=1&resize=350%2C200 1x, https:\/\/i0.wp.com\/www.laterredufutur.com\/accueil\/wp-content\/uploads\/2022\/09\/IA-selon-2001-l-odyssee-de-l-espace.jpg?fit=1024%2C415&ssl=1&resize=525%2C300 1.5x, https:\/\/i0.wp.com\/www.laterredufutur.com\/accueil\/wp-content\/uploads\/2022\/09\/IA-selon-2001-l-odyssee-de-l-espace.jpg?fit=1024%2C415&ssl=1&resize=700%2C400 2x"},"classes":[]}],"jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/www.laterredufutur.com\/accueil\/wp-json\/wp\/v2\/posts\/26868","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.laterredufutur.com\/accueil\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.laterredufutur.com\/accueil\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.laterredufutur.com\/accueil\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.laterredufutur.com\/accueil\/wp-json\/wp\/v2\/comments?post=26868"}],"version-history":[{"count":1,"href":"https:\/\/www.laterredufutur.com\/accueil\/wp-json\/wp\/v2\/posts\/26868\/revisions"}],"predecessor-version":[{"id":26869,"href":"https:\/\/www.laterredufutur.com\/accueil\/wp-json\/wp\/v2\/posts\/26868\/revisions\/26869"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.laterredufutur.com\/accueil\/wp-json\/wp\/v2\/media\/25703"}],"wp:attachment":[{"href":"https:\/\/www.laterredufutur.com\/accueil\/wp-json\/wp\/v2\/media?parent=26868"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.laterredufutur.com\/accueil\/wp-json\/wp\/v2\/categories?post=26868"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.laterredufutur.com\/accueil\/wp-json\/wp\/v2\/tags?post=26868"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}