Dernières Infos

L’IA pourrait expliquer pourquoi nous ne rencontrons pas d’extraterrestres, notre monde, notre civilisation à la croisée des chemins

L’intelligence artificielle fait ressentir sa présence de milliers de façons différentes. Elle aide les scientifiques à analyser de vastes quantités de données, à détecter les fraudes financières, à conduire nos voitures, à nous suggérer de la musique et à nous rendre fous avec ses « chatbots ». Et ce n’est qu’un début.

Sommes-nous capables de comprendre à quelle vitesse l’IA va continuer à se développer ? Et si la réponse est non, est-ce que cela constitue le Grand Filtre ?

Le paradoxe de Fermi est l’écart entre la forte probabilité apparente de l’existence de civilisations avancées et l’absence totale de preuves de leur existence. De nombreuses solutions ont été proposées pour expliquer cet écart. L’une d’entre elles est le « grand filtre ».

Il s’agit d’un événement ou d’une situation hypothétique qui empêche la vie intelligente de devenir interplanétaire et interstellaire, voire qui entraîne sa disparition. Pensez au changement climatique, à la guerre nucléaire, aux frappes d’astéroïdes, aux explosions de supernova, aux épidémies ou à tout autre événement cataclysmique.

Ou encore le développement rapide de l’intelligence artificielle ?

Un nouvel article publié dans Acta Astronautica explore l’idée que l’intelligence artificielle devient une super intelligence artificielle (ASI) et que l’ASI est le grand filtre. L’article s’intitule « L’intelligence artificielle est-elle le grand filtre qui rend les civilisations techniques avancées rares dans l’univers ? L’auteur est Michael Garrett, du département de physique et d’astronomie de l’université de Manchester.

« En l’absence de réglementation concrète, il y a tout lieu de penser que l’IA pourrait représenter une menace majeure pour l’avenir non seulement de notre civilisation technique, mais aussi de toutes les civilisations techniques. »

Michael Garrett, Université de Manchester

Certains pensent que le Grand Filtre empêche les espèces technologiques comme la nôtre de devenir multi planétaires. C’est une mauvaise chose, car une espèce est plus exposée à l’extinction ou à la stagnation si elle n’a qu’un unique foyer. Selon Garrett, une espèce est engagée dans une course contre la montre sans planète de secours.

« Il est proposé qu’un tel filtre émerge avant que ces civilisations puissent développer une existence stable et multi planétaire, ce qui suggère que la longévité typique (L) d’une civilisation technique est inférieure à 200 ans », écrit Garrett.

Si c’est vrai, cela peut expliquer pourquoi nous ne détectons pas de techno signatures ou d’autres preuves d’ETI (intelligences extraterrestres). Si nous sommes confrontés à une contrainte de 200 ans, et si c’est à cause de l’ASI, où cela nous mène-t-il ?

Garrett souligne le « …besoin critique d’établir rapidement des cadres réglementaires pour le développement de l’IA sur Terre et l’avancement d’une société multi planétaire afin d’atténuer de telles menaces existentielles ».

De nombreux scientifiques et autres penseurs affirment que nous sommes à l’aube d’une énorme transformation. L’IA ne fait que commencer à transformer notre façon de procéder ; une grande partie de la transformation se fait en coulisses. L’IA semble prête à supprimer des emplois à des millions de personnes, et lorsqu’elle est associée à la robotique, la transformation semble presque illimitée. Il s’agit là d’une préoccupation assez évidente.

Mais il existe des préoccupations plus profondes et plus systématiques. Qui écrit les algorithmes ? L’IA va-t-elle faire de la discrimination d’une certaine manière ? C’est presque certain. Les algorithmes concurrents vont-ils saper les sociétés démocratiques puissantes ? Les sociétés ouvertes resteront elles ouvertes ? L’ASI commencera-t-elle à prendre des décisions à notre place, et qui sera responsable si c’est le cas ?

Il s’agit d’une arborescence de questions qui se ramifient et dont le point d’arrivée n’est pas clair.

Stephen Hawking (RIP) a averti que l’IA pourrait mettre fin à l’humanité si elle commençait à évoluer de manière indépendante.

« Je crains que l’IA ne remplace complètement les humains. Si des gens conçoivent des virus informatiques, quelqu’un concevra une IA qui s’améliorera et se reproduira. Ce sera une nouvelle forme de vie qui surpassera les humains », a-t-il déclaré au magazine Wired en 2017. Une fois que l’IA peut surpasser les humains, elle devient ASI.

Hawking est peut-être l’une des voix les plus connues à avoir émis des avertissements sur l’IA, mais il est loin d’être le seul. Les médias regorgent de discussions et d’avertissements, ainsi que d’articles sur le travail que l’IA accomplit à notre place. Les mises en garde les plus alarmantes affirment que l’ASI pourrait devenir incontrôlable. Certains y voient de la science-fiction, mais pas Garrett.

« La crainte que la super intelligence artificielle (ASI) ne devienne un jour incontrôlable est considérée comme un problème majeur – la lutte contre cette possibilité au cours des prochaines années est un sujet de recherche de plus en plus important pour les leaders dans ce domaine », écrit M. Garrett.

Si l’IA n’apportait aucun avantage, la question serait beaucoup plus simple. Mais elle apporte toutes sortes d’avantages, depuis l’amélioration de l’imagerie et du diagnostic médicaux jusqu’à des systèmes de transport plus sûrs. L’astuce pour les gouvernements est de permettre à ces avantages de se développer tout en limitant les dégâts.

« C’est particulièrement le cas dans des domaines tels que la sécurité nationale et la défense, où un développement responsable et éthique devrait être primordial », écrit M. Garrett.

Le problème, c’est que nous et nos gouvernements ne sommes pas préparés. Il n’y a jamais rien eu de tel en matière d’IA et, quelle que soit la manière dont nous essayons de la conceptualiser et de comprendre sa progression, nous restons sur notre faim.

Et si nous sommes dans cette situation, il en va de même pour toute autre espèce biologique qui développe l’IA. L’avènement de l’IA puis de l’ASI pourrait être universel, ce qui en ferait un candidat au Grand Filtre.

C’est le risque que représente concrètement l’ASI : Elle pourrait ne plus avoir besoin de la vie biologique qui l’a créée.

« En atteignant une singularité technologique, les systèmes ASI surpasseront rapidement l’intelligence biologique et évolueront à un rythme qui dépassera complètement les mécanismes de contrôle traditionnels, entraînant des conséquences imprévues et involontaires qui ne seront probablement pas alignées sur les intérêts biologiques ou l’éthique », explique M. Garrett.

Comment l’ASI pourrait-elle se débarrasser de la vie biologique encombrante qui l’emprisonne ? Elle pourrait créer un virus mortel, entraver la production et la distribution de denrées agricoles, provoquer la fusion d’une centrale nucléaire ou déclencher des guerres.

Nous ne le savons pas encore, car il s’agit d’un territoire inexploré. Il y a des centaines d’années, les cartographes dessinaient des monstres sur les régions inexplorées du monde, et c’est un peu ce que nous faisons aujourd’hui.

Si tout cela semble triste et inévitable, Garrett affirme que ce n’est pas le cas.

Jusqu’à présent, son analyse est basée sur le fait que les ASI et les humains occupent le même espace. Mais si nous parvenons à atteindre un statut multi-planétaire, les perspectives changent.

« Par exemple, une espèce biologique multi planétaire pourrait tirer parti d’expériences indépendantes sur différentes planètes, en diversifiant ses stratégies de survie et en évitant éventuellement l’échec ponctuel auquel est confrontée une civilisation limitée à une planète », écrit Garrett.

Si nous pouvons répartir les risques sur plusieurs planètes autour de plusieurs étoiles, nous pourrons nous prémunir contre les pires conséquences possibles de l’ASI.

« Ce modèle d’existence distribuée augmente la résilience d’une civilisation biologique face aux catastrophes provoquées par l’IA en créant une redondance », écrit-il.

Si l’une des planètes ou l’un des avant-postes occupés par les futurs humains ne survit pas à la singularité technologique de l’ASI, d’autres peuvent survivre. Et ils en tireront des leçons.

Le statut multi planétaire pourrait même faire plus que survivre à l’ASI. Il pourrait nous aider à la maîtriser. Garrett imagine des situations dans lesquelles nous pourrions expérimenter l’IA de manière plus approfondie tout en la contenant. Imaginez l’IA sur un astéroïde isolé ou une planète naine, exécutant nos ordres sans avoir accès aux ressources nécessaires pour s’échapper de sa prison.

« Cela permet de créer des environnements isolés où les effets de l’IA avancée peuvent être étudiés sans risque immédiat d’anéantissement global », écrit Garrett.

Mais voici l’énigme. Le développement de l’IA se poursuit à un rythme accéléré, alors que nos tentatives pour devenir multi-planétaires ne progressent pas.

« La disparité entre les progrès rapides de l’IA et ceux, plus lents, de la technologie spatiale est frappante », écrit M. Garrett.

La différence réside dans le fait que l’IA est informatique et informationnelle, alors que le voyage spatial comporte de nombreux obstacles physiques que nous ne savons pas encore comment surmonter. Notre propre nature biologique limite les voyages dans l’espace, mais aucun obstacle de ce type ne limite l’IA.

« Alors que l’IA peut théoriquement améliorer ses propres capacités presque sans contraintes physiques, écrit Garrett, les voyages dans l’espace doivent faire face à des limitations énergétiques, aux limites de la science des matériaux et aux dures réalités de l’environnement spatial.

Pour l’instant, l’IA fonctionne avec les contraintes que nous lui imposons. Mais ce ne sera peut-être pas toujours le cas. Nous ne savons pas quand l’IA deviendra ASI, ni même si elle le pourra. Mais nous ne pouvons pas ignorer cette possibilité. Cela nous amène à deux conclusions interdépendantes.

Si Garrett a raison, l’humanité doit travailler plus assidûment sur les voyages spatiaux. Cela peut sembler tiré par les cheveux, mais les personnes bien informées savent que c’est vrai : la Terre ne sera pas éternellement habitable. L’humanité y périra de sa propre main ou de la main de la nature si nous ne nous développons pas dans l’espace. L’estimation de Garrett sur 200 ans ne fait qu’ajouter un point d’exclamation à cette réalité. Un regain d’intérêt pour l’exploration de la Lune et de Mars offre un peu d’espoir.

La deuxième conclusion concerne la législation et la gouvernance de l’IA, une tâche difficile dans un monde où les psychopathes peuvent prendre le contrôle de nations entières et sont déterminés à faire la guerre.

« Alors que les acteurs de l’industrie, les décideurs politiques, les experts individuels et leurs gouvernements avertissent déjà qu’une réglementation est nécessaire, l’établissement d’un cadre réglementaire acceptable à l’échelle mondiale sera un véritable défi », écrit M. Garrett.

Un défi qui n’en est qu’à ses débuts. Les querelles intestines de l’humanité rendent la situation encore plus ingérable. En outre, quelle que soit la rapidité avec laquelle nous élaborons des lignes directrices, l’ASI pourrait changer encore plus rapidement.

« Sans réglementation pratique, il y a tout lieu de croire que l’IA pourrait représenter une menace majeure pour l’avenir non seulement de notre civilisation technique, mais aussi de toutes les civilisations techniques », écrit Garrett.

Si c’est le cas, cela pourrait se résumer à ce qui peut sembler ennuyeux et fastidieux : des débats sur la législation.

« La persistance d’une vie intelligente et consciente dans l’univers pourrait dépendre de la mise en œuvre opportune et efficace de ces mesures réglementaires internationales et de ces efforts technologiques », écrit M. Garrett.

Adaptation Terra Projects

Source : https://www.sciencealert.com/

(157)

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.