Dernières Infos

Notre monde glisse vers l’âge de la singularité

credit Pixabay License

La singularité technologique (ou simplement la singularité) est l’hypothèse selon laquelle l’invention de l’intelligence artificielle déclencherait un emballement de la croissance technologique qui induirait des changements imprévisibles sur la société humaine.

Au-delà de ce point, le progrès ne serait plus l’œuvre que d’intelligences artificielles, ou « supraintelligence » qui s’auto-amélioreraient, de nouvelles générations de plus en plus intelligentes apparaissant de plus en plus rapidement, créant une « explosion d’intelligence » créant finalement une puissante superintelligence qui dépasserait qualitativement de loin l’intelligence humaine.

Le risque serait que l’humanité perde le contrôle de son destin. L’auteur de science fiction Vernor Vinge est même convaincu, dans son essai La venue de la singularité technologique, que la singularité signifierait la fin de l’ère humaine, la nouvelle superintelligence continuant de s’améliorer et d’évoluer technologiquement à une vitesse incompréhensible pour les humains.

Cette notion de singularité technologique aurait été envisagée par John von Neumann dès les années 19506 et ses conséquences ont été débattues dans les années 1960 par I. J. Good. Selon Ray Kurzweil7, cofondateur de la Singularity University, la singularité deviendrait réalité approximativement en 2045.

La possibilité et la date de survenue de cet évènement hypothétique fait toutefois l’objet de débats entre scientifiques. Plusieurs futurologues et transhumanistes l’attendent pour la troisième décennie du xxie siècle.

Qu’en est il réellement ?

Dans les années 1960, quelques-unes des implications de l’intelligence superhumaine ont commencé à être perçues. L.J. Good écrit :

Soit une machine ultra-intelligente, à savoir une machine capable de surpasser de loin toutes les activités intellectuelles de n’importe quel humain, aussi intelligent soit-il. Puisque la conception de telles machines est une de ces activités intellectuelles, une machine ultra-intelligente serait capable de concevoir des machines encore plus performantes ; on aboutirait alors indubitablement à une “explosion d’intelligence”, qui laisserait-on derrière elle l’intelligence humaine. C’est pourquoi, la conception d’une telle machine est la dernière chose dont l’homme n’aura jamais besoin, à supposer que la machine soit suffisamment docile pour nous expliquer comment la garder sous notre contrôle. Le plus probable est que, dans le courant du XXè siècle, une machine ultra-intelligente sera construite, et que ce sera la dernière chose dont l’Humanité avait besoin.

Good a perçu l’essence de la fuite, mais les conséquences les plus troublantes lui échappent. Une machine telle qu’il la décrit ne saurait être un “outil” pour l’Humanité pas – plus que les humains ne sont les outils des lapins, des rouges-gorges ou des chimpanzés.

Si la Singularité technologique peut survenir, elle le fera. Même si tous les gouvernements du monde devaient prendre la mesure de la menace et s’en méfier comme de la peste, le progrès continuerait de tendre vers ce point. La fiction évoque des lois passées pour prévenir la construction d’une “machine qui ressemblerait à l’esprit humain”. Dans les faits, chaque avancée dans l’automatisation présente de tels avantages concurrentiels économiques, militaires, voire artistiques que passer des lois – – ou imposer des barrières douanières pour les interdire ne ferait que permettre à un autre d’y accéder le premier.

Débat et Projections

Se posent alors des questions d’ordre philosophique, que certains poussent de plus en plus loin:

L’« humain » est-il dépassé, et y a-t-il un mal à accepter ses limites naturelles ?
Y a-t-il un mal à vouloir s’améliorer ?
Peut-on raisonnablement refuser le téléphone portable, dans notre société, et quelles en sont les conséquences ? (et on peut remplacer pour l’exemple l’outil téléphone portable par tout autre gadget à se greffer en permanence pour augmenter les capacités humaines
La grande question que se posent tous les chercheurs en Intelligence Artificielle est : « Quand allons-nous atteindre la singularité ? »

La grande majorité des prédictions s’accordent pour la situer avant 2100 (près de 62% de chercheurs questionnés par la société EMERJ).

Certains la voient avant 2060 (45%) et d’autres après 2060 (34%). Les 21% restants estiment qu’il est peu probable que la singularité se produise.

Si on en croit Ray Kurzweil, le «père de l’intelligence artificielle», Chercheur au MIT et Futurologue, la singularité se produira en 2045. Si nous écoutons plutôt Louis Rosenberg, Inventeur et PDG de la société Unanimous AI, spécialisée en Intelligence Artificielle, le jour arrivera un peu plus tôt, probablement en 2030.

Patrick Winston, ex Professeur au MIT qui en dirigé le laboratoire d’Intelligence Artificielle, prédisait l’évènement pour 2040, un peu plus proche de la date projetée par Ray Kurzweil.

Bien qu’il ne puisse y avoir de calendrier clair ou de consensus sur le moment où la super intelligence est susceptible d’être réalisée, une chose est claire: le parcours troublant de la singularité technologique nous oblige à réfléchir sérieusement à ce que nous voulons en tant qu’espèce, car l’IA n’ayant pas, en particulier, dans ses paramètres d’être favorable aux humains, le défi consiste à évaluer si la singularité induite par l’intelligence artificielle permettra de favoriser leur propre survie par rapport à celle de l’être humain ou pas !

D’après l’idéologie transhumaniste dont l’entrepreneur et directeur de l’ingénierie de Google, Ray Kurzweil est le principal théoricien, la singularité technologique ressemble davantage à une promesse eschatologique qui prédit une transformation profonde et radicale des sociétés humaines grâce au développement surprenant de l’intelligence artificielle (IA).

Les dynamiques vertigineuses des IA associées aux progrès dans les champs des nanotechnologies, biotechnologies, informatique et sciences cognitives (NBIC) conduiront probablement pour les transhumanistes à la fusion de l’homme et de la machine, de l’union du biologique à la technologie dont les effets pratiques seront de résoudre les problèmes humains les plus complexes (moraux, culturels, économiques, politiques, etc.) et même d’éradiquer la mort !

La fusion effective de l’homme et de l’intelligence artificielle annoncerait la naissance d’une nouvelle humanité qui bénéficierait des capacités analytiques d’un SuperOrdinateur et qui serait débarrassée des inconvénients du corps biologique.

Le principal risque avancé par les détracteurs de cette éventualité est que l’humanité perdrait le contrôle de son destin. La notion de singularité technologique (ou super-intelligence de machine) remonte au moins au pionnier de l’intelligence artificielle, Ray Solomonoff – qui, en 1967, avait prévenu: « J’ai le sentiment que la réalisation de l’intelligence artificielle sera un événement soudain. À un certain stade du développement de la recherche, nous n’aurons aucune expérience pratique de l’intelligence artificielle de niveau sérieux: environ un mois plus tard, nous disposerons d’une machine très intelligente et de tous les problèmes et dangers liés à notre inexpérience ».

Plus récemment, le célèbre physicien théoricien, Stephen Hawking, a relancé le débat sur la question de savoir si notre recherche d’une intelligence artificielle améliorée aboutirait un jour à des machines pensantes qui nous succéderaient. Il a fait part de son inquiétude face au développement de machines qui nous surpasseraient : «Le développement de l’intelligence artificielle complète pourrait sonner le glas de la race humaine. »

L’auteur de science-fiction Vernor Vinge est même convaincu, dans son essai « La venue de la singularité technologique », que la singularité signifierait la fin de l’ère humaine !

Aujourd’hui, il n’existe aucun moyen de calculer quand et comment cette évolution de l’intelligence se produirait dans les machines, mais une chose est claire: elle modifierait les principes fondamentaux de la sécurité et la réponse à cette éventualité se doit d’être intégrée et globale.

Que la promesse ou le péril l’emporte définira et déterminera l’avenir de l’humanité.

sources : https://fr.wikipedia.org/ / https://iatranshumanisme.com/ / https://mbamci.com/

(279)

Laissez un message

%d blogueurs aiment cette page :