Le plus grand scientifique d’OpenAI voulait « construire un bunker avant de lancer l’AGI »
« Bien sûr, vous aurez le choix d’entrer ou non dans le bunker. » L’ancien directeur scientifique d’OpenAI, Il y a Sutskever, se prépare depuis longtemps à l’intelligence artificielle générale (AGI), un terme industriel mal défini qui désigne le moment où l’intelligence humaine sera dépassée par les algorithmes.
Dans des entretiens avec Karen Hao, de The Atlantic, qui écrit un livre sur l’éviction ratée du PDG Sam Altman en novembre 2023, des personnes proches de Sutskever ont déclaré qu’il semblait très préoccupé par l’AGI.
Selon un chercheur qui a entendu le cofondateur de l’entreprise, qui a depuis démissionné, s’épancher sur le sujet lors d’une réunion de l’été 2023, un scénario apocalyptique semblait être une évidence pour Sutskever.
« Une fois que nous serons tous entrés dans le bunker… », a commencé le scientifique en chef.
« Je suis désolé », l’interrompt le chercheur, « le bunker ? ».
« Nous allons certainement construire un bunker avant de libérer l’IAG, dit Sutskever, sans détour. « Bien sûr, vous aurez le choix d’entrer ou non dans le bunker. »
L’échange souligne à quel point les dirigeants d’OpenAI étaient, et restent, confiants dans la technologie qu’ils pensent construire – même si d’autres soutiennent que nous sommes loin de l’AGI et que nous n’y parviendrons peut-être jamais.
Enthousiaste
Aussi théâtral que puisse paraître cet échange, deux autres personnes présentes à l’échange ont confirmé que le devin AGI résident d’OpenAI – qui, notamment, a affirmé des mois avant la sortie de ChatGPT en 2022 qu’il pensait que certains modèles d’IA étaient « légèrement conscients » – avait effectivement mentionné un bunker.
« Il existe un groupe de personnes qui croient que la construction de l’IAG provoquera une « extase » », a déclaré le premier chercheur à Hao. « Littéralement, une extase. »
Comme l’ont noté d’autres personnes qui ont parlé à l’auteur pour son prochain livre « Empire of AI », l’obsession de Sutskever pour l’AGI avait pris une nouvelle tournure à l’été 2023. Outre son intérêt pour la création d’AGI, il s’était également inquiété de la manière dont OpenAI gérait la technologie qu’elle était en train de faire germer.
Cette préoccupation a finalement conduit le scientifique fou, aux côtés de plusieurs autres membres du conseil d’administration de l’entreprise, à évincer le PDG Sam Altman quelques mois plus tard, et finalement à son propre départ.
Bien que Sutskever ait mené le coup d’État, sa détermination, selon des sources interrogées par The Atlantic , a commencé à faiblir lorsqu’il a réalisé que la base d’OpenAI s’alignait sur Altman. Il a finalement retiré son opinion selon laquelle le PDG n’était pas apte à diriger, dans ce qui semblait être une tentative pour sauver sa peau – une tentative qui, au final, s’est avérée vaine .
Il est intéressant de noter que Hao a également appris que les gens au sein d’OpenAI avaient un surnom pour le coup d’État manqué : « The Blip ».
Adaptation Terra Projects
Source : https://futurism.com/
(77)
Laisser un commentaire
Vous devez vous connecter pour publier un commentaire.