Pourquoi les experts pensent que l’IA générale est inévitable : Arguments clés et preuves
Atteindre l’AGI (l’IA générale) peut sembler être une prédiction farfelue, mais c’est un objectif tout à fait raisonnable si l’on tient compte des faits suivants :
L’intelligence humaine est figée, à moins que nous ne fusionnions d’une manière ou d’une autre nos capacités cognitives avec celles des machines. La startup d’Elon Musk, spécialisée dans la dentelle neuronale, vise à atteindre cet objectif, mais la recherche sur les interfaces cerveau-ordinateur n’en est qu’à ses débuts29.
L’intelligence des machines dépend des algorithmes, de la puissance de traitement et de la mémoire. La puissance de traitement et la mémoire ont augmenté à un rythme exponentiel. En ce qui concerne les algorithmes, nous avons jusqu’à présent réussi à fournir aux machines les algorithmes nécessaires pour utiliser efficacement leur puissance de traitement et leur mémoire.
Étant donné que notre intelligence est fixe et que l’intelligence des machines augmente, ce n’est qu’une question de temps avant que les machines ne nous surpassent, à moins qu’il n’y ait une limite stricte à leur intelligence. Nous n’avons pas encore rencontré une telle limite.
Voici une bonne analogie pour comprendre la croissance exponentielle. Si les machines peuvent sembler peu intelligentes à l’heure actuelle, elles peuvent devenir très intelligentes, très rapidement.
Si l’informatique classique ralentit sa croissance, l’informatique quantique pourrait la compléter
L’informatique classique nous a menés assez loin. Les algorithmes d’IA sur les ordinateurs classiques peuvent dépasser les performances humaines dans des tâches spécifiques comme jouer aux échecs ou au Go. Par exemple, AlphaGo Zero a battu AlphaGo par 100 à 0. AlphaGo avait battu les meilleurs joueurs du monde.30 Cependant, nous approchons des limites de la rapidité des ordinateurs classiques.
La loi de Moore, qui repose sur l’observation que le nombre de transistors dans un circuit intégré dense double environ tous les deux ans, implique que le coût de l’informatique est divisé par deux environ tous les deux ans. D’autre part, la plupart des experts estiment que la loi de Moore touche à sa fin au cours de cette décennie.31 Toutefois, des efforts sont déployés pour continuer à améliorer l’efficacité du calcul. Par exemple, DeepSeek a surpris les marchés mondiaux avec son modèle R1 en fournissant un modèle de raisonnement à une fraction du coût de ses concurrents comme OpenAI.
L’informatique quantique, qui est encore une technologie émergente, peut contribuer à réduire les coûts informatiques après la fin de la loi de Moore. L’informatique quantique repose sur l’évaluation de différents états en même temps, alors que les ordinateurs classiques ne peuvent calculer qu’un seul état à la fois.
La nature unique de l’informatique quantique peut être utilisée pour entraîner efficacement les réseaux neuronaux, qui constituent actuellement l’architecture d’IA la plus populaire dans les applications commerciales. Les algorithmes d’IA fonctionnant sur des ordinateurs quantiques stables ont une chance de débloquer la singularité.
Pourquoi certains experts pensent-ils que nous n’atteindrons pas l’AGI ?
Il existe trois arguments majeurs contre l’importance ou l’existence de l’AGI. Nous les avons examinés en même temps que leurs réfutations courantes :
1- L’intelligence est multidimensionnelle
Par conséquent, l’AGI sera différente, et non supérieure, à l’intelligence humaine.
C’est vrai, et l’intelligence humaine est également différente de l’intelligence animale. Certains animaux sont capables de prouesses mentales étonnantes, comme les écureuils qui se souviennent de l’endroit où ils ont caché des centaines de noix pendant des mois.
Yann LeCun, l’un des pionniers de l’apprentissage profond, estime que nous devrions retirer le terme AGI et nous concentrer sur l’obtention d’une « intelligence machine avancée ».Il affirme que l’esprit humain est spécialisé et que l’intelligence est un ensemble de compétences et la capacité d’en acquérir de nouvelles. Chaque être humain ne peut accomplir qu’un sous-ensemble de tâches relevant de l’intelligence humaine.
Il est également difficile de comprendre le niveau de spécialisation de l’esprit humain en tant qu’être humain puisque nous ne connaissons pas et ne pouvons pas expérimenter l’ensemble du spectre de l’intelligence.
Dans les domaines où les machines ont fait preuve d’une intelligence surhumaine, les humains ont pu les battre en exploitant les faiblesses propres à la machine. Par exemple, un amateur a pu battre un programme de go qui est au même niveau que les programmes de go qui battent les champions du monde en étudiant et en exploitant les faiblesses du programme.
2- L’intelligence n’est pas la solution à tous les problèmes
La science
Par exemple, même la meilleure machine analysant les données existantes ne sera pas en mesure de trouver un remède au cancer. Elle devra mener des expériences et analyser les résultats pour découvrir de nouvelles connaissances dans la plupart des domaines.
Cela est vrai à quelques conditions près. Plus d’intelligence peut conduire à des expériences mieux conçues et mieux gérées, permettant plus de découvertes par expérience. L’histoire de la productivité de la recherche devrait probablement le démontrer, mais les données sont assez bruyantes et les rendements de la recherche sont décroissants. Nous rencontrons des problèmes plus difficiles, comme la physique quantique, au fur et à mesure que nous résolvons des problèmes plus simples, comme le mouvement newtonien.
L’économie
L’intelligence n’est pas le seul ingrédient de la création de valeur économique.
Le QI, la mesure la plus communément acceptée de l’intelligence humaine, n’est pas corrélé avec la valeur nette pour les valeurs supérieures à ~40k$.35
Dans le monde de l’investissement, l’intelligence de l’équipe d’une entreprise n’est pas considérée comme un facteur de compétitivité. On suppose implicitement que les autres entreprises peuvent également identifier des stratégies intelligentes. Les investisseurs préfèrent les entreprises disposant d’avantages déloyaux tels que la propriété intellectuelle, l’échelle, l’accès exclusif aux ressources, etc. La plupart de ces avantages déloyaux ne peuvent être reproduits que par l’intelligence.
3- L’AGI n’est pas possible parce qu’il n’est pas possible de modéliser le cerveau humain
Théoriquement, il est possible de modéliser n’importe quelle machine de calcul, y compris le cerveau humain, par une machine relativement simple capable d’effectuer des calculs de base et disposant d’une mémoire et d’un temps infinis. C’est l’hypothèse de Church-Turing, universellement acceptée, formulée en 1950. Cependant, comme indiqué, elle requiert certaines conditions difficiles : un temps et une mémoire infinis.
La plupart des informaticiens pensent qu’il faudra moins de temps et de mémoire que l’infini pour modéliser le cerveau humain. Néanmoins, il n’existe pas de moyen mathématique de prouver cette croyance, car nous ne comprenons pas suffisamment le cerveau pour comprendre exactement sa puissance de calcul. Il ne nous reste plus qu’à construire une telle machine !
Conférence de Ray Kurzweil sur l’intelligence artificielle générale. L’objectif est d’adopter une approche axée sur l’ingénierie pour étudier les voies potentielles de développement d’une intelligence de niveau humain afin de créer un avenir meilleur.
Joshua Brett Tenenbaum, professeur de sciences cognitives et d’informatique au MIT, explique comment nous pouvons atteindre la singularité de l’AGI.
Comprendre ce qu’est la singularité et pourquoi nous la craignons
L’intelligence artificielle nous effraie et nous intrigue. Presque chaque semaine, les nouvelles font état d’une nouvelle peur de l’IA, comme des développeurs effrayés par ce qu’ils ont créé ou l’arrêt de robots parce qu’ils sont devenus trop intelligents2.
La plupart de ces mythes résultent de recherches mal interprétées par des personnes extérieures aux domaines de l’IA et de la GenAI. La plupart de ces mythes résultent de recherches mal interprétées par des personnes extérieures aux domaines de l’IA et de la GenAI.
La plus grande crainte concernant l’IA est la singularité (également appelée intelligence artificielle générale ou AGI), un système qui combine une pensée de niveau humain avec une mémoire quasi-parfaite rapidement accessible. Selon certains experts, la singularité implique également la conscience de la machine.
Une telle machine pourrait s’améliorer d’elle-même et dépasser les capacités humaines. Même avant que l’intelligence artificielle ne devienne un sujet de recherche en informatique, des auteurs de science-fiction comme Asimov s’en préoccupaient. Ils concevaient des mécanismes (les lois de la robotique d’Asimov) pour garantir la bienveillance des machines intelligentes, ce que l’on appelle plus communément aujourd’hui la recherche sur l’alignement.
Nous avons analysé les prédictions de 8 590 scientifiques, entrepreneurs de premier plan et membres de la communauté pour obtenir des réponses rapides sur l’Intelligence Générale Artificielle (AGI) et la singularité :
L’AGI/singularité se produira-t-elle un jour ? Selon la plupart des experts en IA, oui.
Quand la singularité/AGI se produira-t-elle ? Les enquêtes actuelles des chercheurs en IA prévoient l’apparition de l’AGI vers 2040. Toutefois, quelques années seulement avant les progrès rapides des grands modèles de langage (LLM), les scientifiques la prévoyaient aux alentours de 2060. Les entrepreneurs sont encore plus optimistes, puisqu’ils la prévoient vers 2030.
Quelle est notre situation actuelle ? Bien que l’IA restreinte surpasse les humains dans des tâches spécifiques, il n’existe pas de machine généralement intelligente, même si certains chercheurs pensent que les grands modèles de langage démontrent l’émergence de capacités généralistes.1 Selon notre point de référence AGI, les machines sont loin de générer de la valeur économique de manière autonome.
Cem Dilmegani, l’analyste principal d’AI Multiple Research, a analysé 8 590 prédictions datant d’entre 2009 et 2023, provenant de chercheurs, d’experts en IA et d’entrepreneurs. La plupart des personnes interrogées s’accordent sur le fait que l’IAG surviendra un jour. Quant à la question de savoir quand elle arrivera, les chercheurs estiment que cela pourrait être d’ici 2040, tandis que les entrepreneurs la prédisent vers 2030. Certains acteurs de la technologie, comme Dario Amodei, chercheur en IA et PDG d’Anthropic, pense même qu’elle pourrait arriver dès 2026. Credit trustmyscience
Adaptation Terra Projects
Source : https://research.aimultiple.com/
(68)
Laisser un commentaire
Vous devez vous connecter pour publier un commentaire.