Un monde de réseaux sociaux envahit par des « essaims » d’IA
Des « essaims » d’IA de nouvelle génération envahiront les réseaux sociaux en imitant le comportement humain et en harcelant les utilisateurs, préviennent des chercheurs. Des experts en intelligence artificielle ont averti que des « essaims » d’IA sont sur le point d’infiltrer les médias sociaux en déployant des agents qui imitent le comportement humain et exploitent notre tendance à suivre le troupeau.
Des essaims d’ agents d’intelligence artificielle (IA) pourraient bientôt envahir en masse les plateformes de médias sociaux pour diffuser de fausses informations, harceler les utilisateurs et saper la démocratie, avertissent des chercheurs.
Ces « essaims d’IA » constitueront une nouvelle frontière dans la guerre de l’information, capables d’imiter le comportement humain pour éviter d’être détectées tout en créant l’illusion d’un mouvement en ligne authentique, selon un commentaire publié le 22 janvier dans la revue Science.
Imaginez constater que les opinions de votre communauté en ligne préférée se radicalisent autour d’une position qui faisait auparavant l’objet de débats. L’instinct humain nous pousse souvent à suivre l’avis général. Mais dans ce cas précis, cet avis général pourrait être secrètement manipulé par un essaim d’intelligence artificielle agissant pour le compte d’un individu, d’un groupe, d’un parti politique, d’une entreprise ou d’un État inconnu.
« De manière générale, les humains sont conformistes », a déclaré Jonas Kunst, professeur de communication à la BI Norwegian Business School en Norvège et co-auteur de l’article, à Live Science. « Nous rechignons souvent à l’admettre, et les individus sont certes différents, mais toutes choses égales par ailleurs, nous avons tendance à croire que les actions de la majorité ont une certaine valeur. Or, c’est un réflexe que ces foules peuvent facilement instrumentaliser. »
Et si l’on ne se laisse pas emporter par le mouvement de masse, l’essaim pourrait aussi servir d’outil de harcèlement pour décourager les arguments qui remettent en cause le discours de l’IA, ont avancé les chercheurs. Par exemple, l’essaim pourrait imiter une foule en colère pour cibler une personne ayant des opinions dissidentes et la chasser de la plateforme.
Les chercheurs ne donnent aucune indication sur le calendrier de l’invasion des essaims d’IA ; on ignore donc quand les premiers agents apparaîtront sur nos fils d’actualité. Ils ont toutefois souligné que ces essaims seraient difficiles à détecter, et par conséquent, l’ampleur de leur déploiement reste inconnue. Pour beaucoup, les signes de l’influence croissante des bots sur les réseaux sociaux sont déjà manifestes, tandis que la théorie du complot d’un internet mort – selon laquelle les bots seraient responsables de la majorité de l’activité en ligne et de la création de contenu – a gagné du terrain ces dernières années.

Gardien du troupeau
Les chercheurs avertissent que le risque émergent lié aux essaims d’IA est aggravé par des vulnérabilités de longue date dans nos écosystèmes numériques, déjà fragilisés par ce qu’ils décrivent comme « l’érosion du discours rationnel et critique et un manque de réalité partagée entre les citoyens ».
Quiconque utilise les réseaux sociaux sait à quel point ils sont devenus un espace de division. L’écosystème en ligne est déjà saturé de bots automatisés : des comptes non humains exécutés par des logiciels informatiques qui représentent plus de la moitié du trafic web . Les bots classiques sont généralement capables d’effectuer des tâches simples de manière répétitive, comme la publication du même message incendiaire. Ils peuvent certes nuire en diffusant de fausses informations et en alimentant de faux récits, mais ils sont généralement assez faciles à détecter et leur coordination à grande échelle repose sur l’intervention humaine.
Les essaims d’IA de nouvelle génération, quant à eux, sont coordonnés par de grands modèles de langage (LLM) — les systèmes d’IA qui sous-tendent les chatbots populaires. Grâce à un LLM, un essaim sera suffisamment sophistiqué pour s’adapter aux communautés en ligne qu’il infiltre, en y installant des ensembles de personnalités différentes qui conservent mémoire et identité, selon les commentaires.
« Nous en parlons comme d’une sorte d’organisme autosuffisant, capable de se coordonner, d’apprendre, de s’adapter au fil du temps et, de ce fait, de se spécialiser dans l’exploitation des vulnérabilités humaines », a déclaré Kunst.
Cette manipulation de masse est loin d’être hypothétique. L’année dernière, Reddit a menacé de poursuites judiciaires des chercheurs ayant utilisé des chatbots dotés d’intelligence artificielle dans une expérience visant à manipuler les opinions de quatre millions d’utilisateurs de son forum populaire r/changemyview. Selon les résultats préliminaires des chercheurs, les réponses de leurs chatbots étaient de trois à six fois plus persuasives que celles des utilisateurs humains.
Un essaim pourrait contenir des centaines, des milliers, voire un million d’agents d’IA. Kunst a souligné que ce nombre est proportionnel à la puissance de calcul et serait également limité par les restrictions que les réseaux sociaux pourraient imposer pour lutter contre ces essaims.
Mais le nombre d’agents n’est pas le seul facteur. Les essaims pourraient cibler des groupes communautaires locaux qui se méfieraient d’un afflux soudain de nouveaux utilisateurs. Dans ce cas, seuls quelques agents seraient déployés. Les chercheurs ont également noté que, plus sophistiqués que les bots traditionnels, les essaims peuvent avoir une influence plus importante avec un nombre réduit d’agents.
« Je pense que plus ces bots sont sophistiqués, moins on en a réellement besoin », a déclaré à Live Science Daniel Schroeder , auteur principal de l’article et chercheur au sein de l’organisation de recherche technologique SINTEF en Norvège.
Se prémunir contre les robots de nouvelle génération
Les agents bénéficient d’un avantage certain dans les débats avec les utilisateurs réels, car ils peuvent publier 24 heures sur 24, 7 jours sur 7, aussi longtemps que nécessaire pour que leur discours s’impose. Les chercheurs ajoutent que, dans le cadre de la « guerre cognitive », l’acharnement et la persévérance de l’IA peuvent être utilisés comme armes contre les efforts humains limités.
Les entreprises de réseaux sociaux souhaitent de véritables utilisateurs sur leurs plateformes, et non des agents IA. Les chercheurs prévoient donc que ces entreprises réagiront aux essaims d’IA en renforçant l’authentification des comptes, obligeant ainsi les utilisateurs à prouver leur identité. Cependant, les chercheurs ont également souligné certains problèmes liés à cette approche, arguant qu’elle pourrait décourager la dissidence politique dans les pays où les citoyens comptent sur l’anonymat pour s’exprimer contre le gouvernement. Le piratage ou l’acquisition de comptes authentiques complexifie encore davantage la situation. Néanmoins, les chercheurs ont noté que le renforcement de l’authentification rendrait le déploiement d’essaims d’IA plus difficile et plus coûteux.
Les chercheurs ont également proposé d’autres mesures de défense contre les essaims d’IA, comme l’analyse du trafic en temps réel afin de détecter des anomalies statistiques pouvant indiquer la présence d’essaims d’IA, ainsi que la mise en place d’un écosystème d’« Observatoire de l’influence de l’IA », au sein duquel des groupes universitaires, des ONG et d’autres institutions pourraient étudier la menace que représentent les essaims d’IA, sensibiliser le public et y répondre. En résumé, les chercheurs souhaitent anticiper le problème avant qu’il ne perturbe les élections et autres événements d’envergure.
« Nous sommes en mesure d’alerter, avec une quasi-certitude, sur une évolution future qui pourrait avoir des conséquences disproportionnées pour la démocratie, et nous devons commencer à nous y préparer », a déclaré Kunst. « Nous devons être proactifs au lieu d’attendre que les premiers événements majeurs soient influencés négativement par des essaims d’IA. »
Adaptation Terra Projects
Source : https://www.livescience.com/
(0)

Laisser un commentaire
Vous devez vous connecter pour publier un commentaire.