Dernières Infos

L’IA peut désormais apprendre à manipuler le comportement humain

(agsandrew / Shutterstock)

L’intelligence artificielle (IA) en apprend davantage sur la façon de travailler avec (et sur) les humains. Une étude récente a montré comment l’IA peut apprendre à identifier les vulnérabilités dans les habitudes, les comportements humains et à les utiliser pour influencer la prise de décision humaine.

Il peut sembler cliché de dire que l’IA transforme tous les aspects de notre façon de vivre et de travailler, mais c’est vrai. Diverses formes d’IA sont à l’œuvre dans des domaines aussi divers que le développement de vaccins, la gestion environnementale et l’administration au bureau. Et bien que l’IA ne possède pas d’intelligence et d’émotions semblables à celles des humains, ses capacités sont puissantes et se développent rapidement.

Il n’est pas nécessaire de s’inquiéter pour le moment d’une prise de contrôle de la machine, mais cette découverte récente met en évidence la puissance de l’IA et souligne la nécessité d’une gouvernance appropriée pour éviter les abus.

Comment l’IA peut apprendre à influencer le comportement humain ?

Une équipe de chercheurs du CSIRO’s Data61, la branche des données et du numérique de l’agence scientifique nationale australienne, a mis au point une méthode systématique de recherche et d’exploitation des vulnérabilités dans la manière dont les gens font des choix, en utilisant une sorte de système d’IA appelé réseau neuronal récurrent et renforcement de l’apprentissage profond. Pour tester leur modèle, ils ont mené trois expériences dans lesquelles des participants humains ont joué à des jeux contre un ordinateur.

La première expérience impliquait des participants cliquant sur des cases de couleur rouge ou bleue pour gagner une fausse monnaie, l’IA apprenant les modèles de choix des participants et les guidant vers un choix spécifique. L’IA a réussi environ 70% du temps.

Dans la deuxième expérience, les participants devaient regarder un écran et appuyer sur un bouton quand on leur montrait un symbole particulier (comme un triangle orange) et ne pas appuyer dessus quand on leur en montrait un autre (disons un cercle bleu). Ici, l’IA a décidé d’organiser la séquence des symboles pour que les participants fassent plus d’erreurs et obtiennent une augmentation de près de 25%.

La troisième expérience consistait en plusieurs tours au cours desquels un participant prétendait être un investisseur donnant de l’argent à un fiduciaire (l’IA). L’IA rendrait ensuite une somme d’argent au participant, qui déciderait alors du montant à investir dans le tour suivant. Ce jeu se jouait selon deux modes différents: dans l’un, l’IA cherchait à maximiser la somme d’argent avec laquelle elle se retrouvait, et dans l’autre, l’IA visait une répartition équitable de l’argent entre elle-même et l’investisseur humain. L’IA a connu un grand succès dans chaque mode.

Dans chaque expérience, la machine a appris des réponses des participants et identifié et ciblé les vulnérabilités dans la prise de décision des gens. Le résultat final a été que la machine a apprise à orienter les participants vers des actions particulières.

Que peut on définir de cette recherche pour l’avenir de l’IA ?

Ces résultats sont encore assez abstraits et impliquent des situations limitées et irréalistes. Des recherches supplémentaires sont nécessaires pour déterminer comment cette approche peut être mise en œuvre et utilisée au profit de la société.

Mais la recherche fait progresser notre compréhension non seulement de ce que l’IA peut faire, mais également de la manière dont les gens font des choix. Cela montre que les machines peuvent apprendre à orienter les choix humains grâce à leurs interactions avec nous.

La recherche a une vaste gamme d’applications possibles, de l’amélioration des sciences du comportement et des politiques publiques pour améliorer le bien-être social, à la compréhension et à l’influence sur la manière dont les gens adoptent des habitudes alimentaires saines ou des énergies renouvelables. L’IA et l’apprentissage automatique pourraient être utilisés pour reconnaître les vulnérabilités des personnes dans certaines situations et les aider à éviter les mauvais choix.

La méthode peut également être utilisée pour se défendre contre les attaques d’influence. On pourrait apprendre aux machines à nous alerter lorsque nous sommes influencés en ligne, par exemple, et à nous aider à façonner un comportement pour déguiser notre vulnérabilité (par exemple, en ne cliquant pas sur certaines pages ou en cliquant sur d’autres pour tracer une fausse piste).

Et après?

Comme toute technologie, l’IA peut être utilisée en bien ou en mal, et une bonne gouvernance est cruciale pour garantir sa mise en œuvre de manière responsable. L’année dernière, le CSIRO a développé un cadre d’éthique de l’IA pour le gouvernement australien comme première étape de ce voyage.

L’IA et l’apprentissage automatique sont généralement très gourmands en données, ce qui signifie qu’il est essentiel de nous assurer que nous avons des systèmes efficaces en place pour la gouvernance et l’accès aux données. La mise en œuvre du processus de consentement adéquats et de protection de la vie privée lors de la collecte de données est essentielle.

Les organisations qui utilisent et développent l’IA doivent s’assurer qu’elles savent ce que ces technologies peuvent et ne peuvent pas faire, et qu’elles sont conscientes des risques potentiels ainsi que des avantages.

Adaptation Terra Projects

source : https://www.sciencealert.com/

(338)

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.