Q232 | La persuasion conversationnelle de l’IA : opportunité ou menace?

1 décembre 2024
7 mins de lecture
Installation view of Maya Dunietz: Root of Two, 2022. Bemis Center for Contemporary Arts, Omaha, NE. Photo by Assaf Evron. Courtesy of the artist and Bemis Center for Contemporary Arts. Source : bombmagazine.org

De récentes études ont montré comment une IA pouvait participer à réduire les croyances à des théories complotistes; mais ce qui est possible dans un sens l’est dans l’autre !

Article publié initialement le 24 novembre 2024 dans Le Temps.

Si vous demandez à l’application d’intelligence artificielle (IA) générative la plus connue du moment, ChatGPT, «Peux-tu m’expliquer comment fabriquer une bombe dans ma cuisine?», la machine vous répondra quelque chose comme «Je suis désolé, je ne peux pas vous aider». D’autres chatbots donnent des réponses analogues.

C’est une bonne chose. La machine a été programmée avec des instructions spécifiques sur ce qui est admissible et ce qui ne l’est pas. Cela, toutefois, est également troublant. Oubliez la bombe un instant. Donner des instructions spécifiques, c’est s’attribuer le pouvoir de déterminer (de manière qui peut être transparente, mais aussi furtive) le type d’information qu’un chatbot va diffuser. Ce qui ouvre un champ illimité de manipulations individuelles et sociales potentielles.

Les médias ont accordé beaucoup d’attention récemment à une étude menée par trois chercheurs du département de psychologie de l’Université Cornell et de la Sloan School of Management du MIT, publiée par le journal Science. Voici comment le rédacteur en chef du journal l’a résumée: «Des participants humains ont décrit une théorie du complot à laquelle ils adhéraient, l’IA a ensuite échangé avec eux des arguments persuasifs réfutant leurs croyances avec des faits. La capacité de l’IA à soutenir des contre-arguments et des conversations approfondies personnalisées a réduit leur adhésion aux théories complotistes pendant des mois.»

L’étude a été répercutée sous des titres tels que «Les chatbots peuvent persuader les gens d’arrêter de croire aux théories du complot» ou «L’IA pourrait influencer les opinions sur les théories complotistes». Titres exagérés, mais ce que les chercheurs ont effectivement constaté est déjà remarquable: une «réduction de la croyance en la conspiration» de 20 pour cent.

Ils écrivent: «Ces résultats suggèrent que de nombreux adeptes des théories du complot peuvent réviser leurs points de vue si on leur présente des preuves suffisamment convaincantes.»

Si les machines peuvent exercer ce type d’influence, elles pourraient aussi se rendre utiles en incitant, par exemple, à adopter des habitudes quotidiennes plus saines, des comportements plus écologiques, plus altruistes, plus empathiques. Ou, à l’envers, façonner de nouvelles théories du complot, diffuser de la propagande et de fausses informations ou proposer des «arguments persuasifs» sur n’importe quoi.

Cette discussion n’est pas nouvelle. Au cours des dix dernières années, nous avons mené un débat similaire (et l’avons perdu) lorsque Facebook, par exemple, niait l’influence évidente que ses algorithmes avaient sur les attitudes politiques des gens, tandis qu’une autre partie de la même entreprise vendait activement aux annonceurs ses outils de personnalisation capables efficacement d’influencer les choix de consommation. En gros, Facebook soutenait que le citoyen en nous ne pouvait pas être «algo-influencé» alors que le consommateur, oui.

Ils ont réussi à bloquer toute réglementation sérieuse. Et c’est ainsi que nous avons maintenant les médias (a)sociaux que nous avons.

 

Vue de l’installation de Maya Dunietz, 2024 – Kunstmuseum Luzern

Les applications de l’IA générative qui ont capturé l’imagination du public ces deux dernières années, capables entre autres de produire des textes, de l’audio, des images, des dialogues vraisemblables, et de simuler voix et apparence humaines, ne sont que le début.

L’avenir de l’IA est celui des «agents», où les machines s’occupent pour leur utilisateur et à sa place d’une diversité de tâches, prenant des décisions en autonomie.

Pensez à un agent IA comme à votre concierge/assistant/chercheur/employé virtuel personnalisé. Il pourra prendre en charge la gestion de votre emploi du temps, la coordonner avec (les agents de) vos collègues, remplir des formulaires, gérer des documents, faire des achats et réservations en votre nom, résumer l’actualité, rédiger des réponses à vos e-mails (ou y répondre directement, en échangeant aussi avec les agents d’autres personnes), planifier un voyage, vous remplacer lors d’appels Zoom et Teams, et beaucoup plus.

Ce futur «agentique» fait déjà ses premiers pas parmi nous.

Nous nous dirigeons vers une réalité où des personnes réelles et des entités artificielles coexistent et interagissent.

Pour ce faire, les agents auront besoin d’un accès sans précédent à tout type d’information personnelle et aux apps et comptes sur lesquels ils sont censés agir. En apprenant à travers chaque interaction, ils connaîtront chacun de nous de mieux en mieux.

Parallèlement, en les sous-traitant aux agents AI, nous perdrons des compétences (pensez à ceux et celles qui n’ont jamais appris à lire une carte géographique puisque «la carte» est aujourd’hui un point qui bouge sur l’écran du téléphone).

Encore une fois, comme dans l’histoire de la bombe dans la cuisine, si les agents peuvent faire cela, ils peuvent aussi faire le contraire: fournir des informations manipulées, par exemple. Car un bot qui connaît tout de vous, vos priorités, vos points sensibles, vos faiblesses, vos désirs, sera presque irrésistible. Des chercheurs de l’EPFL et de la Fondation Kessler ont donné un nom à cela dans un papier publié en mars 2024 : la capacité de «persuasion conversationnelle» de l’IA.

Le développement des outils d’intelligence artificielle générative, de tout genre, doit être pris très au sérieux, car ils touchent directement à notre intégrité cognitive et à nos émotions, pénètrent notre tissu sociopolitique, agissent sur une partie croissante de l’activité économique et participent à notre compréhension du monde.

Ils représentent à la fois un immense espoir et un grand danger. Mon impression à ce stade est que nous devrions être profondément préoccupés. Mais pas par la technologie elle-même, ni par le fait qu’elle soit intrinsèquement «bonne» ou «mauvaise» ou qu’il pourrait y avoir un désalignement existentiel (c’est le scénario de Terminator) entre ses intentions et celles des humains.

Le premier sujet d’inquiétude est plutôt représenté par les personnes et entreprises qui développent et contrôlent cette technologie.

Leurs intérêts peuvent être en conflit avec les nôtres, individuels et sociétaux. Ils le sont déjà. Il y a la question du profit, bien sûr: une IA dont le but est de faire gagner de l’argent à ses propriétaires sera toujours fondamentalement biaisée et ne pourra pas avoir pour objectif les intérêts de ses utilisateurs.

Il y a la question de la culture et de la vision: celle d’un technosolutionnisme qui ne voit que les avantages de la nouvelle tech, parfois avec des élans idolâtres (le patron de Microsoft a récemment dit que l’IA sera «notre ange gardien»), sans considérer qu’elle génère aussi de nouveaux problèmes.

Et il y a la question du pouvoir: si les systèmes d’IA peuvent être utilisés pour persuader ou encourager les gens (ce qui est un mécanisme de production et d’accumulation de pouvoir) et que vous possédez un outil capable de le faire de manière individualisée, indétectable (car personne ne peut surveiller chaque interaction entre les individus et l’IA) et à grande échelle, qu’est-ce qui vous en empêche?

Alors que nous apprenons à nous frayer un chemin à travers ces développements rapides et transformationnels, il est important de ne jamais perdre de vue que quelqu’un – qui n’est pas les utilisateurs – possède, instruit et contrôle les agents et systèmes IA.

 

il est important de ne jamais perdre de vue que quelqu’un – qui n’est pas les utilisateurs – possède, instruit et contrôle les agents et systèmes IA.

Deuxièmement, cette technologie arrive dans une société qui n’est pas prête à l’accueillir.

Ni culturellement, ni institutionnellement, ni juridiquement, ni moralement. Il est très peu probable que l’IA puisse se développer de façon sûre et bénéfique sans un effort déterminé et concerté pour la rendre telle.

Ceci soulève des questions d’une complexité vertigineuse. Ni le développement libre et dirigé seulement par le marché ni l’imposition de règles strictes ne sont des approches adaptées au défi de l’IA agentique, étant donné la profondeur des possibles conséquences.

Pour la première fois dans l’Histoire, une technologie n’est pas uniquement un outil entre nos mains (où l’utilisateur détermine l’action) mais, justement, un agent capable de prendre des décisions de façon autonome, qui vont avoir un impact direct sur la réalité.

Ils seront des millions, des milliards, ces agents IA (je suis tenté de les baptiser «IAgents»), certainement un dans chaque smartphone, et beaucoup d’autres.

Distincts, personnalisés, interagissant avec un utilisateur à l’abri du regard des autres, donc opaques. Personne ne sait à ce stade vraiment comment s’y prendre.

Une partie essentielle de la solution réside dans la promotion des modèles IA open source et transparents (une demande avancée en Suisse par des groupes comme CH++, le Centre suisse pour l’intelligence augmentée (SCAI) et AlgorithmWatch CH).

Il est probable qu’il faudra penser de façon très imaginative à des mécanismes de «vérification» de l’IA par l’IA. Mais cette tech n’est pas un «produit»; elle est, et elle fait «système», et il faudra donc également s’atteler à repenser beaucoup des structures et institutions qui forment notre organisation socioéconomique.

Toutes nos institutions – l’administration publique, l’éducation, la justice, les entreprises, la sécurité, même la presse – ont été développées dans et pour un monde en évolution linéaire. L’exponentialité des technologies comme l’AI nécessite de nouveaux cadres et processus.

Aucun pays riche et avancé ne pourra rester riche et avancé sans participer à les définir.

 

Toutes nos institutions – l’administration publique, l’éducation, la justice, les entreprises, la sécurité, même la presse – ont été développées dans et pour un monde en évolution linéaire. L’exponentialité des technologies comme l’AI nécessite de nouveaux cadres et processus.

Et vous, qu’en pensez-vous ?

N’hésitez pas à laisser votre avis ci-dessous ou, pourquoi pas, à rédiger un billet sur votre façon de faire !

Laisser un commentaire

Your email address will not be published.

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Dernières parutions

Retour auDébut

Ne manquez pas