banner
Centre d'Information
Notre certification ISO garantit la satisfaction de nos clients.

Comment l'IA pourrait prendre le contrôle des élections

Jun 17, 2023

Une campagne politique basée sur l'IA pourrait être tout pour tout le monde

L'essai suivant est reproduit avec la permission de The Conversation, une publication en ligne couvrant les dernières recherches. Il a été modifié par les rédacteurs de Scientific American et peut être différent de l'original.

Les organisations pourraient-elles utiliser des modèles de langage d'intelligence artificielle tels que ChatGPT pour inciter les électeurs à se comporter de manière spécifique ?

Le sénateur Josh Hawley a posé cette question au PDG d'OpenAI, Sam Altman, lors d'une audience du Sénat américain sur l'intelligence artificielle le 16 mai 2023. Altman a répondu qu'il craignait en effet que certaines personnes utilisent des modèles linguistiques pour manipuler, persuader et s'engager dans des interactions individuelles avec les électeurs.

Voici le scénario qu'Altman aurait pu envisager/avoir en tête : Imaginez que bientôt, des technologues politiques développent une machine appelée Clogger – une campagne politique dans une boîte noire. Clogger poursuit sans relâche un seul objectif : maximiser les chances que son candidat – la campagne qui achète les services de Clogger Inc. – l'emporte lors d'une élection.

Alors que des plateformes comme Facebook, Twitter et YouTube utilisent des formes d'IA pour amener les utilisateurs à passer plus de temps sur leurs sites, l'IA de Clogger aurait un objectif différent : changer le comportement de vote des gens.

En tant que politologue et juriste qui étudie l'intersection de la technologie et de la démocratie, nous pensons que quelque chose comme Clogger pourrait utiliser l'automatisation pour augmenter considérablement l'échelle et potentiellement l'efficacité des techniques de manipulation du comportement et de microciblage que les campagnes politiques ont utilisées depuis le début des années 2000. . Tout comme les annonceurs utilisent votre historique de navigation et de médias sociaux pour cibler individuellement les publicités commerciales et politiques, Clogger prêterait attention à vous - et à des centaines de millions d'autres électeurs - individuellement.

Il offrirait trois avancées par rapport à la manipulation de comportement algorithmique de pointe actuelle. Tout d'abord, son modèle de langage générerait des messages - textes, médias sociaux et e-mails, comprenant peut-être des images et des vidéos - adaptés à vous personnellement. Alors que les annonceurs placent stratégiquement un nombre relativement restreint d'annonces, les modèles linguistiques tels que ChatGPT peuvent générer d'innombrables messages uniques pour vous personnellement - et des millions pour les autres - au cours d'une campagne.

Deuxièmement, Clogger utiliserait une technique appelée apprentissage par renforcement pour générer des messages qui deviennent de plus en plus susceptibles de changer votre vote. L'apprentissage par renforcement est une approche d'apprentissage automatique, d'essais et d'erreurs dans laquelle l'ordinateur prend des mesures et obtient des commentaires sur ce qui fonctionne le mieux afin d'apprendre comment atteindre un objectif. Les machines qui peuvent jouer au go, aux échecs et à de nombreux jeux vidéo mieux que n'importe quel humain ont utilisé l'apprentissage par renforcement. l'esprit des autres. Clogger poursuivrait des "conversations" dynamiques avec vous - et des millions d'autres personnes - au fil du temps. Les messages de Clogger seraient similaires aux publicités qui vous suivent sur différents sites Web et médias sociaux.

Trois autres fonctionnalités - ou bogues - méritent d'être notées.

Premièrement, les messages envoyés par Clogger peuvent ou non être politiques. Le seul objectif de la machine est de maximiser la part des votes, et elle élaborerait probablement des stratégies pour atteindre cet objectif qu'aucun militant humain n'aurait envisagées.

Une possibilité consiste à envoyer aux électeurs opposants probables des informations sur les passions non politiques qu'ils ont dans le sport ou le divertissement pour enterrer les messages politiques qu'ils reçoivent. Une autre possibilité consiste à envoyer des messages rebutants – par exemple des publicités sur l'incontinence – programmés pour coïncider avec les messages des adversaires. Et un autre manipule les groupes de médias sociaux des électeurs pour donner l'impression que leur famille, leurs voisins et leurs amis soutiennent son candidat.

Deuxièmement, Clogger n'a aucun respect pour la vérité. En effet, il n'a aucun moyen de savoir ce qui est vrai ou faux. Les "hallucinations" du modèle de langage ne sont pas un problème pour cette machine car son objectif est de modifier votre vote, pas de fournir des informations précises.

Enfin, comme il s'agit d'une intelligence artificielle de type boîte noire, les gens n'auraient aucun moyen de savoir quelles stratégies elle utilise.

Si la campagne présidentielle républicaine devait déployer Clogger en 2024, la campagne démocrate serait probablement obligée de répondre en nature, peut-être avec une machine similaire. Appelez-le Dogger. Si les directeurs de campagne pensaient que ces machines étaient efficaces, le concours présidentiel pourrait bien se résumer à Clogger contre Dogger, et le gagnant serait le client de la machine la plus efficace.

Le contenu qui a remporté la journée proviendrait d'une IA axée uniquement sur la victoire, sans idées politiques propres, plutôt que de candidats ou de partis. Dans ce sens très important, une machine aurait remporté l'élection plutôt qu'une personne. L'élection ne serait plus démocratique, même si toutes les activités ordinaires de la démocratie - les discours, les publicités, les messages, le vote et le dépouillement des votes - auront eu lieu.

Le président élu par l'IA pourrait alors emprunter l'une des deux voies. Il ou elle pourrait utiliser le manteau de l'élection pour poursuivre les politiques des partis républicains ou démocrates. Mais parce que les idées du parti n'ont peut-être pas grand-chose à voir avec la raison pour laquelle les gens ont voté comme ils l'ont fait – Clogger et Dogger ne se soucient pas des opinions politiques – les actions du président ne refléteraient pas nécessairement la volonté des électeurs. Les électeurs auraient été manipulés par l'IA plutôt que de choisir librement leurs dirigeants politiques et leurs politiques.

Une autre voie consiste pour le président à poursuivre les messages, les comportements et les politiques qui, selon la machine, maximiseront les chances de réélection. Sur cette voie, le président n'aurait pas de plate-forme ou d'agenda particulier au-delà du maintien au pouvoir. Les actions du président, guidées par Clogger, seraient les plus susceptibles de manipuler les électeurs plutôt que de servir leurs véritables intérêts ou même la propre idéologie du président.

Il serait possible d'éviter la manipulation électorale par l'IA si les candidats, les campagnes et les consultants renonçaient tous à l'utilisation d'une telle IA politique. Nous pensons que c'est peu probable. Si des boîtes noires politiquement efficaces étaient développées, les pressions concurrentielles rendraient leur utilisation presque irrésistible. En effet, les consultants politiques pourraient bien voir utiliser ces outils comme l'exige leur responsabilité professionnelle pour faire gagner leurs candidats. Et une fois qu'un candidat utilise un outil aussi efficace, on ne peut guère s'attendre à ce que les opposants résistent en désarmant unilatéralement.

Une meilleure protection de la vie privée serait utile. Clogger dépendrait de l'accès à de grandes quantités de données personnelles afin de cibler les individus, de créer des messages adaptés pour les persuader ou les manipuler, et de les suivre et de les recibler au cours d'une campagne. Chaque partie de ces informations que les entreprises ou les décideurs nient à la machine la rendrait moins efficace.

Une autre solution réside dans les commissions électorales. Ils pourraient essayer d'interdire ou de réglementer sévèrement ces machines. Il y a un débat féroce sur la question de savoir si un tel discours "réplicant", même s'il est de nature politique, peut être réglementé. La tradition de liberté d'expression extrême des États-Unis conduit de nombreux universitaires de premier plan à dire que ce n'est pas le cas.

Mais il n'y a aucune raison d'étendre automatiquement la protection du premier amendement au produit de ces machines. La nation pourrait bien choisir de donner des droits aux machines, mais cela devrait être une décision fondée sur les défis d'aujourd'hui, et non sur l'hypothèse erronée selon laquelle les vues de James Madison en 1789 étaient censées s'appliquer à l'IA.

Les régulateurs de l'Union européenne vont dans ce sens. Les décideurs politiques ont révisé le projet de loi sur l'intelligence artificielle du Parlement européen pour désigner les "systèmes d'IA pour influencer les électeurs dans les campagnes" comme "à haut risque" et soumis à un examen réglementaire.

Une étape constitutionnellement plus sûre, bien que plus petite, déjà adoptée en partie par les régulateurs européens de l'internet et en Californie, consiste à interdire aux bots de se faire passer pour des personnes. Par exemple, la réglementation peut exiger que les messages de campagne soient accompagnés de clauses de non-responsabilité lorsque le contenu qu'ils contiennent est généré par des machines plutôt que par des humains.

Cela ressemblerait aux exigences de la clause de non-responsabilité publicitaire - "Payé par le comité Sam Jones pour le Congrès" - mais modifié pour refléter son origine IA : "Cette publicité générée par l'IA a été payée par le comité Sam Jones pour le Congrès". Une version plus forte pourrait exiger : "Ce message généré par l'IA vous est envoyé par le comité Sam Jones pour le Congrès, car Clogger a prédit que cela augmenterait vos chances de voter pour Sam Jones de 0,0002 %." À tout le moins, nous pensons que les électeurs méritent de savoir quand c'est un bot qui leur parle, et ils devraient également savoir pourquoi.

La possibilité d'un système comme Clogger montre que le chemin vers la déresponsabilisation collective humaine peut ne pas nécessiter une intelligence générale artificielle surhumaine. Cela pourrait simplement nécessiter des militants et des consultants trop enthousiastes qui disposent de nouveaux outils puissants capables de pousser efficacement les nombreux boutons de millions de personnes.

Il s'agit d'un article d'opinion et d'analyse, et les opinions exprimées par l'auteur ou les auteurs ne sont pas nécessairement celles de Scientific American.

Cet article a été initialement publié sur The Conversation. Lire l'article d'origine.

Archonte Fungest titulaire de la chaire Winthrop Laflin McCormack de citoyenneté et de démocratie à la Kennedy School of Government de l'Université de Harvard.

Laurent Lessigest professeur de droit Roy L. Furman à la faculté de droit de Harvard.

Meghan Bartels et Andrea Thompson

Les rédacteurs

Rina Diane Caballar

Archon Fung, Lawrence Lessig et The Conversation US

Clara Moskowitz

Flora Lichtmann

Archonte Fung Lawrence Lessig