Cas pratique IA : Un meilleur contrôle de la part des géants de la technologie

David Licoppe
De David Licoppe 12 min de lecture
12 min de lecture

Intelligence Artificielle et Politique: Opportunités et risques pour les campagnes électorales

Du contenu vraisemblable généré automatiquement aux deep fakes, l’IA cristallise autant les espoirs qu’elle fait peur. Et lorsqu’il s’agit de la politique, dont dépend le quotidien de tous, la pression monte d’un cran. Pour réduire les marges d’erreur, les grands groupes technologiques ont accepté de réunir leurs forces contre la désinformation de masse. 

Dans cet article, vous découvrirez l’étendue des potentialités de l’IA pour la sphère politique, ses risques, ainsi que les meilleures méthodes pour les juguler dans l’œuf.   

Quelle est l’utilité de l’IA pour l’organisation des campagnes politiques ?

  • L’analyse massive de données
  • La prédiction comportementale
  • L’adaptation des messages aux cibles
  • L’optimisation des campagnes1

Et ce n’est pas tout ! Plusieurs activités importantes de l’action politique sont facilitées par l’IA. 

L’ultra personnalisation des messages adressés aux électeurs

Le cas Trump

Grâce à l’analyse des données fournie par Cambridge Analytica2, l’équipe de Trump avait accès aux singularités et aux préférences des électeurs en 2016. Des messages personnalisés leur ont ensuite été envoyés via plusieurs plateformes, incluant les réseaux sociaux. 

Le cas Biden

Durant sa campagne de 2020, l’équipe de Biden s’est servi de plusieurs éléments fournis par l’IA pour personnaliser leurs messages :

  • Les données démographiques
  • Le comportement général en ligne
  • Les habitudes de vote
  • La prédiction comportementale

Les messages diffusés ont été ensuite adaptés, et les campagnes ont été optimisées grâce à l’IA. 

L’impact sur les réseaux sociaux et les campagnes en ligne

La gestion des campagnes en ligne et sur les réseaux sociaux

  • La détection des meilleures plages horaires de distribution des messages
  • La prédiction des meilleurs taux d’engagement
  • L’usage d’outils perfectionnés

Les baromètres d’opinions

  • La surveillance des tendances en temps réel
  • La surveillance des tendances
  • L’évaluation émotionnelle
  • L’adaptation du contenu en ligne et de la tonalité des interactions

Le recrutement des donateurs et les collectes de fonds

  • Identifier les donateurs
  • Prédire leur sensibilité à la cause
  • Personnaliser les interactions
  • Faciliter le processus de don

La catégorisation des électeurs et les sondages

Des sondages plus précis

  • Information en temps réel
  • Analyses des conversations en ligne
  • Enquêtes détaillées
  • Tracking de l’opinion publique

Une analyse prédictive

  • Les données démographiques
  • Les habitudes de vote
  • Les suggestions d’allocations productive des ressources

La future révolution de l’IA pour les campagnes politiques

L’analyse basée sur l’apprentissage profond

  • Présenter un aperçu des sujets de société importants pour les électeurs
  • Analyser les discours et les débats
  • Améliorer les stratégies de communication

L’élaboration des politiques

  • L’analyse de bases de données étendues
  • Les prédictions d’impact des décisions politiques
  • Validation des propositions des candidats politiques

Les assistants de campagne virtuels 

  • Interactions avec les électeurs
  • Réponses pertinentes aux préoccupations
  • Fourniture d’informations détaillées sur chaque candidat

L’assistance de sécurité de l’information

  • La détection et le signalement de la désinformation en temps réel
  • Le renforcement des mesures de sécurité électronique
  • Cybersécurité :  la protection des données sensibles

L’usage de l’IA pour les élections politiques comporte toutefois des risques.

Quels sont les risques de l’IA pour la politique moderne et les élections ?

Le plus tristement célèbre des risques de l’IA est la désinformation ou Fake News. Concernant les activités politiques, ceux-ci sont principalement de deux ordres3 : les attaques de bots et la manipulation des masses.

Les attaques de bots

  • Infiltrations d’espaces privés d’électeurs
  • Diffusion massive de contenu non sollicité
  • Étouffement des tendances authentiques initiées par les électeurs humains
  • Fuites d’informations
  • Falsification de documents
  • Domination des flux d’actualités et des réseaux sociaux

La manipulation des masses

  • Campagnes ciblées de recrutement des électeurs les plus persuasifs
  • L’influence des émotions via des messages personnalisés sourcés dans le big data pour atteindre leurs déclencheurs émotionnels
  • La guerre informationnelle : faire passer des informations vraies pour fausses ou dissuader les électeurs d’exercer leur droit de vote

Quelques exemples qui ont fait date

  • Fin janvier 2023 : Le faux message téléphonique du président Biden avant les récentes primaires du New Hampshire
  • Juin 2023 : les images générées par l’IA montrant Donald Trump, sur l’initiative de Ron DeSantis, candidat à la primaire républicaine et gouverneur de Floride
  • Septembre 2023 : un audio généré par l’IA, accusant Michal Šimečka de vouloir acheter les électeurs roms a  bouleversé les élections locales slovaques4 après avoir été massivement diffusé

Quelles sont les stratégies de défense contre les dérives de l’IA lors des élections politiques ?

Première année essentiellement électorale depuis l’explosion des abus liés à l’IA, 2024 fera office d’année-test. Plusieurs bonnes pratiques peuvent prévenir et éliminer les dérives 

Concernant la conception et l’ergonomie des outils IA

La généralisation des solutions techniques existantes et l’investissement dans l’amélioration continue 

  • Les outils actuels ont des performances très moyennes
  • Ils sont axés sur la provenance du contenu et les filigranes
  • Le développement de technologies massives plus efficace est essentiel

Une législation plus forte concernant l’environnement politique

  • Limiter ou renforcer la responsabilité liée au contenu généré par l’IA concernant les candidats aux élections
  • La mise à jour ou l’ajout de restrictions supplémentaires
  • Faire une nette distinction entre le contenu généré par l’IA et les contenus authentiques

De lourdes barrières à l’entrée

  • L’établissement de processus de validation supplémentaires pour l’utilisation de l’image des candidats actuels aux élections pour générer du contenu avec l’IA
  • Le renforcement du traçage des contenus générés par l’IA contenant des informations des candidats actuels aux élections
  • Les candidats devront fournir des informations complémentaires s’ils souhaitent créer du contenu avec l’IA

Concernant la diffusion des contenus générés par l’IA

Combler les lacunes des médias affectés par les manipulations basées sur l’IA

  • Mettre à jour les politiques internes des éditeurs et des médias sociaux
  • Admettre une marge d’erreur (pourcentage) raisonnable

Une collaboration renforcée

  • Entre les créateurs d’IA
  • Entre les créateurs d’IA et les réseaux sociaux
  • Entre les médias sociaux
  • Avec les autorités compétentes

Concernant l’identification (détection) des contenus

Renforcer les performances des outils existants

  • La probabilité des faux positifs et négatifs est élevée
  • Améliorer les approches de détection
  • Mettre les bailleurs de fonds à contribution

Une meilleure collaboration entre le monde de la recherche et les médias sociaux

  • Un accès élargi des chercheurs aux données des médias sociaux
  • Une meilleure identification des opérations
  • Une évaluation interne et externe plus précise
  • Une diversification des profils des chercheurs admis pour les travaux d’évaluation

La généralisation de l’éducation concernant la technologie IA

Les pôles d’attention et personnalités influentes doivent diffuser massivement les informations nécessaires pour aider les utilisateurs à identifier et rejeter les manipulations électorales basées sur l’IA. En tête de liste, nous trouvons :

  • Les responsables électoraux
  • Les médias sociaux
  • Les entreprises technologiques

Pour renforcer leur impact, les acteurs technologiques ont choisi de fédérer leurs efforts. 

Quels sont les engagements des acteurs technologiques pour résoudre le problème ?

Les acteurs technologiques majeurs impliqués dans l’IA , dont Meta, Microsoft, Google, OpenAI, TikTok et Adobe, ont décidé de travailler ensemble. Il s’agit de freiner l’utilisation de l’IA dans des contenus susceptibles d’influencer négativement les élections courant 2024 et par la suite. Les premiers résultats de ces rencontres étaient attendus pendant la conférence de Munich sur la sécurité (MSC), du 16 au 18 février 2024. 

En cette année cruciale sur le plan électoral », avec des scrutins majeurs prévus aux Etats-Unis, au Royaume-Uni, en Inde, en Union européenne ou en Russie, « les entreprises technologiques travaillent de concert afin de combattre l’utilisation de l’IA pour tromper les électeurs

Le porte-parole de Meta à l’AFP

Les questions fréquentes sur le sujet

Qu’est-ce qu’un bot IA de désinformation politique ? 

Un bot IA de désinformation politique est un compte programmé pour des actions politiques. Il est autonome et se déguise en compte humain ordinaire. Grâce à son déguisement, il peut diffuser massivement des messages sur les réseaux sociaux, faisant croire à un soutien massif des électeurs à un candidat. Il peut également diffuser des Fake News et développer un climat politique délétère en ligne.  

Qu’est-ce qu’une démocratie authentique au regard de la technologie ?

Une démocratie authentique doit être représentative. Autrement dit, les élections doivent se tenir de manière libre et équitable. Les électeurs doivent être protégés de toute manipulation émotionnelle ou propagande extrémiste. Les citoyens doivent pouvoir voter selon leur conscience et sans intimidation. 

Comment identifier une Fake News IA électorale sur les réseaux sociaux ?

Pour la vidéo :

* La synchronisation entre l’audio et la vidéo
* Les éventuelles pauses de la personne affichée
* Le naturel des gestes

Pour l’audio :

* Le ton de la voix
* La prononciation des mots
* Le vocabulaire
* Les moments et la durée des pauses
* Les expressions de langage
* Les erreurs de langage

Pour les images :

* L’arrière-plan
* Le nombre de doigts des personnes
* Les reflets dans les miroirs

Les méthodes citées ne sont pas exhaustives.  

Qui peut lancer une campagne de désinformation durant les élections ?

Avec des connaissances basiques, Monsieur et Madame tout le monde peut créer des Fake News générées par l’IA. Et il ne s’agit là que de l’un des problèmes concernant le détournement de l’utilisation de l’IA en milieu politique.  

Une année animée ou cauchemardesque ?

Avec un nombre important d’élections locales de prévues, 2024 pourrait être une année simplement animée ou au contraire, un véritable cauchemar lié à la désinformation de masse par l’IA. Dans un cas comme dans l’autre, tout dépendra de l’usage qui sera fait de cette technologie.

  • L’IA améliore la productivité des candidats aux élections électorales
  • Cependant, elle est parfois détournée pour manipuler les suffrages des masses
  • Face aux dérives, des stratégies de prévention et de défense sont à l’étude
  • Les entreprises technologiques réunissent leurs efforts pour renforcer la cybersécurité à l’échelle mondiale

Quoi qu’il en soit, “la confiance n’exclut pas le contrôle.” Par conséquent, un suivi de proximité minutieux s’impose pour que les parties à cet engagement collectif tiennent leurs promesses.  


Références :

  1. The AI factor in political campaigns: revolutionizing modern politics, Forbes. Publié le 12 janvier 2024. Consulté le 26 février 2024. ↩︎
  2. How Trump Consultants Exploited the Facebook Data of Millions, The New York Times. Publié le 17 mars 2018. Consulté le 26 février 2024. ↩︎
  3. The good, the bad and the ugly uses of machine learning for election campaigns, Centre for Public Impact. Publié le 30 août 2017. Consulté le 26 février 2024. ↩︎
  4. The impact of generative AI in a global election year, Brookings. Publié le 30 janvier 2024. Consulté le 26 février 2024. ↩︎
Partagez cet article