Modifié

Les démocraties face à la menace des nouveaux outils d’intelligence artificielle

ChatGPT a dévoilé la capacité SORA qui crée des vidéos à partir d'une phrase de texte. [Reuters - Dado Ruvic/illustration]
La démocratie à l’épreuve de l’intelligence artificielle / Tout un monde / 8 min. / le 16 février 2024
Les outils d'intelligence artificielle posent un défi grandissant aux démocraties, la désinformation devenant de plus en plus facile et performante durant les campagnes électorales. Les géants du numérique rechignent pour l'heure à agir, tant pour des raisons économiques qu'idéologiques.

Professeure de technologies et de régulation à l'université d'Oxford, Sandra Wachter met en garde: "Les nouvelles technologies pourraient être utilisées à mauvais escient pour tenter de manipuler les gens afin qu'ils adoptent certains comportements électoraux."

Avec l'essor des solutions simples et accessibles d'intelligence artificielle générative, le risque de manipulation des opinions ou du débat public a clairement augmenté cette année. "Il est très facile de créer des deepfakes ou du faux contenu. Il y a donc un risque réel que certains acteurs utilisent cette technologie pour perturber les processus démocratiques", prévient l'experte vendredi dans l'émission Tout un monde.

Une menace déjà bien concrète

Les contenus trompeurs prolifèrent déjà. Parmi les exemples récents, en Slovaquie, Michal Šimečka, leader d'un parti d'opposition, a vu circuler une vidéo deux jours avant les élections législatives, selon laquelle il chercherait à acheter l'élection. Une vidéo fabriquée de toutes pièces grâce à l'IA générative.

"Ce n'est pas sorti de nulle part. Cela s'inscrit dans le contexte d'un discours selon lequel les élections seraient illégitimes et truquées", analysait-il dans la foulée sur CNN.

L'IA est utilisée aussi pour amplifier la propagation des contenus et les acheminer de façon micro-ciblée aux individus.

David Colon, professeur d'histoire à Science po Paris

Ces contenus ouvertement falsifiés ne sont qu'une partie du problème. Le danger de désinformation par l'IA est bien plus large. "Les outils d'apprentissage profond sont utilisés pour cibler des individus ou des failles de sécurité dans les systèmes d'information, mais aussi générer des faux comptes plus crédibles que les vrais, ou des portails qui relaient automatiquement des contenus", énumère David Colon, professeur d'histoire à Science po Paris. "L'IA est utilisée aussi pour amplifier la propagation des contenus et les acheminer de façon micro-ciblée aux individus."

Le problème est rendu d'autant plus complexe que les campagnes électorales se jouent désormais en grande partie en ligne. Et actuellement, en matière de modération, les Etats sont concrètement impuissants et totalement dépendants des géants du numérique.

Les profits avant la démocratie

Sous pression, les leaders du secteur (Google, Meta, Microsoft et OpenAI) ont récemment assuré qu'ils voulaient s'engager dans un "pacte" commun pour limiter les deepfakes électoraux. Ils veulent aussi mieux éduquer les utilisateurs et étiqueter les contenus suspects, notamment à l'aide de watermarks (des indications en filigranes incrustées directement sur une image ou une vidéo). TikTok, de son côté, prévoit de mettre en ligne directement sur l'application une page spécialement dédiée aux élections européennes.

Le retrait de contenus est fondamentalement mauvais pour les affaires. C'est avant tout une question d'argent.

Hany Farid, professeur à l'université de Berkeley

Mais la bataille pour éviter les utilisations malveillantes de l'IA dans les campagnes électorales s'annonce difficile. Car les médias sociaux n'iront jamais jusqu'à les supprimer ou les interdire de leur plein gré. "Leur modèle économique consiste à susciter l'implication des utilisateurs. Plus vos services attirent l'attention du public (...) plus vous gagnez d'argent. Donc le retrait de contenus est fondamentalement mauvais pour les affaires. C'est avant tout une question d'argent", rappelle Hany Farid, professeur à l'Université de Berkeley.

Par ailleurs, selon lui, ces contenus profitent aussi de l'idée libertarienne qu'internet devrait rester un espace libre et non régulé. Une idéologie défendue notamment par Elon Musk: depuis son rachat de Twitter, les ressources allouées à la modération de X ont fondu.

Les dangers d'une défiance généralisée

Ce n'est pas la seule plateforme dans ce cas. En Slovaquie, un seul modérateur de Facebook parle la langue du pays, déplore Hany Farid. "Et c'est encore pire dans d'autres pays. C'est difficile à croire, mais 95% des modérateurs de Facebook sont anglophones", poursuit-il.

Pour les différents experts et expertes interrogées, la désinformation mine profondément les démocraties. "Ce qui m'inquiète le plus, c'est que les citoyens n'arrivent plus à croire en rien ni personne (...) et arrêtent de prendre part au processus démocratique", déclare Sandra Wachter. C'est aussi l'un des objectifs des Etats autoritaires, abonde David Colon.

La défiance généralisée favorise aussi les tendances extrémistes ou conspirationnistes et le relativisme vis-à-vis des faits avérés.

Sujet radio: Francesca Argiroffo

Adaptation web: Pierrik Jordan

Publié Modifié

Les règlementations ambitieuses peinent à poindre

Côté pouvoirs publics, le gendarme américain des télécoms (FCC) a récemment interdit les appels robotisés avec des voix générées par intelligence artificielle durant la période de la campagne présidentielle.

Seule l'Union européenne a vraiment pris les devants en adoptant le "Digital Service Act" censé protéger les internautes contre les contenus illicites. Une autre loi centrée sur l'IA doit encore être adoptée.

"Je pense que ça aura un impact, même si cela ne va pas résoudre tous les problèmes", estime Hany Farid, qui estime que ces réglementations pourront servir de "feuille de route" pour Etats-Unis, le Royaume-Uni ou tout autre Etat désireux de mieux encadrer ces nouvelles puissances mondiales.

Les géants de la tech s'engagent contre la désinformation générée par IA au sujet des élections

Vingt géants du numérique se sont engagés vendredi à lutter contre les contenus créés par intelligence artificielle visant à tromper les électeurs, alors des scrutins majeurs sont prévus partout sur la planète en 2024.

Ces entreprises, dont Meta, Microsoft, Google, OpenAI, TikTok et X, promettent de "déployer des technologies pour contrer les contenus nuisibles générés par l'IA", dans un texte dévoilé en marge de la grande conférence de Munich sur la sécurité (MSC).

Ils s'engagent notamment à "travailler sur des outils" permettant de "repérer" des contenus trompeurs créés par intelligence artificielle afin de les identifier comme tels pour les utilisateurs et les contrôler.

L'une des idées pour y parvenir serait d'apposer un "tatouage numérique" dans les vidéos générées par les outils IA développés par ces entreprises, invisible à l'oeil nu, mais pouvant être détecté par une machine.