Les IA, relais involontaires de la propagande russe ?

actualitesDécouverte·4 min de lecture·624 mots
Les IA, relais involontaires de la propagande russe ?

En interrogeant ChatGPT sur la guerre en Ukraine, personne ne s'attend vraiment à tomber sur une version tronquée ou biaisée des faits. Pourtant, ces derniers mois, plusieurs utilisateurs ont remarqué que des intelligences artificielles (IA) occidentales se faisaient parfois, à leur insu, l'écho discret de la propagande pro-Kremlin. Un phénomène discret mais préoccupant, qui interpelle aujourd'hui chercheurs, régulateurs et responsables politiques. Mais comment ces IA sont-elles devenues les relais involontaires d'une guerre de l'information menée par le Kremlin ?

Un réseau pro-russe à l’assaut des intelligences artificielles

Le phénomène a récemment été mis en lumière par VIGINUM, l'agence française de lutte contre les ingérences numériques étrangères. Dans son dernier rapport, l'agence identifie explicitement le réseau baptisé « Portal Kombat ». Ce dernier ne regroupe pas moins de 193 sites internet pro-russes, particulièrement actifs dans la diffusion de désinformation sur la guerre en Ukraine. Ces contenus, largement référencés, finissent par contaminer les bases de données utilisées pour entraîner les modèles d'IA générative comme ChatGPT d'OpenAI ou Gemini de Google, rendant ainsi floue la frontière entre information fiable et propagande orchestrée.

« Les IA génératives apprennent à partir de vastes bases de données sans pouvoir toujours distinguer sources fiables et propagande », explique Marc-Antoine Ledieu, avocat spécialisé en technologies numériques et cybersécurité. « Un réseau comme Portal Kombat, par son volume, impose aux IA une représentation biaisée des faits ».

Des conséquences démocratiques majeures

Cette infiltration dépasse largement la simple problématique technique. Elle remet en question la souveraineté informationnelle et interpelle directement la responsabilité démocratique des plateformes technologiques. Selon ICTJournal, média spécialisé en technologie, un autre réseau nommé « Pravda », basé à Moscou, publie massivement du contenu en anglais et en français spécifiquement destiné à influencer ces modèles occidentaux.

Ainsi, des IA largement utilisées par le public pourraient relayer des récits biaisés sans alerter leurs utilisateurs. Par exemple, lorsqu'un utilisateur demande à ChatGPT les raisons du conflit en Ukraine, l’IA pourrait évoquer des justifications diplomatiques mises en avant par Moscou, atténuant subtilement la gravité de l'invasion russe. Julien Nocetti, chercheur associé à l'Institut français des relations internationales (IFRI), souligne : « Les plateformes doivent renforcer immédiatement leurs mécanismes de vérification. Il en va de notre sécurité démocratique ».

Réglementation et innovations technologiques pour contrer la menace

Face à ce constat alarmant, les autorités cherchent désormais à mieux réguler ces technologies émergentes. La Commission européenne travaille actuellement sur l’AI Act, une réglementation visant à encadrer strictement les risques liés à la désinformation, notamment en obligeant les développeurs à adopter des garde-fous techniques plus efficaces.

Mais la réponse ne peut être uniquement législative. Les experts misent également sur l’innovation technologique pour contrer cette menace. Des équipes de recherche françaises et européennes explorent ainsi plusieurs pistes prometteuses, comme l'utilisation d'algorithmes capables de détecter rapidement les récits de propagande.

Le défi demeure cependant immense. La guerre informationnelle évolue continuellement, devenant de plus en plus sophistiquée. Initialement conçues pour informer et assister les citoyens, les IA occidentales risquent aujourd’hui de devenir des relais involontaires d'une propagande orchestrée par des puissances étrangères. La vigilance collective et une coordination efficace deviennent ainsi plus cruciales que jamais pour éviter que les progrès technologiques ne servent finalement à déstabiliser les démocraties qu'ils étaient censés protéger.

Pour contrer cette menace, une collaboration entre gouvernements, chercheurs et entreprises technologiques est indispensable. L'éducation aux médias et à l'information doit également être renforcée pour permettre aux citoyens de mieux identifier les narratifs biaisés. Sans une réponse coordonnée, les IA risquent de devenir des outils de désinformation massive, sapant la confiance dans l’information et la démocratie. Cette problématique dépasse le cadre occidental : d'autres puissances, comme la Chine, développent aussi des IA influencées par leurs propres narratifs. La lutte contre la désinformation devient ainsi un enjeu global et stratégique.

▸ Articles similaires