Peut-on encore faire confiance aux voix des journaux radio ?

actualitesDécouverte·5 min de lecture·849 mots
Tensions en RDC exacerbées par de fausses informations générées par l'IA.

Il est un peu plus de midi à Goma, ce 2 avril 2025, lorsqu'une voix familière résonne sur les smartphones de milliers d'habitants. Celle du journaliste Arthur Ponchelet de Radio France Internationale (RFI). Pourtant, il n’a jamais annoncé la reddition du mouvement rebelle M23. Ce faux journal, entièrement généré par intelligence artificielle, plonge la République démocratique du Congo dans une crise de désinformation inédite.

Quand l’IA donne de la voix à la désinformation

La diffusion rapide et massive de ce faux bulletin radio interpelle par sa portée. En seulement quelques jours, il totalise plus de 100 000 vues sur les réseaux sociaux comme YouTube, TikTok et Facebook, et circule intensivement via des groupes WhatsApp. Outre Arthur Ponchelet, la journaliste Aurélie Bazzara-Kibangula de France 24 et même Corneille Nangaa, chef rebelle présumé, y sont imités de manière quasi parfaite. L’annonce de la défaite du M23, groupe souvent accusé d'être soutenu par le Rwanda, est entièrement fausse.

Aurélie Bazzara-Kibangula, dont la voix a été clonée, décrit cette expérience comme profondément troublante : « La voix était exactement la mienne, au ton et au débit près. Si je n’avais pas su que je n’avais pas dit ces phrases, j’aurais pu m’y laisser prendre. » Pour elle, ce phénomène brouille dangereusement les limites entre vérité et fiction.

Pour RFI, qui s’est empressée de démentir ces informations, ce type d'incident constitue une véritable menace à son intégrité journalistique : « Nous faisons face à une campagne orchestrée, aux moyens sophistiqués, qui porte atteinte à notre crédibilité », a déclaré la direction dans un communiqué officiel.

Ce cas emblématique révèle à quel point la nouvelle technologie rend les informations fausses difficiles à identifier par le grand public, soulignant ainsi l’importance d’un débat urgent sur les risques liés à ces technologies. Avec la banalisation des outils permettant le clonage vocal, l’intégrité journalistique et le rapport à la vérité semblent désormais directement menacés.

Tensions en RDC exacerbées par de fausses informations générées par l'IA.

Une technologie inquiétante aux conséquences multiples

Ce cas n’est malheureusement pas isolé. La multiplication des « deepfakes », ces vidéos et sons manipulés par intelligence artificielle, inquiète les experts. Jean-Luc Brassard, spécialiste en intelligence artificielle à l’Université Paris-Saclay, souligne : « L’absence de régulation efficace, associée à une méconnaissance des risques, rend cette menace particulièrement dangereuse. »

À Kinshasa, les autorités tentent d’identifier les auteurs derrière cette opération. Si certains politiques évoquent une possible ingérence extérieure, notamment russe, en raison de similitudes avec des méthodes utilisées ailleurs, d’autres penchent vers une manipulation interne. L’opposition soupçonne même le gouvernement congolais de vouloir démoraliser les rebelles et orienter l'opinion publique par cette manœuvre.

Cette ambiguïté quant aux intentions et aux commanditaires accentue davantage le trouble au sein de la population déjà confrontée à une insécurité persistante. Les conséquences, potentiellement explosives, renforcent l'urgence d'une prise de conscience collective sur les risques liés à l'usage malveillant des technologies numériques.

Les impacts de ces manipulations sont concrets : tensions accrues, polarisation politique, confusion générale dans un contexte déjà fragile. Des cas similaires se sont déjà produits ailleurs, tels qu’aux États-Unis et en Europe, rappelant l’importance mondiale de ce problème. « Cette menace dépasse largement la RDC, elle est globale », insiste Jean-Luc Brassard, appelant à une coopération internationale renforcée pour contrer ces pratiques.

De plus, la facilité d’accès à ces technologies inquiète également les observateurs internationaux. Aujourd'hui, même sans compétences techniques poussées, un individu peut créer des contenus trompeurs crédibles, grâce à des logiciels largement disponibles en ligne. Des plateformes spécialisées dans l'intelligence artificielle mettent désormais à disposition ces outils, augmentant considérablement le risque de propagation d'informations erronées.

Face à la désinformation, une riposte nécessaire et urgente

Face à l’ampleur de cette désinformation, plusieurs initiatives émergent en République démocratique du Congo. L'organisation Congo Check multiplie les efforts de sensibilisation auprès des populations locales pour détecter et dénoncer les fakes news. De son côté, la Fondation Hirondelle utilise l’intelligence artificielle pour identifier et combattre les discours haineux diffusés sur les radios communautaires, essentielles au maintien de la paix sociale dans les régions conflictuelles.

La crise actuelle montre à quel point il est urgent d'adapter les cadres législatifs et technologiques pour contrer efficacement la désinformation numérique. Si la technologie permet désormais un clonage vocal d'une précision déconcertante, la société civile et les institutions doivent impérativement s'équiper des outils nécessaires pour préserver la vérité et l'intégrité du débat public. Comme le résume Jean-Luc Brassard : « Aujourd’hui, la voix artificielle menace d’étouffer la voix authentique du journalisme. Il est essentiel que nous restions vigilants pour protéger la vérité. »

À terme, l'éducation aux médias doit également devenir une priorité majeure afin que chacun soit en mesure de mieux détecter et combattre ces formes sophistiquées de manipulation. Seule une vigilance collective et permanente permettra de préserver durablement la démocratie et la liberté d’information face aux défis posés par l'intelligence artificielle.

Finalement, le débat autour de ces fake news invite à une réflexion plus large sur notre rapport à la technologie et à la vérité. Cette prise de conscience collective apparaît indispensable pour éviter que la manipulation numérique ne devienne une norme acceptée, mettant ainsi en péril les fondements mêmes de nos démocraties modernes.

▸ Articles similaires