L’intelligence artificielle, nouveau champ de bataille des cyberattaques ?

actualitesDécouverte·5 min de lecture·814 mots
L’intelligence artificielle, nouveau champ de bataille des cyberattaques

En octobre 2024, les ingénieurs de sécurité d’une fintech européenne découvrent que leur assistant conversationnel, basé sur un modèle d’intelligence artificielle générative, s’est mis à répondre de manière incohérente et inquiétante à certains clients. L’enquête interne révèle qu’un simple message inséré dans une requête utilisateur a permis d’altérer le comportement du modèle : une attaque par injection de prompt. Moins visibles que les attaques traditionnelles, ces nouvelles menaces exploitent les failles logiques au cœur même des intelligences artificielles.

À mesure que les applications d’IA se généralisent dans les entreprises, elles deviennent une cible de choix pour les cyberattaquants. En 2023, selon un rapport de la société I-Tracing, le nombre d’attaques ciblant directement le code ou les interactions des modèles d’IA a connu une hausse de 67 %. Les systèmes les plus vulnérables sont ceux qui intègrent des modèles de langage comme ceux développés par OpenAI ou Google DeepMind, notamment en raison de leur capacité à traiter des données en langage naturel, souvent non structurées.

Des attaques invisibles mais redoutablement efficaces

Les mécanismes d’attaque se diversifient et gagnent en sophistication. L’injection de prompt, méthode encore marginale il y a deux ans, est désormais bien connue des chercheurs en cybersécurité. Elle consiste à glisser des instructions malveillantes dans des messages d’apparence anodine, afin de modifier les réponses générées par les modèles. Une simple phrase bien formulée peut suffire à désorienter un chatbot ou à détourner une IA d’analyse d’image.

Plus complexes encore, les attaques adversariales manipulent les données d’entrée d’un modèle en y ajoutant des perturbations imperceptibles à l’œil humain. Ces modifications, bien que minimes, suffisent à tromper l’algorithme et à lui faire produire des résultats erronés. Des chercheurs du MIT ont récemment démontré qu’un modèle de reconnaissance visuelle entraîné sur des images médicales pouvait être abusé pour classer une tumeur maligne comme bénigne, simplement en modifiant quelques pixels à peine.

Selon Thomas Borie, analyste en cybersécurité chez Orange Cyberdéfense, « nous observons une recrudescence d’attaques subtiles, qui ne visent pas à voler des données mais à altérer la logique même des modèles. Elles sapent la fiabilité de l’IA, ce qui en fait une menace insidieuse ». Ces manipulations, qui ciblent la couche algorithmique plus que le système d’exploitation ou le réseau, rendent les dispositifs classiques de détection moins efficaces.

L’intelligence artificielle, nouveau champ de bataille des cyberattaques

L’IA utilisée comme arme offensive

L’ironie du sort, c’est que l’intelligence artificielle sert également les intérêts des attaquants. Des générateurs de texte peuvent être détournés pour produire du code malveillant, créer des leurres de phishing plus crédibles, ou même générer des malwares polymorphes, capables de modifier leur signature en temps réel pour échapper aux antivirus.

Le MIT Technology Review, dans un article publié en janvier 2025, a documenté plusieurs cas où des groupes cybercriminels utilisaient l’IA pour automatiser certaines étapes des attaques, réduisant les coûts et augmentant l’efficacité. L’IA permet aussi de personnaliser les campagnes d'hameçonnage à une échelle et avec un niveau de précision inédits.

Dans certains cas, les pirates exploitent des IA génératives pour analyser en temps réel les réponses de leurs cibles et adapter leurs attaques. Les tentatives de fraude deviennent alors conversationnelles, et donc beaucoup plus convaincantes. À cela s’ajoute l’émergence de modèles « open source » hébergés de manière autonome, échappant à toute surveillance centrale. Cette décentralisation complexifie le contrôle et la régulation de l’usage malveillant de ces technologies.

Une réponse encore fragmentaire face à un risque systémique

Face à la montée de ces menaces, les réponses restent pour l’instant disparates. Si certaines entreprises pionnières ont mis en place des protocoles rigoureux de protection de leurs modèles, la majorité du tissu économique, en particulier les PME, reste peu armée. Le concept de « red teaming » pour IA, inspiré des tests d’intrusion traditionnels, gagne en popularité. Il s’agit de simuler des attaques spécifiques à l’IA, afin d’en tester la robustesse et de corriger les failles avant qu’elles ne soient exploitées.

Des entreprises comme Anthropic, Mistral ou Cohere publient désormais des chartes éthiques encadrant l’usage de leurs modèles, mais l’implémentation de garde-fous techniques reste très inégale. D’autres acteurs, à l’image de Microsoft, intègrent progressivement des outils de surveillance en temps réel du comportement de leurs IA, mais ces pratiques sont loin d’être généralisées.

Laurence Devillers, professeure à la Sorbonne, insiste : « Le plus grand danger aujourd’hui, c’est l’illusion de maîtrise. On transfère des fonctions critiques à des systèmes dont on ne comprend pas toutes les vulnérabilités. » Elle plaide pour une approche holistique de la sécurité, allant du code source à l’interface utilisateur, en passant par la chaîne d’approvisionnement des données.

Il devient donc urgent de considérer la cybersécurité comme une composante indissociable du développement de l’intelligence artificielle. Car si l’IA peut transformer notre société, elle peut aussi en fragiliser les fondations si elle est livrée à elle-même. À l’heure où les usages explosent, protéger le code des applications d’IA n’est plus une option : c’est une condition de leur légitimité.

▸ Articles similaires