L’émergence de l’intelligence artificielle (IA) générative dans les activités quotidiennes a mis en lumière cette technologie et la fait percevoir comme étant un des enjeux stratégiques pour les organisations du monde entier. Qu’il s’agisse d’automatiser certaines tâches, de rendre possible la corrélation d’information, d’améliorer de la détection ou de soutenir des collaborateurs, l’IA s’impose comme un levier incontournable.
Dans le domaine de la cybersécurité, l’IA se révèle être un atout majeur pour les acteurs de la cyberdéfense grâce à l’amélioration des outils d’analyse et de réponse aux incidents. Toutefois, elle devient aussi un outil pour les cybercriminels qui exploitent ses capacités pour affiner leurs attaques ainsi qu’une cible potentielle à exploiter pour les attaquants.
Un outil au service de la défense
L’IA améliore l'efficacité et la productivité dans de nombreux domaines en automatisant des tâches et en soutenant les utilisateurs dans leur quotidien. L’IA est utilisée dans de nombreux domaine, par exemple, dans l’assistance sur des diagnostics, le traitement en temps réel de données pour évaluer des stratégies de trading, ou encore la détection de fraude.
En cybersécurité, l’IA s'intègre déjà au cœur des outils tels que les systèmes de gestion des informations et des événements de sécurité. Ces systèmes permettent de collecter, centraliser, et corréler des informations provenant de diverses sources afin de déclencher des alertes en cas d'incident de sécurité. L'intégration de l'IA accélère non seulement la centralisation et la normalisation des informations, mais elle améliore également la détection des incidents. L'IA permet de corréler des informations et ainsi renforcer la capacité de réaction face aux menaces.
La prévention des attaques est aussi un champ d’application de cette technologie. Les développeurs utilisent des IA spécifiques pour générer du code fonctionnel et répondant aux standards de sécurité.
Une arme pour les criminels
Du côté des attaquants, les attaques des capacités nouvelles plus sophistiquées et dangereuses ont émergé.
La technique d’hameçonnage ciblé, couplée à l’usage d’IA, a rendu possible l’industrialisation de la personnalisation. A l’aide des informations disponibles sur les personnes, les processus d’une organisation ou d’événements spécifiques, la création de courriels différenciés et personnalisés à grande échelle ont été rendus possibles.
L’IA peut également être mise au service de l’usurpation d’identité, notamment pour les attaques de type « arnaque au président », où un attaquant se fait passer pour un donneur d’ordre au sein d’une organisation afin de manipuler un employé. En effet, l’usurpation de la voix et l’image d’une personne en temps réel peut amener un employé à se tromper sur l’identité d’une personne, qui l’amènerait à réaliser des actions pour le compte de l’attaquant.
Une cible d’intérêts
Différents types d’attaques ont été mis en lumière dans les publications récentes des organismes de cybersécurité, comme les « Recommandations de sécurité pour un système d’IA générative » de l'ANSSI. Par exemple, les attaques par injection de données falsifiées visent à altérer le comportement de l’IA en lui fournissant des données corrompues, rendant ainsi les modèles utilisés inopérants.
Prenons l’exemple d’une intelligence artificielle déployée au sein d’une banque d’investissement pour détecter des tendances émergentes et ajuster les stratégies en temps réel, dans le but d’optimiser les décisions d’investissement. La manipulation de ce système en compromettant les données d'entraînement, peut provoquer des prises de décisions altérées et une mauvaise stratégie financière, entrainant des conséquences financières importantes.
Répondre aux Défis de l'IA : Stratégies de Gouvernance et de Gestion des Risques
La généralisation de l’utilisation de l’IA s'accompagne de la création de nouveaux usages métiers ainsi que d'une augmentation à la fois de l’efficacité opérationnelle des entreprises mais aussi de la menace cyber.
Pour s’adapter à cette nouvelle réalité, les organisations doivent prendre des mesures spécifiques, telles que :
- L’établissement d'un cadre de gouvernance spécifique à l'IA au sein de l'organisation, incluant l'implémentation d'un système de management de l'IA (ISO 42001) pour répondre à ce besoin.
- La création d'un processus pour l'utilisation et le développement de solutions d'IA, intégrant des pratiques de conception responsable dès le départ.
- La mise en place d'une gestion des risques associés à l'IA, utilisant des méthodes d'analyse des risques.
- La réalisation d'audits des solutions d'IA, comprenant des tests des environnements de validation et d'évaluation du modèle, ainsi que de sa résistance aux cyberattaques.
- La sensibilisation et formation des utilisateurs aux risques liés à l'IA, en particulier face aux nouvelles menaces.
Ces actions doivent permettre aux entreprises de profiter des avantages de l’IA en leur assurant la maîtrise des risques associés à cette technologie.