La fraude à l’ère de l’IA. Évoluant à un rythme sans précédent, l’intelligence artificielle (IA) présente des avantages remarquables, mais aussi des risques considérables. L’une des avancées technologiques les plus inquiétantes est l’apparition des hypertrucages. Grâce à l’IA, les malfaiteurs génèrent en temps réel des images ou des contenus audio et vidéo qui imitent l’apparence, les mouvements ou la voix de personnes à des fins frauduleuses. Ils abusent de la confiance des victimes, trompent les institutions financières et déjouent les mesures de sécurité traditionnelles. Il s’agit d’un nouveau paradigme en matière de prévention de la fraude et le secteur financier doit s’y adapter adéquatement.

Les répercussions sont bien réelles. Les hypertrucages servent à exécuter des arnaques hautement sophistiquées qui sont difficiles à repérer. Cela peut être par exemple la voix d’un chef de la direction qui est recréée de façon ultraréaliste pour autoriser un virement bancaire frauduleux à son insu. Ou encore une vidéo hypertruquée d’un employé servant à tromper les systèmes d’authentification et à approuver une transaction de grande valeur. Il s’agit là d’exemples de piratage par ingénierie sociale : les malfaiteurs manipulent des cadres, des clients ou des institutions financières à faire confiance à des identités fictives, à accorder des autorisations ou même à modifier des politiques. Les techniques de fraude évoluent, les moyens de défense doivent évoluer aussi. Les organisations doivent faire preuve d’une vigilance continue et elles ont besoin d’outils d’IA pour la détection des fraudes et de couches de sécurité plus robustes pour l’authentification. Il ne s’agit plus de scénarios hypothétiques, mais bien d’enjeux réels qui minent considérablement la stabilité financière et la confiance des consommateurs et des consommatrices.

Des conséquences bien réelles 

Des cas récents et hautement médiatisés mettent en évidence le danger grandissant des fraudes par hypertrucage.

  • Hong Kong : un cadre a fait un virement de 25 millions de dollars après avoir été piégé par un appel vidéo hypertruqué avec son « directeur financier ».
  • Royaume-Uni : des universités britanniques rapportent que des candidats et candidates en ligne ont eu recours à l’hypertrucage lors d’entrevues d’admission.
  • États-Unis : un sénateur américain a été ciblé par un appel vidéo hypertruqué avec un groupe de fraudeurs se faisant passer pour un ministre ukrainien dans une tentative d’obtenir des renseignements politiques critiques.

Au Canada, le secteur bancaire n’est pas à l’abri de ces menaces. L’Association des banquiers canadiens et l’Agence de la consommation en matière financière du Canada (ACFC) ont lancé des avertissements contre les fraudes générées par l’IA. Selon Statistique Canada, les cas de fraude ont presque doublé au cours des dix dernières années, passant de 79 000 en 2012 à 150 000 en 2022.1 L’ACFC rapporte que 15 % de la population canadienne a été victime d’une fraude financière dans les deux dernières années, soit une hausse de 12 % depuis 2023.2 Plusieurs facteurs expliquent cette augmentation. Les techniques de fraude utilisant l’IA, comme les arnaques par hypertrucage et l’ingénierie sociale automatisée, permettent de personnaliser des attaques et de les rendre difficiles à détecter.

Un récent rapport de Gartner prédit que d’ici 2026, 30 % des entreprises ne considéreront plus les solutions de vérification et d’authentification actuelles comme suffisantes ou fiables en raison des hypertrucages.3 Cela met en lumière la sophistication accrue des fraudes générées par l’IA et leurs répercussions sur la sécurité financière. Les fraudeurs ne cessent de perfectionner leur utilisation de l’IA et il devient pressant que les institutions bancaires et les autorités soient en mesure de distinguer le vrai du faux.

Changement dans les stratégies de prévention de la fraude 

Les mécanismes traditionnels de prévention de la fraude, comme les mots de passe, les NIP et les questions de sécurité, ne font plus le poids face aux arnaques générées par l’IA. Les institutions financières doivent passer d’un modèle de détection réactive à un modèle d’atténuation proactive des menaces afin de garder une longueur d’avance sur les malfaiteurs. Les technologies de pointe, comme la détection basée sur l’IA, les outils de détection des hypertrucages et l’authentification multifacteur, permettent de repérer les activités frauduleuses avant qu’elles ne se produisent. Il est essentiel de mettre en place des canaux de communication sécurisée, des systèmes de surveillance continue, des audits réguliers sur les risques de fraude et des formations continues enseignant au personnel et aux utilisateurs et utilisatrices comment repérer les fraudes, les atténuer et les gérer immédiatement.

Les institutions devraient aussi intégrer une « équipe rouge » dans leurs stratégies de prévention. Il s’agit d’une équipe spécialisée de professionnel(le)s en cybersécurité qui simule des attaques et des tentatives de fraude au sein d’une entreprise pour repérer les vulnérabilités. L’équipe rouge joue le rôle d’antagoniste en exécutant des arnaques avec des hypertrucages, l’ingénierie sociale ou l’IA afin d’évaluer l’état de préparation de l’organisation. Les constats tirés de ces simulations aident l’organisation à comprendre ses faiblesses et les aspects qu’elle doit améliorer, à perfectionner ses algorithmes de détection et à mettre à jour son programme de formation interne. Ces simulations de crise permettent d’atténuer les risques de façon proactive.

Aujourd’hui, les institutions financières cherchent une réponse à cette question importante : comment vérifier l’identité quand on ne peut plus faire confiance à ce qu’on voit et à ce qu’on entend?

  • Combattre l’IA par l’IA : si les fraudeurs utilisent l’IA pour lancer des attaques hautement sophistiquées, les institutions financières y répondent au moyen de solutions défensives aussi avancées pour protéger leurs activités et leur clientèle. L’évolution constante des menaces met en évidence l’urgence d’utiliser des technologies de pointe pour garder une longueur d’avance.
  • Biométrie comportementale : l’analyse comportementale alimentée par l’IA joue un rôle de plus en plus crucial dans la prévention de la fraude. Elle aide les institutions à repérer les anomalies en surveillant la vitesse de frappe, les mouvements de la souris et les habitudes de navigation. Par exemple, une grande banque en Amérique latine a utilisé la biométrie comportementale pour réduire de 67 % les fraudes par ingénierie sociale ciblant les utilisateurs et utilisatrices d’appareils mobiles. Elle a renforcé sa sécurité grâce à un système qui étudie en continu les comportements normaux de sa clientèle afin d’améliorer le taux de détection et de réduire les faux positifs.
  • Analyse de la reconnaissance vocale et faciale : dans la lutte contre la hausse des hypertrucages audio et vidéo, les modèles d’IA peuvent repérer les incohérences dans la voix et les expressions faciales. La biométrie vocale permet de signaler les divergences dans l’empreinte vocale (signature vocale) lors des appels, ce qui peut éviter des virements frauduleux de plusieurs millions de dollars. Les systèmes d’IA entraînés à reconnaître les hypertrucages améliorent la détection de la fraude. Des études du MIT et de Google ont démontré qu’un extrait sonore d’une minute suffit à générer un hypertrucage convaincant, ce qui met en doute la fiabilité de la biométrie vocale. Il s’agit d’un enjeu si capital que les autorités et les grandes institutions financières doivent rendre des comptes sur les mesures prises pour lutter contre ce type de fraude.
  • Surveillance des transactions en temps réel : des algorithmes d’apprentissage automatique sont fréquemment utilisés pour détecter les activités suspectes en temps réel. Ils analysent de grands volumes de données sur les transactions afin de relever les comportements inhabituels. Les récentes études de cas de grandes banques en Amérique du Nord et en Europe démontrent l’efficacité d’une surveillance en temps réel dans la détection et l’interruption de tentatives de fraude dans des comptes compromis. Ces systèmes s’adaptent et perfectionnent leurs capacités de détection en fonction des nouveaux comportements relevés.
  • Chaînes de blocs pour la vérification de l’identité numérique : les institutions financières utilisent de plus en plus des chaînes de blocs pour stocker les identités numériques dans un registre infalsifiable, ce qui améliore la transparence et réduit la fraude. Les clients peuvent ainsi prouver leur identité rapidement et de façon sécuritaire, peu importe le service qu’ils utilisent. Cette technologie de registre distribué réduit les risques de création et d’exploitation de comptes frauduleux. Elle fournit une vue consolidée des clients et réduit considérablement les coûts et le temps requis pour vérifier leur identité, ce qui rend l’écosystème financier plus sécuritaire.

Mesures nationales et mondiales contre la fraude par hypertrucage 

Reconnaissant l’escalade de cette menace, les gouvernements et le secteur privé de partout dans le monde mettent en place des mesures pour la combattre.

  • Cadres réglementaires : la Chine exige que tout contenu généré par l’IA soit clairement étiqueté comme tel.4
  • Solutions technologiques : des entreprises comme Reality Defender développent des outils alimentés par l’IA qui sont capables de détecter des vidéos hypertruquées en temps réel.
  • Cadres juridiques : l’Australie impose de lourdes amendes aux géants des réseaux sociaux qui ne retirent pas les arnaques impliquant du contenu hypertruqué sur leurs plateformes.5
  • Réponse du gouvernement canadien : malgré l’absence d’une réglementation canadienne visant les hypertrucages, le Bureau de la concurrence Canada exhorte le public à faire preuve de vigilance contre les arnaques générées par l’IA et à savoir reconnaître les signaux d’alarme, comme des vidéos non réalistes, des incohérences dans la voix ou des messages qui semblent urgents.

Un dilemme éthique et réglementaire 

Le recours à l’IA pour détecter la fraude soulève un débat chez les institutions financières : comment assurer équitablement la sécurité et la confidentialité? Les organismes de réglementation visent un équilibre, mais l’IA évolue plus vite que les avancées en matière de conformité. Les directions en finance doivent collaborer avec les autorités, les spécialistes en cybersécurité et les décideurs politiques pour s’assurer que les mesures de prévention de la fraude rehaussent la sécurité sans porter atteinte au droit en matière de confidentialité des données.

Se préparer à l’inévitable 

Le secteur financier se trouve à la croisée des chemins. La question n’est pas de savoir si les fraudes par hypertrucage et les menaces générées par l’IA deviendront un problème généralisé, mais plutôt quand cela arrivera.

  • Les institutions financières sont-elles adéquatement outillées?
  • Comment peuvent-elles gagner la confiance des clients alors qu’il est facile de falsifier une identité numérique?
  • Quelles sont les mesures qu’elles doivent prendre pour éviter d’être victimes d’une fraude générée par l’IA?

Appel à l’action 

La fraude par hypertrucage est un enjeu d’actualité. Les institutions financières doivent agir dès maintenant et recourir à l’IA pour mettre en place des stratégies de prévention de la fraude, collaborer avec les autorités et favoriser l’innovation dans l’ensemble du secteur.

Le Mois de la prévention de la fraude rappelle qu’il est essentiel de faire preuve d’anticipation, d’innovation et de collaboration. Le secteur financier doit remettre en question ses biais en matière de sécurité, de confiance et de protection des actifs numériques.

Comment votre institution se prépare-t-elle à la hausse des fraudes par hypertrucage et des menaces générées par l’IA? Entamons la discussion!

1. Gouvernement du Canada. La montée de l’IA : la fraude à l’ère numérique (4 mars 2024).

https://www.canada.ca/fr/bureau-concurrence/nouvelles/2024/03/la-montee-de-lia--la-fraude-a-lere-numerique.html

2. Agence de la consommation en matière financière du Canada.

https://x.com/FCACan/status/1897360012244128029/photo/1

3. Gartner. Gartner Predicts 30% of Enterprises Will Consider Identity Verification and Authentication Solutions Unreliable in Isolation Due to AI-Generated Deepfakes by 2026 (1er février 2024).

https://www.gartner.com/en/newsroom/press-releases/2024-02-01-gartner-predicts-30-percent-of-enterprises-will-consider-identity-verification-and-authentication-solutions-unreliable-in-isolation-due-to-deepfakes-by-2026

4. WIRED. China’s Plan to Make AI Watermarks Happen, par Zeyi Yang (27 septembre 2024).

https://www.wired.com/story/china-wants-to-make-ai-watermarks-happen/?utm_source=chatgpt.com

5. Reuters. Australia threatens fines for social media giants enabling misinformation, par Byron Kaye (12 septembre 2024).

https://www.reuters.com/technology/australia-threatens-fines-social-media-giants-enabling-misinformation-2024-09-12/