Des solutions émergent dans le secteur technologique pour lutter contre les deepfakes, les vidéos truquées et les voix falsifiées, dont la propagation a été favorisée par l’intelligence artificielle, dans le but de limiter les différentes formes de fraude.
Lauriel entend par appel téléphonique la voix de sa mère Debbie Dodkin : « C’est moi (…) j’ai eu un accident », l’informant qu’elle est à l’hôpital.
Mais la femme raccroche aussitôt et appelle sa mère, qui se trouve en réalité à son bureau, indemne. Par chance, Lauriel était chez sa grand-mère Ruthie (93 ans), qui avait reçu l’appel frauduleux, visiblement dans le but de la piéger dans une tentative d’escroquerie.
Debbie, qui vit en Californie, déclare dans un entretien avec l’Agence France-Presse : « Ce genre de tentatives se produit tous les jours. » « L’intelligence artificielle peut être très dangereuse. »
La technologie du deepfake s’est répandue sur les réseaux sociaux à travers des vidéos manipulées de personnalités, parfois à des fins de désinformation, mais elle est aussi utilisée par des réseaux criminels organisés.
Début février, la police de Hong Kong a annoncé qu’un employé d’une multinationale avait été convaincu de transférer 200 millions de dollars hongkongais (25 millions de dollars américains) à des escrocs qui avaient organisé une visioconférence avec des avatars réalistes générés par l’intelligence artificielle représentant plusieurs de ses collègues.
Une étude publiée en février par la start-up EyeBoom, spécialisée dans la détection des deepfakes, révèle que seulement 0,1 % des Américains et Britanniques testés ont pu identifier correctement une image ou une vidéo falsifiée.
Vijay Balasubramaniyan, président de Pindrop Security, spécialisée dans la vérification vocale, affirme : « Il y a moins de dix ans, il n’existait qu’un seul outil pour générer des voix par IA. » Aujourd’hui, il y en a 490 ».
La montée de l’intelligence artificielle générative a changé la donne.
Il ajoute : « Auparavant, il fallait 20 heures d’enregistrements pour créer une fausse voix. » Aujourd’hui, cinq secondes suffisent ».
De nombreuses entreprises proposent aux sociétés des outils capables de détecter en temps réel les contenus falsifiés par l’intelligence artificielle, que ce soit dans l’audio ou la vidéo, comme Reality Defender ou Intel.
Intel utilise les variations de couleur dans les vaisseaux sanguins du visage (photopléthysmographie) dans son outil FakeCatcher, tandis que Pindrop divise chaque seconde d’audio en 8000 extraits et les compare aux caractéristiques de la voix humaine.
Nikos Vekiarides, PDG d’Attestiv, explique : « Comme pour toute entreprise de cybersécurité, il faut toujours rester à jour . » Il ajoute : « Au début, on voyait des personnes avec six doigts, mais avec les progrès technologiques, il devient de plus en plus difficile de détecter les falsifications à l’œil nu ».
Comme les spams
Certaines publications scientifiques ont minimisé l’efficacité de ces systèmes de détection, mais de nombreuses études universitaires ont également mis en avant leurs taux de réussite élevés.
Pour Vijay Balasubramaniyan, toutes les entreprises devront, à terme, se doter de logiciels de détection de contenus générés par l’IA.
Au-delà des secteurs de la finance et de l’assurance, victimes traditionnelles de la fraude, cela représente désormais « une menace mondiale pour la cybersécurité », selon Nikos Vekiarides.
Il affirme : « Toute entreprise peut voir sa réputation ternie par un deepfake ou devenir la cible de ces attaques sophistiquées . »
Balasubramaniyan souligne que le télétravail accentue les risques d’usurpation d’identité.
Ces manipulations pourraient également se généraliser et viser les citoyens ordinaires, en particulier les personnes âgées, à travers de faux appels téléphoniques menaçants.
En janvier, le fabricant chinois Honor a présenté son nouveau smartphone Magic7, capable de détecter et de signaler en temps réel si l’interlocuteur utilise l’intelligence artificielle pendant un appel vidéo.
Fin 2024, la start-up britannique Surf Security a lancé un navigateur en ligne, pour l’instant réservé aux entreprises, capable d’alerter l’utilisateur lorsqu’un son ou une vidéo est généré par l’IA.
Attestiv indique compter des milliers d’utilisateurs individuels de sa version gratuite.
Pour Siwei Lyu, professeur en informatique à l’université d’État de New York à Buffalo, « le deepfake deviendra comme les spams », qui ont longtemps gêné les premiers internautes avant d’être maîtrisés grâce à des filtres de messagerie efficaces.
Balasubramaniyan conclut : « L’IA générative a brouillé la frontière entre l’humain et la machine. » Les entreprises qui réussiront à rétablir cette frontière deviendront énormes », et la valeur de ce marché atteindra « des milliards » de dollars.