Les cas d’utilisation de deepfakes et d’un générateur de voix par IA à des fins de diffamation ou d’extorsion sont de plus en plus fréquents. Grâce à la facilité d’accès à la technologie de l’IA, les escrocs et les fraudeurs disposent littéralement des outils nécessaires pour vous arnaquer à tout bout de champ. Les outils d’IA générative tels que Murf, GPT-4 et Midjourney peuvent tous être utilisés pour vous tromper à un niveau jamais atteint auparavant, et la mauvaise nouvelle, c’est que nous n’y sommes pas préparés.
La technologie actuelle n’est pas équipée à 100 % pour lutter contre la fraude à l’IA, mais il est essentiel que nous connaissions les différents modes de fonctionnement de ces escrocs afin d’être au moins préparés à une telle éventualité.
Salut, c’est maman. J’ai besoin de 300 dollars.
Un générateur de voix par IA est extrêmement efficace pour imiter la voix des gens. Imaginons que vous receviez un jour un appel d’un numéro inconnu et que, à votre grande surprise, il s’agisse de votre mère. Elle dit qu’elle est coincée à l’épicerie du coin et qu’elle a perdu sa carte de crédit. Elle vous demande de virer 300 dollars sur son compte pour payer ses courses. En tant qu’enfant inquiet, vous n’hésiteriez probablement pas une seconde à lui envoyer cet argent, mais les progrès récents de la technologie de l’IA nous obligent à nous arrêter un instant et à nous demander : et si c’était ma mère qui m’escroquait ? Ou du moins quelqu’un qui prétend être ma mère. Que faire ensuite ? Vérifier sa date de naissance ? Lui demander d’évoquer un incident très précis de votre enfance que personne d’autre ne connaîtrait ? Quelle situation difficile !
Très récemment, Jennifer, d’Arizona, a failli être victime d’une de ces escroqueries à l’IA génératrice de voix. Elle a reçu un appel d’un numéro inconnu et lorsqu’elle a répondu, c’est sa fille de 15 ans qui était au bout du fil, sanglotant hystériquement et lui disant qu’elle avait été kidnappée. Craignant le pire car sa fille était alors en voyage de ski avec ses amis, Jennifer était à juste titre affolée et aurait été prête à payer n’importe quelle somme d’argent pour récupérer sa fille. Heureusement, quelques minutes plus tard, elle a reçu un appel de sa fille lui confirmant qu’elle était saine et sauve.
Si Jennifer a pu échapper de justesse à une catastrophe financière, d’autres n’ont pas cette chance.En 2020, un directeur de banque à Hong Kong a été contacté par celui qu’il croyait être le directeur de la banque et s’est vu demander d’autoriser un transfert de 35 millions de dollars pour faciliter une acquisition. Les Émirats arabes unis enquêtent actuellement sur cette fraude qui a touché de nombreuses entités de la région.
Grâce à l’émergence de la technologie de l’IA et à la récente récession économique mondiale, l’activité frauduleuse des centres d’appels a augmenté de 40 % en 2022 par rapport à l’année précédente. Il s’agit d’un chiffre très alarmant si l’on considère que l’IA devient de plus en plus accessible au grand public. Au niveau de l’entreprise, la formation doit être rendue obligatoire pour les utilisateurs finaux afin qu’ils puissent détecter ces fraudes et escroqueries. Tout employé en contact avec la clientèle ou ayant accès aux données et aux finances doit toujours faire preuve de scepticisme lorsque des demandes impulsives à fort impact sont formulées. Il est toujours bon de signaler ces demandes aux autorités ou, mieux encore, de contacter directement la personne qui a fait la demande et d’essayer de la documenter. Vous ne saurez jamais si votre prise de décision rapide peut finir par coûter des millions à votre entreprise. Mieux vaut prévenir que guérir.
Fausses nouvelles
Selon un sondage Gallup réalisé en 2022, 53 % des Américains se méfient des médias traditionnels et affirment que ces derniers pourraient intentionnellement induire les gens en erreur. Environ 62 % des adultes s’informent désormais par le biais des médias sociaux, et ce chiffre ne cesse d’augmenter. Les escrocs profitent de cette évolution pour exploiter la confiance croissante dans les médias sociaux en tant que source d’information.
Le jour où l’ancien président des États-Unis, Donald Trump, devait arriver à New York pour assister à sa récente audience d’inculpation, quelques images de Trump emmené de force par la police ont fait le tour de l’internet. Heureusement, ses partisans n’ont pas réagi, mais ces fausses images auraient très bien pu être utilisées pour inciter à la violence.
Selon une étude du Duke Reporters’ Lab, il existe 194 entités de vérification des faits établies dans 60 pays, qui recourent toutes à une intervention manuelle. Ces entités sont-elles équipées pour détecter les tromperies de l’IA ? En 2020, Meta a commencé à mettre en œuvre des technologies telles que ObjectDNA et les réseaux antagonistes génératifs (GAN). Les GAN se composent de deux systèmes d’apprentissage automatique : l’adversaire et le vérificateur. L’adversaire génère des fausses nouvelles correspondant à certains critères tels que la capacité à devenir virale, la persuasion et le sentiment d’urgence, tandis que le vérificateur, ayant accès à une grande base de données de vraies nouvelles et de quelques fausses nouvelles de l’adversaire, classera ces histoires comme vraies ou fausses. La vérification des faits par l’IA est une réalité. L’IA alimentant les rumeurs et permettant une désinformation rampante en ligne, il est logique que nous combattions l’IA trompeuse par l’IA détective.
Il est alarmant de constater que plus de 71 % des destinataires d’une enquête réalisée en 2022 ont déclaré ne pas savoir ce qu’est un deepfake, et que 57 % des personnes qui savent de quoi il s’agit affirment qu’elles seraient capables d’en repérer un. Le travail à distance a permis aux employés de profiter du confort de leur maison ou d’une retraite au bord de la mer pendant qu’ils travaillent, mais les employeurs n’ont certainement pas prévu la fenêtre d’opportunité que cela ouvrirait pour la tromperie. Voici quelques escroqueries très créatives de type “deepfake” qui ont pris l’internet d’assaut en 2022 :
1. Entretien d’embauche à distance : une arnaque
En voici une bonne. Les escrocs utilisent la technologie deepfake, entre autres moyens créatifs, pour assister à distance à des entretiens d’embauche. Ils décrochent ensuite des postes dans le domaine des technologies de l’information et des données, avec un accès illimité aux données personnelles, qu’ils volent et utilisent à mauvais escient par la suite.
2. L’arnaque BitVex d’Elon Musk
L’année dernière, une vidéo d’Elon Musk parlant de son nouveau projet cryptographique appelé BitVex a circulé en ligne. Dans cette vidéo, le PDG de Binance, Changpeng Zhao, entre autres, donnait son aval. Il s’est avéré que la vidéo était un deepfake mal exécuté et que, malgré les approbations, BitVex n’a pu enregistrer que 1 700 dollars de dépôts. C’est presque ça, mais ce n’est pas le cas.
Les nouvelles technologies s’accompagnent de nouveaux moyens de vous escroquer. La tromperie peut venir de quelqu’un d’aussi proche que la personne avec laquelle vous partagez votre domicile. Enfin, pas exactement cette personne, mais une copie carbone indiscernable, générée par l’IA, de cette personne. Bien que la technologie actuelle de l’IA en soit encore à ses balbutiements, elle se dirige sans aucun doute vers une situation où il sera pratiquement impossible de distinguer les faux des vrais. Aujourd’hui, sans la sensibilisation et l’éducation nécessaires, les escroqueries basées sur l’IA pourraient vous ruiner complètement – soyez donc prêts.
Source : Artificial intelligence might be insulting your intelligence by David Simon