Imagem de um cérebro metade humano e metade máquina.

É sábado de manhã. Você decidiu dormir depois da noite agitada que teve, e não tolera o som do seu celular tocando. Você decide ignorá-lo e voltar a dormir, mas o telefone não para de tocar. Você acorda, olha ao seu redor e sua esposa não está lá. Você deixa o celular tocar até ficar silencioso e coloca o travesseiro na cabeça para bloquear a dor de cabeça que está piorando lentamente. Um único som de mensagem dispara. Você acaba olhando para o seu celular e vê uma mensagem de sua esposa. É um vídeo comprometedor seu com um amigo na noite anterior. Não está parecendo bem para você. Enquanto você está tentando entender toda a situação, outra mensagem aparece de sua esposa. Ela diz: “estou te deixando”.

Se você não achou essa analogia relacionável para si, eu odeio te contar, mas tal cenário poderia facilmente acontecer com você. Incidentes em que deepfakes, vídeo e áudio gerados por IA estão sendo usados para calúnia ou extorsão estão se tornando cada vez mais comuns. Graças à disponibilidade mais fácil e ao acesso à tecnologia de IA, golpistas e fraudadores estão literalmente recebendo as ferramentas necessárias para enganar. Ferramentas de IA generativas como Murf, GPT-4 e Midjourney podem ser usadas para enganar em um nível que nunca foi visto antes, e a má notícia é que não estamos preparados para isso.

A tecnologia em questão não está 100% equipada para combater fraudes de IA, mas ainda é essencial conhecermos as diferentes maneiras pelas quais esses golpistas operam para que possamos pelo menos estar preparados para algo assim.

 Oi, aqui é a mamãe. Preciso de R$300. 

O software de IA gerador de voz é extremamente eficaz em imitar as vozes das pessoas. Você poderia facilmente sobrepor a voz de Morgan Freeman narrando um vídeo que você fez do céu, ou até mesmo David Attenborough narrando um vídeo de seu cachorro. Quando as vozes dessas figuras proeminentes podem ser facilmente manipuladas, não é surpresa que sua voz também possa ser clonada e usada de maneira errada.

Digamos que você receba uma ligação de um número desconhecido um dia e, para sua surpresa, seja sua mãe. Ela diz que está presa no supermercado local e perdeu o cartão de crédito. Ela está pedindo que você transfira 300 reais para sua conta para pagar suas compras. Sendo um filho preocupado, você provavelmente não hesitaria um segundo em enviar esse dinheiro para ela, mas os recentes avanços na tecnologia de IA nos forçam a parar por um segundo e perguntar: e se eu estiver sendo enganado por minha mãe? Ou pelo menos alguém fingindo ser minha mãe.

O que você faz a seguir: verificar a data de nascimento dela? Pedir que diga um ocorrido muito específico da sua infância que ninguém mais saberia?

Muito recentemente, Jennifer quase foi vítima de um desses golpes de IA geradora de voz. Ela recebeu uma ligação de um número desconhecido e, quando atendeu, era sua filha de 15 anos na linha, soluçando histericamente e dizendo que havia sido sequestrada. Temendo o pior, já que sua filha estava em uma viagem com seus amigos naquela época, Jennifer estava horrorizada e estaria disposta a pagar qualquer quantia em dinheiro para recuperar sua filha. Felizmente, em poucos minutos, ela recebeu uma ligação de sua filha confirmando que estava segura.

Embora Jennifer tenha conseguido escapar por pouco de uma catástrofe financeira, alguns não tiveram tanta sorte. Em 2020, um gerente de banco em Hong Kong foi contatado por quem acreditava ser o diretor do banco e foi solicitado a autorizar uma transferência de 35 milhões de doláres para facilitar uma aquisição. Os Emirados Árabes Unidos estão atualmente investigando essa fraude, pois afetou muitas entidades na região.

Graças à tecnologia de IA emergente, juntamente com a recente crise econômica global, houve um aumento de 40% na atividade de um call center especializado em fraudes em 2022 em relação ao ano anterior.

Este é um número muito alarmante, considerando o quanto a IA está se tornando mais acessível para o público em geral. Em nível corporativo, o treinamento deve ser obrigatório para que os usuários finais detectem tais fraudes e golpes.

Qualquer funcionário voltado para o cliente com acesso a dados e finanças deve sempre ser cético assim que tais solicitações de alto impacto e impulso são feitas. É sempre uma boa prática denunciar tais solicitações às autoridades ou, melhor ainda, entrar em contato diretamente com a pessoa que faz a solicitação e tentar documentá-la. Você nunca saberá se sua tomada de decisão rápida pode acabar custando milhões à sua empresa. Melhor prevenir do que remediar.

Fake news 

De acordo com a pesquisa Gallup de 2022, 53% dos americanos demonstraram desconfiança em veículos de mídia antigos e afirmam que esses veículos podem estar intencionalmente enganando as pessoas. Cerca de 62% dos adultos estão recebendo suas notícias de fontes de mídia social, e esse número está crescendo constantemente. Os golpistas estão se aproveitando dessa crescente confiança nas mídias sociais como fonte de notícias.

No dia em que o ex-presidente dos Estados Unidos, Donald Trump, deveria chegar a Nova York para participar de sua recente audiência de acusação, algumas imagens de Trump sendo levado à força pela polícia circulavam na internet. Felizmente, não houve reação de seus apoiadores, mas essas imagens de “fake news” poderiam muito facilmente ter sido armadas para incitar a violência.

De acordo com um estudo do Duke Reporters’ Lab, existem 194 entidades de verificação de fatos estabelecidas em 60 países, todas empregando intervenção manual.

Mas será que essas entidades estão equipadas para detectar fraudes de IA? Em 2020, a Meta começou a implementar tecnologias como ObjectDNA e redes neurais adversárias generativas (GANs).

As GANs consistem em dois sistemas de aprendizado de máquina: o adversário e o verificador. O adversário gera notícias falsas que correspondem a certos critérios, como a capacidade de viralizar, persuasão e senso de urgência, enquanto o verificador, tendo acesso a um grande banco de dados de notícias reais e algumas notícias falsas do adversário, classificará essas histórias como reais ou falsas.

A verificação de fatos alimentada por IA é uma coisa real. Com a IA capacitando as fábricas de boatos e permitindo a desinformação desenfreada on-line, é sensato que combatamos a IA enganosa com IA de detetive.

De forma alarmante, mais de 71% dos destinatários em uma pesquisa de 2022 disseram que não estão cientes do que é um deepfake, e 57% das pessoas que sabem o que é dizem que seriam capazes de detectar um. O trabalho remoto tornou mais fácil para os funcionários desfrutarem do conforto de suas casas ou de um retiro à beira-mar enquanto estão trabalhando, mas os empregadores definitivamente não previram a probabilidade que isso daria para o engano. Aqui estão dois golpes deepfake realmente criativos que superlotaram a internet em 2022:

1. Golpe da entrevista de trabalho remoto 

Os golpistas empregam tecnologia deepfake, entre outras maneiras criativas de participar remotamente de entrevistas de emprego. Em seguida, eles marcam empregos em funções de TI orientadas por dados com acesso ilimitado a dados pessoais, que posteriormente roubam e usam indevidamente.

2. Elon Musk Golpe BitVex 

No ano passado, um vídeo de Elon Musk falando sobre seu novo projeto cripto chamado BitVex foi visto circulando online. No vídeo também foi visto o CEO da Binance, Changpeng Zhao, entre outros, dando suas garantias. Acontece que o vídeo era um deepfake mal executado e, apesar das garantias, a BitVex só conseguiu registrar US$ 1.700 em depósitos.

Conclusão 

Com as novas tecnologias, surgem novas formas de enganar. O engano pode vir de alguém tão próximo quanto a pessoa com quem você compartilha sua casa. Bem, não exatamente essa pessoa, mas uma cópia de carbono indistinguível gerada por IA dessa pessoa. Embora a tecnologia de IA atual possa estar em um estágio muito inicial, ela definitivamente está indo em uma direção em que será praticamente impossível identificar as falsificações das reais.

Talvez agora, depois de um pouco de enrolação, você possa conseguir recuperar sua esposa depois que esse deepfake de você veio a público, mas sem a conscientização e educação necessária, os golpes alimentados por IA podem arruiná-lo completamente – então esteja preparado.

Traduzido do artigo original.

Traduzido por Evellyn da Silva Amorim