A tecnologia Deepfake, que foi recentemente identificada como uma verdadeira ameaça cibernética, enfatiza a noção de que um ataque pode surgir de qualquer lugar. Embora a criação de deepfakes possa ser rastreada até 2017, tornou-se uma tendência popular quando um vídeo com o ex-presidente dos EUA Barack Obama e Jordan Peele circulou nas mídias sociais. O vídeo foi criado pela produtora de Peele usando o FakeApp, a ferramenta de troca de rosto de IA, e o Adobe After Effects.

De acordo com a plataforma de inteligência de ameaças IntSights, embora a tecnologia deepfake não seja uma escolha tão popular para ciberataques quanto outros métodos, é uma ameaça emergente que as equipes de segurança devem estar atentas. A IntSights também reconheceu um aumento de 43% nas conversas de hackers sobre deepfakes em fóruns da dark web desde 2019.

O que são deepfakes? 

Uma amálgama dos termos “deep learning” e “fake”, um deepfake é uma versão sintetizada ou falsa de uma imagem, vídeo ou arquivo de áudio, manipulada para fazer o observador acreditar que é real. Deepfakes são criados usando métodos de deeplearning e software de inteligência artificial.

O deepfake mencionado anteriormente contendo Obama e Peele foi feito para aumentar a conscientização sobre deepfakes e contém um vídeo falso de Obama alertando os usuários para terem cuidado ao consumir conteúdo online.

Qual é a tecnologia por trás dos deepfakes? 

Deepfakes são criados usando metodologias de aprendizado profundo; mais especificamente, uma  rede adversarial generativa (GAN). GAN é um grupo de modelos de rede neural, que inclui modelos de aprendizado de máquina que ensinam os computadores a processar informações como o cérebro humano.

O GAN usado para criar deepfakes consiste em duas grandes redes neurais executadas por algoritmos de IA individuais – um é chamado de gerador e o outro de discriminador. Em termos simples, o gerador cria conteúdo falso e o envia para o discriminador, que então compara o conteúdo falso com o conteúdo de destino para identificar as diferenças entre os dois. O gerador então tenta eliminar essas diferenças e enganar o discriminador novamente por meio de conteúdo falso aprimorado. Esse ciclo continua até que um arquivo falso quase perfeito seja gerado.

Normalização de deepfakes 

Embora os efeitos prejudiciais da tecnologia deepfake tenham sido reconhecidos, suas vantagens também são reconhecidas, principalmente na indústria cinematográfica. Os deepfakes têm sido vistos como uma alternativa mais barata às técnicas caras de CGI e como uma maneira de reviver efetivamente os atores (ou seja, retratá-los em filmes) quando eles não estiverem mais vivos. Isso levou ao nascimento de vários aplicativos deepfake que qualquer um pode usar. Criar deepfakes nunca foi tão fácil.

 Como os deepfakes podem induzir ataques cibernéticos 

Embora a tecnologia deepfake tenha começado como uma tentativa de criar vídeos ou imagens falsas, agora ela também é usada para imitar mensagens de voz clonadas. Os cibercriminosos podem usar isso para realizar ataques de engenharia social, como:

  • Vishing: o vishing ou phishing de voz depende inteiramente de convencer a vítima a realizar uma ação por meio de uma chamada telefônica falsa, que pode levar a um resultado malicioso. Os phishers podem criar réplicas quase perfeitas de vozes que pertencem às principais partes interessadas em uma empresa, por exemplo, e usá-las para convencer os funcionários a comprometer as credenciais de login ou executar um conjunto de ações que podem levar a um incidente de segurança cibernética.
  • Compromisso de e-mail comercial: semelhante ao vishing, os hackers podem executar um ataque de spear phishing por e-mail, seguido por um telefonema convincente, imitando um fornecedor por meio de áudio deepfake. Isso pode levar um hacker a persuadir um funcionário a enviar fundos para uma conta bancária diferente.

Além disso, os deepfakes também podem ter um profundo impacto político e social, pois podem influenciar as decisões políticas das pessoas que os visualizam ou causar uma reação imediata entre as massas quando um conteúdo falso se torna viral.

Combatendo deepfakes  

Lidar com vídeos ou imagens deepfake pode ser abordado de duas maneiras. Uma é evitar o uso indevido de conteúdo autêntico em vídeos ou imagens falsas, como o uso de mecanismos de blockchain. A outra é usar a tecnologia AI/ML para detectar se o conteúdo foi alterado.

  1. AI/ML como primeira linha de defesa: Elaine Lee, Cientista de Dados Principal da Mimecast, sugere o uso de um sistema baseado em AI semelhante ao usado no YouTube, que examina o áudio, converte-o em texto e analisa o texto em busca de palavras-chave. Essa metodologia pode ser usada para comparar conteúdo de vídeo deepfake com conteúdo original para detectar anomalias e alertar as respectivas autoridades. Isso poderia ser usado como a primeira linha de defesa na detecção de deepfakes, sendo o próximo passo a intervenção humana.

  2. Tecnologia Blockchain: Um estudo recente que se concentra no uso de blockchain para combater deepfakes, propõe um mecanismo de compartilhamento distribuído de dados baseado em contratos inteligentes, uma tecnologia blockchain. Quando um vídeo é criado, um contrato inteligente registra os metadados do vídeo e seus atributos relacionados e cria um hash. O contrato inteligente também concede acesso restrito ao vídeo a indivíduos específicos. Dessa forma, a autenticidade do vídeo permanece intacta, impedindo a criação de deepfakes, pois todo usuário que deseja baixar ou acessar o vídeo precisa interagir com o contrato inteligente.

O uso de assinaturas digitais e autenticação multifator são outros métodos sugeridos para impedir o acesso a vídeo, áudio ou imagens que podem ser usados para criar deepfakes convincentes. Embora as assinaturas digitais sejam uma ótima maneira de autenticar arquivos binários, o conteúdo de vídeo pode exigir mais uma marca d’água do que uma assinatura digital, o que é possível por meio do blockchain, conforme mencionado acima. Garantir a autenticação multifator também ajudará bastante na prevenção do acesso não autorizado a importantes recursos de vídeo que podem ser usados para criar deepfakes.

Esse post foi traduzido da nossa página em inglês SIEM Expert Talks, e sua autoria original é de Anupama. A.