Uma mão transparente com códigos e fios.

Todos nós já ouvimos o clichê: “a mudança é a única constante”.

Claro, foi usado em excesso a ponto de perder o significado, mas isso não muda o fato de que essa afirmação é verdadeira – e não poderia ser mais adequada ao descrever o cenário tecnológico global. stá cheio de pioneiros e inovadores competindo entre si por qualquer vantagem possível e isso trouxe algumas coisas incríveis: os smartphones que se tornaram comuns ou mesmo os adventos mais recentes da realidade aumentada e da computação espacial, por exemplo.

Infelizmente, como em todas as coisas, o risco é inevitável. Enquanto os pioneiros e inovadores do mundo da tecnologia estão ocupados trabalhando, há outro tipo de inovador desonesto à espreita nas sombras. Veja bem, assim como os especialistas em tecnologia que as desenvolvem para facilitar nossas vidas, os agentes mal-intencionados estão trabalhando incansavelmente, inventando métodos cada vez mais complexos e convincentes para roubar nossos dados. E, sem surpresa, a IA também está sendo usada em maquinações perversas.

Aqui estão quatro riscos que enfrentamos como resultado.

1. Golpes de phishing ativados por IA generativa 

O estilo de escrita do ChatGPT é indistinguível da escrita humana, o que significa que você pode gerar conteúdo que pareça legítimo a partir de entradas simples. Esses recursos de geração de linguagem podem permitir que os agentes de ameaças criem golpes de phishing mais eficazes. Algumas das ofertas mais óbvias de um golpe são gramática ruim, erros de ortografia e estrutura de frase questionável, e a IA generativa pode eliminar esses erros, tornando muito mais difícil diferenciar esses e-mails maliciosos da correspondência legítima.

2. Código malicioso gerado por IA 

Todos sabemos que o ChatGPT é capaz de escrever códigos. E, assim como seus filtros de conteúdo, ele possui proteções que o impedem de criar malware ou qualquer outro tipo de código malicioso.

No entanto, essas grades de proteção não são infalíveis; é possível contorná-los se você for esperto o suficiente.

Vamos ver desta forma: o ChatGPT obviamente recusará se você pedir explicitamente para criar malware. O que você pode fazer é pedir para gerar código para cada função específica do malware separadamente, fazer alguns ajustes aqui e ali para torná-lo mais eficaz e compilá-lo você mesmo. Embora o ChatGPT não seja capaz de escrever códigos maliciosos complexos por si só, ele pode ajudar hackers pouco qualificados a criar malware básico ou melhorar um existente. E mesmo que as melhorias sejam continuamente feitas nas grades de proteção, devemos entender que esse risco nunca pode ser totalmente eliminado, por isso é importante restringir essa atividade o máximo e o mais rápido possível.

3. Deepfakes maliciosos 

Vamos começar com a boa notícia: atualmente, a maioria dos deepfakes é muito “uncanny valley” e bastante fácil de detectar a olho nu. No entanto, de forma bastante alarmante, essa tecnologia está se tornando cada vez mais convincente e, ao mesmo tempo, mais facilmente acessível.

Quando os deepfakes começaram a ganhar força, apenas aqueles com as habilidades e os conhecimentos necessários eram capazes de criá-los; felizmente, a maioria desses especialistas começou a divulgar essa tecnologia. Mas agora, graças às ferramentas de IA prontamente disponíveis, qualquer pessoa pode os criar.

Wombo.ai e Avartify são algumas das ferramentas de deepfake mais usadas atualmente que permitem usar modelos de IA para animar imagens estáticas de pessoas com facilidade e em um período muito curto de tempo. É claro que essas ferramentas não são nem de longe sofisticadas como deepfakes feitas profissionalmente, mas essa tecnologia está evoluindo tão rápido que é totalmente justo prever que essas ferramentas simples também podem evoluir para um nível em que geram resultados fotorrealistas.

4. Golpes de clonagem de voz 

As ferramentas de clonagem de voz são aquelas que usam a tecnologia deepfake para imitar os padrões de voz e fala de outra pessoa. Embora os deepfakes de vídeo possam ser detectados a olho nu (pelo menos até agora), é muito mais complicado quando se trata de clonagem de voz.

Este tipo de ataque é conhecido como phising. Para conhecer mais sobre ele, leia este artigo.

Conclusão

A ascensão da IA nos últimos anos é bastante semelhante à revolução digital do século XX. Estamos falando de um subconjunto altamente disruptivo de tecnologia que já está revolucionando nosso trabalho, educação e até mesmo nossa vida diária.

E por todos os benefícios que a IA traz, também é de extrema importância reconhecer e se preparar para os inúmeros riscos que ela representa. Portanto, vamos garantir que estamos nos equipando proativamente com as ferramentas defensivas e o know-how para combater com eficácia as ameaças de segurança geradas pela IA para que não nos encontremos totalmente despreparados e mal equipados para lidar com ameaças que podem se tornar comuns em um futuro muito próximo.

Artigo original: Top tips: What AI-powered security risks should you keep an eye out for?