Cinco leituras recomendadas é uma coluna regular sobre cinco itens dignos de nota que descobrimos ao pesquisar tópicos de tendências e atemporais. Na edição desta semana, vamos explorar como a inteligência artificial e o aprendizado de máquina são armados por hackers para alimentar ataques cibernéticos.
A Inteligência Artificial (IA) e e a aprendizagem automática (ML, ou Machine Learning) estão conquistando o mundo em um ritmo acelerado. A IA tornou a vida muito mais fácil. Em muitos casos, acelera processos manuais, reduz custos e elimina erros manuais. No entanto, também é conhecido por beneficiar os cibercriminosos que empregam IA para realizar ataques com mais eficiência.
Um exemplo de cibercrime alimentado por IA são os deepfakes. Um deepfake, que é uma junção de “deep learning” e “fake”, pode ser usado para manipular rostos e vozes combinando vários ângulos dos rostos das pessoas, imitando seus maneirismos e padrões de fala, para personificar indivíduos. Há tanto software de código aberto disponível online para criar deepfakes que se tornou quase impossível identificar o que é real e o que é falso.
Os modelos de ML exigem grandes quantidades de dados de treinamento para funcionar de forma eficaz. Quanto mais dados são inseridos no sistema, mais preciso ele fica. No entanto, ML adversário é um termo que define como um sistema de ML pode ser induzido a cometer erros, alimentando-o com dados de treinamento incorretos, interrompendo assim o modelo de ML. Esse envenenamento de dados leva a um sistema de defesa vulnerável, permitindo que os invasores tenham sucesso em ataques automatizados de spear phishing, explorando os pontos fracos que foram classificados como positivos, outra ameaça difícil de detectar para olhos destreinados.
Um ataque de botnet com inteligência artificial pode ser extremamente perigoso. Ele não para no ataque a dispositivos de computador – esse tipo de ataque também é capaz de infectar smartphones, câmeras de vigilância e dispositivos de IoT. DDoS é uma forma comum de tais ataques; os invasores coletam o máximo de dados possível para criar um modelo de ML e os usam para treinar o malware a prever o padrão de defesa do sistema para permitir estratégias automatizadas de tomada de decisão. Esses ataques com inteligência artificial são capazes de alterar automaticamente suas estratégias de ataque com base na resposta do sistema de defesa.
Um sofisticado sistema de IA, quando nas mãos de um agente mal-intencionado, é uma ameaça iminente aos sistemas de segurança; esse sistema pode se adaptar aos protocolos e canais de comunicação de uma organização, disfarçando-se e espalhando-se facilmente por vários dispositivos e redes, derrubando uma cidade inteira ou a rede de uma nação em um piscar de olhos.
Os artigos abaixo mostram como IA e ML são usados como ingrediente para criar malware sofisticado para realizar ataques.
Nossas recomendações de leitura:
1. Reconhecimento facial pode ser usado para falsificar identidades, alerta Kaspersky
Aplicativos como o FaceApp podem estar utilizando IA para colher dados e imagens e utilizá-las para burlar ferramentas de reconhecimento facial. Saiba como se proteger com esse artigo da Kaspersky.
2. O malware do futuro terá superpoderes de inteligência artificial
A IA é uma faca de dois gumes que pode ser empregada tanto como arma quanto como solução. Os ataques cibernéticos estão se tornando mais frequentes, mais sofisticados e mais difíceis de detectar, deixando as organizações cada vez mais vulneráveis à perda de receita, multas ou até falência, enquanto hackers começam a desenvolver malwares que utilizam a IA para reescrever seus próprios códigos e escapar de detecção.
3. 96% dos profissionais se preparam para ataques baseados em IA
Confira o relatório da MIT Technology Review sobre o surgimento de novos ataques cibernéticos que utilizam IA para maximizar sua eficácia, e veja o que grandes empresas estão fazendo para se proteger.
O reconhecimento facial pode ser uma boa ferramenta para autenticação multifator, mas não é completamente imune aos novos malwares que estão sendo desenvolvidos. Descubra como o malware DeepLocker usa a IA para manter-se escondido até que possa atingir vítimas específicas.
5. Inteligência artificial combate vírus, mas também serve a cibercriminosos
A IA tem a capacidade de se adaptar a um ambiente específico ou de responder a ele de forma inteligente.Os hackers desenvolvem malware inteligente e executam ataques furtivos aprendendo o ciclo de vida da atualização do patch para identificar quando um sistema está menos protegido. As soluções de segurança cibernética baseadas em IA podem ajudar as organizações detectando e analisando padrões de atividade incomuns e bloqueando usuários considerados maliciosos, impedindo que malwares se espalhem pelo sistema e acessem recursos do sistema.
Conclusão
A natureza poderosa da IA está sendo examinada de perto por organizações e governos. Para proteger dados, ativos e propriedade intelectual, toda organização precisa implementar as defesas cibernéticas baseadas em IA corretas para garantir que estejam mitigando adequadamente a ameaça dos cibercriminosos e, ao mesmo tempo, se preparando para enfrentar quaisquer formas de ameaças que possam surgir no futuro.
Esperamos que, depois dessas leituras, você saiba mais sobre os perigos iminentes causados pela IA e pela ML, mas também perceba a necessidade de adequar o seu negócio para lidar eficientemente contra essas ameaças. Caso queria saber mais sobre como adaptar sua estratégia de segurança, entre no nosso site e descubra nossas soluções de segurança. Caso reste alguma dúvida, é só entrar em contato conosco que estamos a disposição!