ChatGPT

L’intelligence artificielle (IA), associée au machine Learning (ML), est à la fois la solution à de nombreux problèmes de cybersécurité et l’avenir dystopique décrit dans de nombreux films de science-fiction et dans la littérature apocalyptique.

 Au-delà de l’inclusion de l’IA comme outil de marketing pour les nouvelles technologies et comme approche plus sophistiquée et automatisée de celles-ci dans de nombreuses présentations des fournisseurs, l’idée fait déjà son chemin. Avec la sortie de ChatGPT, un composant de la plateforme OpenAI qui permet au dialogue conversationnel de répondre aux questions, de participer à la discussion et d’offrir des réponses approfondies, elle fait irruption dans le domaine public d’une manière totalement nouvelle vers la fin de l’année 2022.

Les avancées scientifiques deviennent largement disponibles en 2021-2022. Avec ChatGPT, OpenAI a enfin rendu son modèle de langage GPT-3 ( Generative Pretrained Transformer 3, ou Transformateur génératif pré-entraîné en français ) accessible à tous. Vous pouvez constater par vous-même comment le robot maintient une discussion logique, enseigne des sujets scientifiques difficiles mieux que de nombreux professeurs, traduit magnifiquement des textes d’une langue à l’autre, et bien plus encore, en visitant chat.openai.com, où il est disponible.

 Voici quelques exemples de la façon dont ChatGPT peut transformer l’industrie de la cybersécurité.

  • La production de malwares : Les pirates novices décrivent comment ils utilisent ChatGPT pour développer de nouveaux chevaux de Troie sur des forums de pirates. Parce que le bot peut écrire du code, si vous définissez brièvement la fonction requise,vous pouvez créer un infostealer simple sans connaître la programmation. Les utilisateurs honnêtes, cependant, n’ont pas à s’inquiéter. Les outils de sécurité identifieront et élimineront le code écrit par un robot aussi rapidement et efficacement que tout malware antérieur créé par des humains, s’il est jamais utilisé. De plus, si un tel code n’est pas examiné par un programmeur expert, le logiciel malveillant est plus susceptible d’inclure des erreurs microscopiques et des défauts logiques qui réduiront son efficacité. Les robots ne peuvent actuellement rivaliser qu’avec des créateurs de virus inexpérimentés.

  • L’évaluation du malware : Les analystes d’InfoSec procèdent à l’ingénierie inverse de nouvelles applications suspectes pour essayer de comprendre leur fonctionnement au fur et à mesure qu’ils les analysent. Même si ChatGPT est incapable de terminer cette tâche, il est déjà capable de décrire brièvement ce qu’un extrait de code accomplit. Le plugin génère parfois des fichiers indésirables ou ne fonctionne pas, mais lorsqu’il nomme correctement les fonctions et reconnaît les techniques de cryptage dans le code et leurs arguments, il est utile de l’avoir dans votre boîte à outils. Il excelle dans les environnements SOC où les analystes constamment surchargés de travail doivent consacrer un minimum de temps à chaque événement. Par conséquent, toute solution susceptible d’accélérer le processus est appréciée.

  • L’étude de vulnérabilité : Une recherche automatisée de code faible est une variante de la stratégie susmentionnée. Le pseudo-code d’une application décompilée est lu par le chatbot, qui repère ensuite les points faibles potentiels. Le bot propose également du code Python destiné à l’exploitation des vulnérabilités (PoC). Le bot peut certainement commettre diverses erreurs lors de la recherche de vulnérabilités et de la création de code de preuve de concept, mais même dans cet état, l’outil est utile à la fois pour les attaquants et les défenseurs.

  • Le conseil de sécurité : Les conseils liés à la cybersécurité de ChatGPT semblent crédibles car ils sont conscients de ce que les gens disent en ligne. Mais comme vous ne savez peut-être jamais d’où proviennent les conseils d’un chatbot, il peut y avoir une mauvaise recommandation pour chaque bonne dizaine.

  • L’hameçonnage et les BEC : GPT-3 et ChatGPT sont tous les deux bons pour  créer des messages convaincants, par conséquent, les attaques automatisées par hameçonnage utilisant des chatbots sont probablement déjà courantes. Le plus gros problème avec les e-mails de phishing en masse est qu’ils ne semblent pas bons et contiennent une quantité excessive de langage générique qui ne s’adresse pas spécifiquement au lecteur. En ce qui concerne le spear-phishing, il n’est utilisé que dans des agressions ciblées car il est très coûteux lorsqu’un véritable cybercriminel envoie un e-mail à une seule victime. Parce qu’il permet aux attaquants de produire des e-mails convaincants et personnalisés à grande échelle, ChatGPT est sur le point de changer fondamentalement l’équilibre des pouvoirs. Le chatbot doit recevoir des instructions extrêmement spécifiques pour qu’un e-mail soit complet. Cependant, les attaques d’hameçonnage importantes impliquent souvent une succession d’e-mails, dont chacun gagne progressivement la confiance de la victime. Par conséquent, ChatGPT fera vraiment gagner beaucoup de temps aux cybercriminels pour les deuxième, troisième et nième e-mails. En raison de la mémoire du chatbot du contexte de la conversation, les e-mails suivants peuvent être générés de manière experte à partir d’une commande brève et simple. De plus, la réponse de la victime est simple à inclure dans le modèle, ce qui crée un suivi puissant en quelques secondes. La correspondance stylisée est l’une des ressources que les attaquants pourraient utiliser. La boîte de discussion peut facilement utiliser un style similaire dans les messages suivants, en n’en donnant qu’un court échantillon. Cela permet la création de faux courriels convaincants prétendant être envoyés par un employé à un autre. Malheureusement, cela indique qu’il y aura une augmentation du nombre de tentatives de phishing réussies. De plus, le chatbot sera aussi convaincant sur les réseaux sociaux, dans les e-mails et dans les e-mails.

 Comment pouvez-vous répondre? Des outils pour identifier les messages des chatbots sont continuellement développés par des professionnels de l’analyse de contenu. Le succès de ces filtres sera déterminé au fil du temps. Cependant, pour le moment, nous ne pouvons que recommander nos deux suggestions confirmées (vigilance et formation de sensibilisation à la cybersécurité), plus une nouvelle. Apprenez à identifier les textes produits par les robots. Même si les caractéristiques mathématiques ne sont pas visibles à l’œil nu, de subtiles différences esthétiques et d’infimes incohérences peuvent néanmoins identifier les robots.