L’IA et le ML conquièrent le monde à un rythme rapide. L’IA a rendu la vie beaucoup plus facile. Dans de nombreux cas, elle accélère les processus manuels, réduit les coûts et élimine les erreurs manuelles. Cependant, on sait qu’elle profite également aux cybercriminels qui emploient l’intelligence artificielle pour mener des attaques plus efficacement.
Les deepfakes sont un exemple de cybercriminalité alimentée par l’IA. Un deepfake, qui est un portmanteau de “deep learning” et “fake”, peut être utilisé pour manipuler des visages et des voix en combinant plusieurs angles de visages de personnes, en imitant leurs manières et leurs modèles de discours, afin d’usurper l’identité de personnes. Il y a tellement de logiciels open source disponibles en ligne pour créer des deepfakes qu’il est devenu presque impossible d’identifier ce qui est vrai et ce qui est faux.
Les modèles ML nécessitent des quantités massives de données d’entraînement pour fonctionner efficacement. Plus le système est alimenté en données, plus il devient précis. Cependant, le terme “adversarial ML” définit la manière dont un système ML peut être amené à commettre des erreurs en lui fournissant des données d’entraînement incorrectes, ce qui perturbe le modèle ML. Un tel empoisonnement des données rend le système de défense vulnérable, ce qui permet aux attaquants de réussir des attaques de phishing automatisé en exploitant les points faibles qui ont été classés comme positifs, ce qui constitue une autre menace difficile à détecter pour un œil non averti.
Une attaque par un botnet alimenté par l’IA peut être extrêmement dangereuse. Elle ne se limite pas à l’attaque des appareils informatiques : ce type d’attaque est capable d’infecter également les smartphones, les caméras de surveillance et les appareils IoT. Le DDoS est une forme courante de ces attaques ; les attaquants rassemblent autant de données que possible pour construire un modèle ML, et ils l’utilisent pour entraîner le logiciel malveillant à prédire le schéma de défense du système afin de permettre des stratégies de prise de décision automatisées. Ces attaques alimentées par l’IA sont capables de modifier automatiquement leurs stratégies d’attaque en fonction de la réponse du système de défense.
Un système d’IA sophistiqué, lorsqu’il est entre les mains d’un acteur malveillant, constitue une menace imminente pour les systèmes de sécurité ; ce système peut s’adapter aux protocoles et aux canaux de communication d’une organisation en se déguisant et en se propageant facilement sur de multiples appareils et réseaux, mettant ainsi hors service le réseau d’une ville ou d’une nation entière en un clin d’œil.
Les articles ci-dessous devraient comment l’IA et le ML sont utilisés comme un ingrédient pour créer des logiciels malveillants sophistiqués pour effectuer des attaques.
Le ML et l’IA sont très efficaces pour prévenir les ransomwares ; cependant, les cybercriminels peuvent utiliser le ML pour effectuer un empoisonnement des données. L’empoisonnement des données adverses peut se faire de deux manières : en injectant des données d’entraînement erronées et en détruisant l’intégrité du système ou en générant une porte dérobée pour les cyberattaques.
Les attaques d’ingénierie sociale comme les deepfakes et les attaques de spear phishing sont devenues une préoccupation croissante au cours des dernières années. Des spams et des courriels de phishing sur mesure ciblent des personnes très en vue dans une organisation en utilisant des courriels et des factures convaincants pour persuader l’utilisateur de partager des données confidentielles. L’IA armée peut identifier les points faibles d’une organisation et s’adapter au système en imitant des éléments de confiance pour causer un maximum de dommages.
Le ML nécessite d’énormes ensembles de données pour fonctionner efficacement et doit être rigoureusement surveillé et testé pour éviter tout dommage potentiel qu’il pourrait causer. Les menaces peuvent provenir soit d’erreurs manuelles lors de la conception du système, soit d’une personne qui souhaite délibérément l’armer pour des attaques en procédant à une rétro-ingénierie du système pour trouver quelles données ont été utilisées pour former le système, puis en les manipulant. La surveillance et l’analyse basées sur l’IA peuvent aider à identifier et à alerter sur tout comportement anormal du système et à combattre efficacement les menaces lorsqu’elles apparaissent.
L’IA est une arme à double tranchant qui peut être utilisée aussi bien comme une arme que comme une solution. Les cyberattaques deviennent plus fréquentes, plus sophistiquées et plus difficiles à détecter, ce qui rend les organisations de plus en plus vulnérables aux pertes de revenus, aux amendes, voire à la faillite. Les pirates construisent des logiciels malveillants dotés d’une IA qui peuvent réécrire leur code lorsqu’ils sont détectés afin d’éviter ce qui les a fait trébucher dans le passé et de lancer une nouvelle attaque. Ces logiciels malveillants peuvent apprendre à connaître un système de sécurité et s’y adapter afin de déterminer quelle charge utile utiliser pour exploiter le système lors de la prochaine tentative.
L’IA a la capacité de s’adapter à un environnement particulier ou d’y répondre intelligemment. Les pirates développent des logiciels malveillants intelligents et exécutent des attaques furtives en apprenant le cycle de vie des mises à jour des correctifs pour identifier le moment où un système est le moins protégé. Les solutions de cybersécurité basées sur l’IA peuvent aider les organisations en détectant et en analysant les modèles d’activité inhabituels et en verrouillant les utilisateurs jugés malveillants, empêchant ainsi les logiciels malveillants de se propager dans le système et d’accéder aux ressources du système.
La nature puissante de l’IA est examinée de près par les organisations et les gouvernements. Afin de protéger les données, les actifs et la propriété intellectuelle, chaque organisation doit mettre en œuvre les bonnes cyberdéfenses basées sur l’IA pour s’assurer qu’elles atténuent correctement la menace des cybercriminels et se préparent en même temps à faire face à toutes les formes de menaces qui pourraient survenir à l’avenir.