L’IA génère 10 000 malwares JavaScript, échappant à 88 % des détections grâce à des réécritures sophistiquées et un obscurcissement naturel.
Les avancées en matière d’IA posent des défis majeurs à la cybersécurité. Des modèles de langage génèrent jusqu’à 10 000 variantes de malwares, avec un taux de détection limité à 12 %. Cette aptitude à échapper aux systèmes de protection redéfinit les approches en matière de sécurité numérique.
L’usage des modèles de langage par les cybercriminels
Bien qu’initialement conçus pour des usages bénéfiques, les modèles de langage permettent désormais de réécrire des malwares existants. Les IA complexifient leur détection. Contrairement à la création de malwares ex nihilo, ces réécritures produisent des variantes subtiles, échappant aux systèmes d’apprentissage automatique.
Les transformations incluent le renommage des variables, l’insertion de code inutile ou la modification de la structure du script. Ces ajustements dégradent les performances des outils de détection. Cette technique, appelée apprentissage antagoniste, fait basculer les verdicts de « malveillant à bénin » dans 88 % des cas.
Échec des outils face aux malwares réécrits par l’IA
Les outils d’analyse de malwares, comme VirusTotal, peinent à repérer ces codes transformés. Les réécritures par IA surpassent celles effectuées par des bibliothèques classiques comme Obfuscator.io. Ces dernières sont souvent identifiables en raison de leur manque de subtilité. En revanche, les modèles de langage produisent des résultats qui paraissent beaucoup plus naturels.
Vous aimerez aussi cet article:
Création massive de malwares grâce à l’IA
Les chercheurs de l’unité 42 de Palo Alto Networks ont révélé l’ampleur de la menace. En exploitant les modèles de langage, ils ont pu produire jusqu’à 10 000 variantes de malwares JavaScript. Ces codes réécrits conservent leur fonctionnalité tout en étant presque impossibles à détecter.
L’algorithme utilise diverses techniques pour modifier les scripts, sans en altérer le comportement. Ces modifications incluent des ajustements subtils, comme le fractionnement des chaînes ou la suppression des espaces inutiles. Chaque transformation contribue à brouiller les pistes, déjouant ainsi les modèles de classification des malwares. Cette stratégie menace de saturer les systèmes de sécurité, les rendant moins efficaces.
Vous aimerez aussi cet article:
Une menace pour les infrastructures critiques
La capacité à générer autant de variantes de malwares inquiète les experts. Les malwares réécrits par l’IA ciblent des infrastructures sensibles, telles que les réseaux énergétiques et les systèmes de santé. Les cybercriminels peuvent utiliser ces outils pour contourner les mesures de protection et lancer des attaques sophistiquées.
En réponse, les chercheurs recommandent une approche proactive. Cela inclut la création de données d’entraînement enrichies pour améliorer la robustesse des modèles de détection. L’utilisation de l’IA pour renforcer les modèles de détection s’impose comme une piste prometteuse.
Cependant, la course entre protection et attaque reste ouverte. En 2024, OpenAI a réussi à contrer plus de 20 activités illicites liées à ces technologies. Cependant, des outils comme WormGPT continuent de circuler, facilitant la création de malwares et de courriels d’hameçonnage sophistiqués.