Les LLM sont des menaces pour la sécurité selon Cisco Talos

Les LLM sont des menaces pour la sécurité selon Cisco Talos

Grâce à leur capacité à générer du texte persuasif, à résoudre des problèmes, à écrire du code informatique et à accomplir diverses tâches, les LLM sont incontournables et gagnent en popularité dans de nombreux secteurs. Hugging Face, une plateforme hébergeant des LLM, rapporte qu’il existe actuellement plus de 1,8 million de modèles différents. La plupart de ces modèles sont dotés de mécanismes de sécurité intégrés (appelés « garde-fous » et « alignements ») destinés à empêcher leur utilisation à des fins criminelles.

Talos a identifié un nombre significatif de LLM non censurés permettant aux cybercriminels de créer des messages de phishing et des communications frauduleuses très réalistes, souvent exempts de fautes grammaticales ou de formulations suspectes. Cela augmente la probabilité de divulgation d’informations sensibles personnelles ou professionnelles de la part des victimes Parmi ces modèles figurent Ollama et WhiteRabbitNeo, ce dernier se présentant comme un outil capable de soutenir des opérations de cybersécurité tant défensives qu’offensives.

LLM légitimes : une cible privilégiée

En raison de la faible viabilité des LLM non censurés et du risque élevé d’escroquerie associé aux LLM malveillants, les cybercriminels préfèrent souvent détourner les LLM légitimes. Ces modèles offrent une plateforme puissante, à condition que leurs mesures de sécurité intégrées puissent être contournées. Les principaux obstacles sont les directives d’apprentissage et les garde-fous empêchant les modèles de répondre à des requêtes illégales, nuisibles ou contraires à l’éthique.

Pour contourner ces restrictions, les cybercriminels utilisent des techniques telles que l’injection de prompt, visant à « jailbreaker » les modèles et à franchir leurs limitations pour générer des contenus nuisibles.

« Pour lutter contre l’abus des grands modèles de langage, les organisations doivent adapter leurs mesures de sécurité en conséquence », déclare Jan Heijdra, CTO Sécurité chez Cisco Pays-Bas. « Cela implique de surveiller le trafic lié à l’IA, de détecter les prompts suspects et de former les employés à reconnaître les e-mails de phishing générés par l’IA. Par ailleurs, nous recommandons fortement de travailler exclusivement avec des modèles de confiance et des plateformes bien sécurisées. »

Lire plus