Les cybercriminels et l’utilisation croissante de l’intelligence artificielle
L’utilisation de l’intelligence artificielle (IA) par les cybercriminels est de plus en plus répandue, ce qui leur permet de mener des attaques plus efficaces et crédibles. L’IA générative, rendue populaire par le robot conversationnel ChatGPT, est désormais utilisée dans le monde de la cybercriminalité. Les cybercriminels ont mis à jour leurs outils, ce qui a un impact sur des activités telles que le phishing, les rançongiciels, les escroqueries et même les arnaques au président.
Une IA démocratisée chez les cybercriminels
Selon Jean-Jacques Latour, directeur de l’expertise en cybersécurité de Cybermalveillance.gouv.fr, l’IA est de plus en plus utilisée par les cybercriminels, ce qui les rend plus efficaces et crédibles. Les méthodes utilisées par ces criminels restent les mêmes, mais le volume des attaques et leur force de persuasion augmentent considérablement.
L’évolution du phishing et des escroqueries
Le phishing, qui consiste à envoyer des e-mails frauduleux promettant des cadeaux gratuits ou des réductions, devient de plus en plus sophistiqué. Les cybercriminels évitent désormais les erreurs de syntaxe ou d’orthographe, adaptent leur langage à leurs cibles et utilisent des contextes appropriés pour les inciter à cliquer sur des liens ou des sites suspects.
L’IA générative pour créer des logiciels malveillants personnalisés
L’IA générative peut être détournée pour créer des logiciels malveillants personnalisés, exploitant les vulnérabilités connues des programmes informatiques. Des programmes tels que ThreatGPT, WormGPT et FraudGPT se développent sur le Darknet et gagnent en popularité auprès des acteurs malveillants.
L’utilisation de l’IA pour trier et exploiter les données
Les hackers utilisent également l’IA pour trier et exploiter une grande quantité de données après avoir infiltré un système informatique. Cela leur permet de maximiser leurs profits en ciblant les informations les plus pertinentes.
L’IA dans les escroqueries au président et les rançongiciels
L’IA est également utilisée dans le cadre des escroqueries au président, où les hackers collectent des informations sur les dirigeants d’entreprises afin de pouvoir effectuer des virements frauduleux. Grâce aux générateurs d’audio « deepfake », ils peuvent imiter parfaitement la voix des dirigeants pour donner des ordres de virement. Par ailleurs, les entreprises et les hôpitaux sont confrontés aux rançongiciels qui utilisent déjà l’IA pour modifier leur code et échapper à la détection des outils de sécurité.
Les contenus synthétiques générés par l’IA pour tromper les victimes
La police britannique a déjà signalé des cas où des contenus synthétiques générés par l’IA ont été utilisés pour tromper, harceler ou extorquer des victimes. Bien que les premiers cas en France n’aient pas été officiellement recensés, des doutes subsistent quant à l’utilisation de l’IA par les criminels.
La règle du « zero trust » et les hackers actifs
Face à ces nouvelles menaces, il est essentiel d’appliquer la règle du « zero trust » en matière de cybersécurité et d’IA, c’est-à-dire de ne faire confiance à aucun élément a priori. Les hackers les plus actifs sont généralement des réseaux bien organisés d’Europe de l’Est, mais il ne faut pas négliger les pirates étatiques de pays en marge.
Conclusion
En conclusion, l’utilisation croissante de l’IA par les cybercriminels représente une menace grandissante. Ces criminels exploitent l’IA pour améliorer leurs techniques et mener des attaques plus crédibles. Il est donc essentiel de rester vigilant et de mettre en place des mesures de protection appropriées pour contrer ces menaces.