Attention : Un logiciel malveillant iOS révolutionnaire vole vos visages pour tromper la biométrie grâce à l’intelligence artificielle !

Nouvelle menace : un logiciel malveillant iOS vole des visages pour contourner la biométrie avec des échanges AI

Des hackers chinois ont développé un logiciel malveillant appelé « GoldPickaxe », qui représente une nouvelle menace pour la sécurité des utilisateurs d’appareils mobiles iOS. Ce logiciel utilise des échanges d’intelligence artificielle pour contourner les mesures de biométrie et voler des visages, des identifiants personnels et des numéros de téléphone. Les cybercriminels peuvent ensuite utiliser ces informations pour accéder aux comptes bancaires des victimes.

Une attaque sophistiquée

Les chercheurs de Group-IB ont identifié au moins une victime de cette attaque, un citoyen vietnamien qui a perdu environ 40 000 dollars à la suite de cette tromperie. Cette attaque se distingue par l’utilisation de deepfakes, des vidéos manipulées qui permettent de tromper les systèmes de sécurité biométrique des banques d’Asie du Sud-Est. Le logiciel malveillant se fait passer pour une application gouvernementale et cible principalement les personnes âgées. Les victimes sont incitées à scanner leur visage, ce qui permet aux hackers de générer des deepfakes à partir de ces scans.

Le défi de l’authentification biométrique

Cette attaque met en évidence le fait que les technologies de deepfake ont atteint un niveau avancé et sont capables de contourner les mécanismes d’authentification biométrique. Les criminels exploitent cette faiblesse et profitent du fait que la plupart des utilisateurs ne sont pas conscients de cette menace. Selon Andrew Newell, directeur scientifique chez iProov, les deepfakes sont un outil de choix pour les hackers car ils leur confèrent un pouvoir et un contrôle incroyables.

Comment les hackers contournent les banques thaïlandaises

La Banque de Thaïlande a mis en place une politique visant à lutter contre la fraude financière en imposant la reconnaissance faciale pour toute action importante des clients. Cependant, le logiciel malveillant GoldPickaxe a rapidement contourné cette mesure de sécurité. Apparu trois mois après la mise en place de la politique de la banque, ce malware se présente comme une application appelée « Digital Pension » utilisée par les personnes âgées pour recevoir leur pension sous forme numérique. Les victimes sont incitées à scanner leur visage, à télécharger leur carte d’identité gouvernementale et à soumettre leur numéro de téléphone. Contrairement à d’autres malwares bancaires, GoldPickaxe ne fonctionne pas en superposition d’une véritable application financière, mais collecte toutes les informations nécessaires pour contourner les vérifications d’authentification et se connecter manuellement aux comptes bancaires des victimes.

Lutter contre les trojans bancaires biométriques

Ces attaques soulignent la nécessité d’une évolution rapide dans l’industrie bancaire pour faire face aux menaces croissantes. Les banques doivent mettre en place des mesures de sécurité plus avancées, adaptées aux nouveaux défis technologiques. Il est recommandé aux banques de mettre en place une surveillance sophistiquée des sessions des utilisateurs et aux clients d’adopter de bonnes pratiques de sécurité, notamment en évitant de cliquer sur des liens suspects, en vérifiant l’authenticité des communications bancaires et en contactant rapidement leur banque en cas de suspicion de fraude.

Découvrez le sombre univers des hackers et leur IA débridée – Vous ne croirez pas ce que le Dark Web cache !

L’utilisation croissante de l’Intelligence Artificielle par les hackers sur le Dark Web

Les hackers ont découvert les avantages de l’Intelligence Artificielle (IA) générative pour mener leurs activités illégales. Une enquête menée par la société russe Kaspersky sur le Dark Web a révélé que l’utilisation de l’IA, en particulier des outils d’IA générative, est devenue courante et préoccupante.

Des milliers de discussions sur l’utilisation illégale de l’IA

La société Kaspersky Digital Footprint Intelligence a analysé le Dark Web afin d’identifier les discussions portant sur l’utilisation de l’IA par les hackers. Les chercheurs ont découvert des milliers de conversations traitant de l’utilisation illégale et malveillante de l’IA.

En 2023, plus de 3 000 discussions ont été recensées, avec un pic au mois de mars. Bien que le nombre de discussions ait diminué au fil de l’année, elles restent encore actives sur le Dark Web.

L’IA au service des cybercriminels

Ces discussions se concentrent principalement sur le développement de logiciels malveillants et l’utilisation illégale de modèles de langage. Les hackers explorent diverses possibilités, telles que le traitement de données volées et l’analyse de fichiers provenant d’appareils infectés.

Ces échanges témoignent de l’intérêt grandissant des hackers pour l’IA et de leur volonté d’exploiter ses capacités techniques pour mener des activités criminelles plus efficacement.

La vente de comptes ChatGPT volés et de jailbreaks sur le Dark Web

l'incroyable monde des hackers et l'ia débridée sur le dark web

En plus des discussions sur l’utilisation de l’IA, le Dark Web est également un marché prospère pour la vente de comptes ChatGPT volés. Kaspersky a identifié plus de 3 000 annonces proposant la vente de comptes ChatGPT payants.

Les hackers proposent également des services d’enregistrement automatique pour créer en masse des comptes sur demande. Ces services sont distribués sur des canaux sécurisés tels que Telegram.

De plus, les chercheurs ont constaté une augmentation de la vente de chatbots jailbreakés tels que WormGPT, FraudGPT, XXXGPT, WolfGPT et EvilGPT. Ces versions malveillantes de ChatGPT sont dépourvues de limites, non censurées et dotées de fonctionnalités supplémentaires.

Une menace grandissante pour la cybersécurité

l'incroyable monde des hackers et l'ia débridée sur le dark web

L’utilisation de l’IA par les hackers représente une menace croissante pour la cybersécurité. Les modèles de langage peuvent être exploités de manière malveillante, augmentant ainsi le nombre potentiel de cyberattaques.

Il est donc essentiel de renforcer les mesures de cybersécurité pour contrer ces nouvelles formes d’attaques basées sur l’IA. Les experts doivent rester vigilants face à ces évolutions constantes et travailler à l’élaboration de stratégies efficaces pour contrer les cybercriminels.

Explosion des menaces de cybercriminalité avec l’intelligence artificielle : découvrez l’état des lieux alarmant et les perspectives effrayantes !

Les cybercriminels et l’utilisation croissante de l’intelligence artificielle

L’utilisation de l’intelligence artificielle (IA) par les cybercriminels est de plus en plus répandue, ce qui leur permet de mener des attaques plus efficaces et crédibles. L’IA générative, rendue populaire par le robot conversationnel ChatGPT, est désormais utilisée dans le monde de la cybercriminalité. Les cybercriminels ont mis à jour leurs outils, ce qui a un impact sur des activités telles que le phishing, les rançongiciels, les escroqueries et même les arnaques au président.

Une IA démocratisée chez les cybercriminels

Selon Jean-Jacques Latour, directeur de l’expertise en cybersécurité de Cybermalveillance.gouv.fr, l’IA est de plus en plus utilisée par les cybercriminels, ce qui les rend plus efficaces et crédibles. Les méthodes utilisées par ces criminels restent les mêmes, mais le volume des attaques et leur force de persuasion augmentent considérablement.

L’évolution du phishing et des escroqueries

Le phishing, qui consiste à envoyer des e-mails frauduleux promettant des cadeaux gratuits ou des réductions, devient de plus en plus sophistiqué. Les cybercriminels évitent désormais les erreurs de syntaxe ou d’orthographe, adaptent leur langage à leurs cibles et utilisent des contextes appropriés pour les inciter à cliquer sur des liens ou des sites suspects.

L’IA générative pour créer des logiciels malveillants personnalisés

L’IA générative peut être détournée pour créer des logiciels malveillants personnalisés, exploitant les vulnérabilités connues des programmes informatiques. Des programmes tels que ThreatGPT, WormGPT et FraudGPT se développent sur le Darknet et gagnent en popularité auprès des acteurs malveillants.

L’utilisation de l’IA pour trier et exploiter les données

Les hackers utilisent également l’IA pour trier et exploiter une grande quantité de données après avoir infiltré un système informatique. Cela leur permet de maximiser leurs profits en ciblant les informations les plus pertinentes.

L’IA dans les escroqueries au président et les rançongiciels

L’IA est également utilisée dans le cadre des escroqueries au président, où les hackers collectent des informations sur les dirigeants d’entreprises afin de pouvoir effectuer des virements frauduleux. Grâce aux générateurs d’audio « deepfake », ils peuvent imiter parfaitement la voix des dirigeants pour donner des ordres de virement. Par ailleurs, les entreprises et les hôpitaux sont confrontés aux rançongiciels qui utilisent déjà l’IA pour modifier leur code et échapper à la détection des outils de sécurité.

Les contenus synthétiques générés par l’IA pour tromper les victimes

La police britannique a déjà signalé des cas où des contenus synthétiques générés par l’IA ont été utilisés pour tromper, harceler ou extorquer des victimes. Bien que les premiers cas en France n’aient pas été officiellement recensés, des doutes subsistent quant à l’utilisation de l’IA par les criminels.

La règle du « zero trust » et les hackers actifs

Face à ces nouvelles menaces, il est essentiel d’appliquer la règle du « zero trust » en matière de cybersécurité et d’IA, c’est-à-dire de ne faire confiance à aucun élément a priori. Les hackers les plus actifs sont généralement des réseaux bien organisés d’Europe de l’Est, mais il ne faut pas négliger les pirates étatiques de pays en marge.

Conclusion

En conclusion, l’utilisation croissante de l’IA par les cybercriminels représente une menace grandissante. Ces criminels exploitent l’IA pour améliorer leurs techniques et mener des attaques plus crédibles. Il est donc essentiel de rester vigilant et de mettre en place des mesures de protection appropriées pour contrer ces menaces.

IA open source et hacking : le FBI dévoile son point de vue choc sur l’impact redoutable !

L’impact de l’IA open source sur le hacking : le point de vue du FBI

Les hackers ont trouvé un nouvel allié pour rendre leurs activités illicites plus efficaces et dangereuses : l’intelligence artificielle (IA). Selon le FBI, ils exploitent de plus en plus les modèles d’IA open source pour améliorer leurs outils et piéger les internautes.

Utilisation de l’IA par les cybercriminels

Les cybercriminels utilisent des chatbots basés sur des modèles de langage comme ChatGPT, Google Bard ou Claude pour faciliter leurs activités malveillantes. En manipulant ces IA, ils contournent les mesures de sécurité et les restrictions mises en place par les créateurs de ces outils.

Le FBI s’inquiète de l’utilisation massive des modèles de langage par les hackers. Cependant, il a remarqué que les hackers ne privilégient pas les modèles d’IA les plus populaires auprès des internautes, comme GPT.

Les modèles open source, un outil privilégié par les hackers

Les hackers préfèrent utiliser des modèles d’IA open source gratuits et personnalisables plutôt que ceux contrôlés par des entreprises. Ces modèles open source, accessibles à tous sur internet, peuvent facilement être utilisés pour générer du contenu illicite. De plus, ils sont plus légers et demandent moins de puissance de calcul que les grands modèles développés par des géants du secteur comme Google ou OpenAI. Par conséquent, ils peuvent être utilisés localement sur un ordinateur ou même sur un smartphone, ce qui est un avantage pour les développeurs et les cybercriminels.

Il est également intéressant de noter que les criminels utilisent des modèles d’IA personnalisés développés par d’autres hackers. Sur le dark web, on trouve de nombreux chatbots conçus par des hackers pour générer du contenu illégal, tels que des malwares. Récemment, deux chatbots dédiés exclusivement aux activités criminelles ont fait leur apparition sur les marchés noirs : WormGPT et FraudGPT. Ils sont utilisés pour créer des courriels de phishing, coder des virus comme des ransomwares et orchestrer des attaques. FraudGPT est même capable de générer des logiciels falsifiant des cartes de crédit. Ces chatbots sont vendus à un prix élevé sur le dark web.

Les différentes utilisations de l’IA par les cybercriminels

Les pirates utilisent l’IA de différentes manières pour mener leurs activités illicites. Ils l’utilisent pour concevoir des pages de phishing imitant l’interface de plateformes officielles comme les sites bancaires. De plus, ils exploitent les capacités des IA génératives pour créer des virus polymorphes, capables de modifier leur code à chaque exécution, rendant ainsi leur détection plus compliquée pour les antivirus traditionnels.

Enfin, les escrocs utilisent également la technologie deepfake pour extorquer de l’argent à leurs victimes. Ils génèrent des images et des vidéos falsifiées, mettant en scène leurs cibles dans des situations compromettantes. Ils utilisent ensuite ces contenus pour harceler leurs victimes en les diffusant sur les réseaux sociaux ou les sites pornographiques. De plus, les hackers n’hésitent pas à utiliser une IA de clonage vocal pour manipuler leurs victimes au téléphone. En imitant la voix de proches, ils parviennent à convaincre les cibles de se fier à eux et de leur donner de l’argent.

L’avenir de l’IA et du hacking

Il est fort probable que les criminels continueront d’utiliser les avancées de l’IA pour améliorer leurs activités illicites. Le FBI prévoit une augmentation de l’utilisation criminelle de l’IA à mesure que cette technologie se démocratise. L’intelligence artificielle est donc considérée comme une priorité nationale par le FBI.

Il est essentiel de développer des stratégies de prévention et de protection pour contrer l’utilisation malveillante de l’IA par les hackers. L’effort devrait se concentrer sur la sécurisation des modèles d’IA open source et la mise en place de mesures de sécurité plus robustes pour éviter les manipulations. L’IA a le potentiel de bénéficier à la société dans de nombreux domaines, mais il est impératif de veiller à son utilisation responsable et éthique.

Source: PCMag