Découvrez le nouveau logiciel malveillant iOS qui vole des visages pour tromper la biométrie grâce à une technologie d’échanges AI ! Attention, votre sécurité est en danger !

Nouvelle menace : un logiciel malveillant iOS vole des visages pour contourner la biométrie avec des échanges AI

Un groupe de hackers chinois a développé un logiciel malveillant appelé « GoldPickaxe » qui représente une nouvelle menace pour la sécurité des utilisateurs d’appareils mobiles iOS. Ce logiciel utilise des échanges d’intelligence artificielle pour contourner les mesures de biométrie et voler des visages, des identifiants personnels et des numéros de téléphone. Les cybercriminels peuvent ensuite utiliser ces informations pour accéder aux comptes bancaires des victimes.

Une attaque sophistiquée

Les chercheurs de Group-IB ont identifié au moins une victime de cette attaque, un citoyen vietnamien qui a perdu environ 40 000 dollars suite à cette tromperie. Ce qui rend cette attaque particulièrement sophistiquée, c’est l’utilisation de deepfakes, des vidéos manipulées qui permettent de tromper les systèmes de sécurité biométrique des banques d’Asie du Sud-Est. Le logiciel malveillant se fait passer pour une application gouvernementale et cible principalement les personnes âgées. Les victimes sont ainsi incitées à scanner leur visage, ce qui permet aux hackers de générer des deepfakes à partir de ces scans.

Le défi de l’authentification biométrique

Cette attaque met en évidence le fait que les technologies de deepfake ont atteint un niveau avancé et sont capables de contourner les mécanismes d’authentification biométrique. Les criminels exploitent cette faiblesse et profitent du fait que la plupart des utilisateurs ne sont pas conscients de cette menace. Selon Andrew Newell, directeur scientifique chez iProov, les deepfakes sont un outil de choix pour les hackers car ils leur confèrent un pouvoir et un contrôle incroyables.

Comment les hackers contournent les banques thaïlandaises

La Banque de Thaïlande a mis en place une politique de reconnaissance faciale pour lutter contre la fraude financière. Cependant, le logiciel malveillant GoldPickaxe a rapidement contourné cette mesure de sécurité. Ce malware se présente comme une application appelée « Digital Pension » utilisée par les personnes âgées pour recevoir leur pension en format numérique. Les victimes sont incitées à scanner leur visage, télécharger leur carte d’identité gouvernementale et soumettre leur numéro de téléphone. Contrairement à d’autres malwares bancaires, GoldPickaxe ne fonctionne pas en superposition d’une véritable application financière, mais collecte toutes les informations nécessaires pour contourner les vérifications d’authentification et se connecter manuellement aux comptes bancaires des victimes.

Lutter contre les trojans bancaires biométriques

Ces attaques mettent en évidence la nécessité d’une évolution rapide dans l’industrie bancaire pour faire face aux menaces croissantes. Les banques doivent mettre en place des mesures de sécurité plus avancées, adaptées aux nouveaux défis technologiques. Il est recommandé aux banques de mettre en place une surveillance sophistiquée des sessions des utilisateurs et aux clients d’adopter de bonnes pratiques de sécurité, notamment en évitant de cliquer sur des liens suspects, en vérifiant l’authenticité des communications bancaires et en contactant rapidement leur banque en cas de suspicion de fraude.

Découvrez le Dark Web débridé et l’incroyable monde des hackers maîtrisant l’IA

L’univers fascinant des hackers et l’intelligence artificielle débridée sur le Dark Web

Les hackers sont de plus en plus adeptes de l’utilisation de l’Intelligence Artificielle (IA) générative pour mener leurs activités criminelles. Une enquête menée par Kaspersky sur le Dark Web a révélé que l’utilisation de l’IA, en particulier des outils d’IA générative, est devenue courante et préoccupante.

Des milliers de discussions sur l’utilisation de l’IA à des fins illégales

Kaspersky Digital Footprint Intelligence, une société russe spécialisée en cybersécurité, a analysé le Dark Web pour identifier les discussions sur l’utilisation de l’IA par les hackers. Les chercheurs ont constaté des milliers de conversations portant sur l’utilisation de l’IA à des fins illégales et malveillantes.

En 2023, pas moins de 3 000 discussions ont été recensées, avec un pic au mois de mars. Bien que ces discussions aient tendance à diminuer au fil de l’année, elles restent présentes et actives sur le Dark Web.

L’IA au service des cybercriminels

Ces discussions se concentrent principalement sur le développement de logiciels malveillants et l’utilisation illégale de modèles de langage. Les hackers explorent des pistes telles que le traitement de données volées, l’analyse de fichiers provenant d’appareils infectés, et bien d’autres.

Ces échanges témoignent de l’intérêt croissant des hackers pour l’IA et de leur volonté d’exploiter ses possibilités techniques pour mener des activités criminelles de manière plus efficace.

La vente de comptes ChatGPT volés et de jailbreaks sur le Dark Web

l'incroyable monde des hackers et l'ia débridée sur le dark webl'incroyable monde des hackers et l'ia débridée sur le dark web

Outre les discussions sur l’utilisation de l’IA, le Dark Web est également un marché florissant pour la vente de comptes ChatGPT volés. Kaspersky a identifié plus de 3 000 annonces de vente de comptes ChatGPT payants.

Les hackers proposent également des services d’enregistrement automatique pour créer massivement des comptes sur demande. Ces services sont distribués sur des canaux sécurisés comme Telegram.

Par ailleurs, les chercheurs ont constaté une augmentation de la vente de chatbots jailbreakés tels que WormGPT, FraudGPT, XXXGPT, WolfGPT et EvilGPT. Ces versions malveillantes de ChatGPT sont exemptes de limites, non censurées et dotées de fonctionnalités supplémentaires.

Une menace croissante pour la cybersécurité

l'incroyable monde des hackers et l'ia débridée sur le dark webl'incroyable monde des hackers et l'ia débridée sur le dark web

L’utilisation de l’IA par les hackers représente une menace croissante pour la cybersécurité. Les modèles de langage peuvent être exploités de manière malveillante, augmentant ainsi le nombre potentiel de cyberattaques.

Il est donc essentiel de renforcer les mesures de cybersécurité pour contrer ces nouvelles formes d’attaques basées sur l’IA. Les experts doivent rester vigilants face à ces évolutions constantes et travailler à l’élaboration de stratégies efficaces pour contrer les cybercriminels.

Intelligence artificielle et cybercriminalité : les menaces qui vous guettent ! Découvrez l’état des lieux et les perspectives alarmantes

Les cybercriminels exploitent l’intelligence artificielle pour leurs attaques

Les cybercriminels ont trouvé un nouveau moyen d’améliorer l’efficacité et la crédibilité de leurs attaques : l’utilisation de l’intelligence artificielle (IA). En particulier, l’IA générative, popularisée par le robot conversationnel ChatGPT, est de plus en plus utilisée dans le monde de la cybercriminalité. Les techniques telles que le phishing, les rançongiciels, les escroqueries et les arnaques au président bénéficient de cette mise à jour des outils utilisés par les criminels.

L’IA rend les cybercriminels plus efficaces et crédibles

Selon Jean-Jacques Latour, directeur de l’expertise en cybersécurité de Cybermalveillance.gouv.fr, l’IA se démocratise chez les cybercriminels, leur permettant d’être plus efficaces et crédibles. Les méthodes utilisées par ces criminels ne changent pas, mais le volume des attaques et leur force de persuasion augmentent considérablement.

Des attaques de phishing de plus en plus sophistiquées

Les e-mails de phishing, qui promettent des cadeaux gratuits ou des réductions, deviennent de plus en plus sophistiqués. Les escrocs évitent désormais les erreurs grossières de syntaxe ou d’orthographe et s’adaptent au langage de leurs cibles. Ils utilisent également des contextes appropriés pour convaincre les utilisateurs de cliquer sur des liens ou des sites douteux.

L’utilisation de l’IA générative dans la cybercriminalité

L’IA générative est détournée par les cybercriminels pour créer des logiciels malveillants personnalisés. Ces logiciels exploitent des vulnérabilités connues des programmes informatiques. Des programmes tels que ThreatGPT, WormGPT et FraudGPT se développent sur le Darknet et gagnent en popularité parmi les acteurs malveillants.

L’IA au service de l’exploitation des données

Les hackers utilisent également l’IA pour trier et exploiter une masse de données après avoir infiltré un système informatique. Cela leur permet de maximiser leurs profits en ciblant les informations les plus pertinentes.

L’arnaque au président perfectionnée grâce à l’IA

L’IA est également utilisée dans le cadre de l’arnaque au président. Les hackers collectent des informations sur les dirigeants d’entreprises pour autoriser des virements frauduleux. Grâce aux générateurs d’audio « deepfake », ils peuvent imiter parfaitement la voix des dirigeants pour donner des ordres de virement.

Les rançongiciels et le vishing améliorés par l’IA

Les entreprises et les hôpitaux sont également confrontés aux rançongiciels, qui utilisent déjà l’IA pour modifier leur code et échapper à la détection des outils de sécurité. De plus, la technique du vishing, où un faux banquier demande un transfert d’argent, pourrait également être améliorée grâce à l’IA.

Les nouvelles menaces de l’IA dans la cybercriminalité

La police britannique a déjà signalé des cas où des contenus synthétiques générés par l’IA ont été utilisés pour tromper, harceler ou extorquer des victimes. Bien que les premiers cas en France n’aient pas été officiellement recensés, des doutes subsistent quant à l’utilisation de l’IA par les criminels.

La règle du « zero trust » pour contrer les menaces

Face à ces nouvelles menaces, il est essentiel d’appliquer la règle du « zero trust » en matière de cybersécurité et d’IA. Il ne faut faire confiance à aucun élément a priori. Les hackers les plus actifs sont généralement des réseaux bien organisés d’Europe de l’Est, mais il ne faut pas négliger les pirates étatiques de pays en marge.

Conclusion

La cybercriminalité exploitant l’IA représente une menace croissante. Les cybercriminels utilisent de plus en plus l’IA pour améliorer leurs techniques et mener des attaques plus crédibles. Il est essentiel de rester vigilant et de mettre en place des mesures de protection appropriées pour contrer ces menaces.

Révélation explosive du FBI : Comment l’IA open source révolutionne le hacking !

L’impact de l’IA open source sur le hacking : le point de vue du FBI

Les hackers utilisent de plus en plus l’intelligence artificielle (IA) open source pour améliorer leurs activités criminelles, selon le FBI. Ils exploitent notamment des chatbots basés sur des modèles de langage tels que ChatGPT, Google Bard ou Claude pour contourner les mesures de sécurité. Cependant, les modèles d’IA les plus populaires auprès des internautes ne sont pas préférés par les hackers.

Utilisation de l’IA par les cybercriminels

Les cybercriminels utilisent les modèles d’IA pour faciliter leurs activités illicites. Ils manipulent les IA en utilisant des requêtes précises pour contourner les mesures de sécurité. Le FBI a alerté sur l’utilisation massive des modèles de langage par la communauté criminelle.

Les modèles open source, un outil privilégié par les hackers

Les hackers préfèrent utiliser des modèles d’IA open source gratuits et personnalisables plutôt que ceux contrôlés par des entreprises. Ces modèles sont accessibles à tous sur internet et permettent de générer du contenu illicite. De plus, ils sont plus légers et demandent moins de puissance de calcul, ce qui les rend plus pratiques pour les développeurs et les cybercriminels. Certains hackers développent même leurs propres modèles d’IA personnalisés pour générer du contenu illégal.

Les différentes utilisations de l’IA par les cybercriminels

Les pirates utilisent l’IA de différentes manières pour mener leurs activités illicites. Ils l’utilisent pour concevoir des pages de phishing, créer des virus polymorphes et générer des contenus falsifiés tels que des images et des vidéos. Ils exploitent également l’IA de clonage vocal pour manipuler leurs victimes au téléphone.

L’avenir de l’IA et du hacking

Le FBI prévoit une augmentation de l’utilisation criminelle de l’IA à mesure que cette technologie se démocratise. Il est donc essentiel de développer des stratégies de prévention et de protection pour contrer cette utilisation malveillante. Cela passe par la sécurisation des modèles d’IA open source et la mise en place de mesures de sécurité plus robustes. Il est important de veiller à une utilisation responsable et éthique de l’IA.