Cybercriminels utilisant des chatbots LLM pour le phishing : comment l'IA générative peut le contrecarrer
En bref
Depuis l'introduction de ChatGPT fin 2022, une augmentation significative des e-mails de phishing malveillants a été observée, avec une augmentation de 1,265 XNUMX %.
Certains des utilisateurs les plus courants de chatbots à grand modèle de langage (LLM) sont des cybercriminels, révèle un fournisseur de renseignements sur les menaces en temps réel SlashSuivant rapport. Mais quel est exactement le but d’utiliser les chatbots LLM ?
Selon le rapport intitulé «L’état du phishing en 2023Les cybercriminels exploitent cet outil pour rédiger des attaques BEC (Business Email Compromise) et lancer systématiquement des attaques de phishing hautement ciblées.
Depuis l'introduction de OpenAI's ChatGPT fin 2022, une augmentation significative des e-mails de phishing malveillants a été observée, avec une augmentation stupéfiante de 1,265 XNUMX %.
Notamment, 68 % de ces e-mails de phishing utilisent des tactiques textuelles de compromission des e-mails professionnels (BEC). Cette tendance alarmante souligne les appréhensions croissantes quant au rôle des chatbots et des jailbreaks dans la prolifération rapide des attaques de phishing en permettant aux cybercriminels de lancer des offensives très sophistiquées et rapides.
Lorsqu'on leur a posé la question, 40 % des personnes interrogées (professionnels de la cybersécurité) ont indiqué qu'elles employaient actuellement ChatGPT pour rédiger des e-mails, à la fois pour des cas d'utilisation personnels et professionnels.
Il n’est pas surprenant que cette utilisation s’étende à les cybercriminels, car la composition des e-mails est l'une des applications les plus répandues de ChatGPT pour les pirates. Les cyber-attaquants exploitent ChatGPTLes capacités de pour aider à créer des attaques Business Email Compromise (BEC) et à orchestrer des campagnes de phishing méticuleusement ciblées.
Contournement ChatGPT Comme les chatbots – Ce n'est pas une tâche complexe
Tandis que Chatbots d'IA comme ChatGPT possèdent des connaissances approfondies et peuvent générer des textes sur un large éventail de sujets, ils sont soumis à certaines restrictions pour éviter divers problèmes.
Ces restrictions sont en place en raison de la nature de leurs données de formation et du potentiel de réponses nuisibles ou inappropriées. Cet article explore pourquoi ChatGPT est restreint et il fournit des techniques pour contourner ces limitations.
Cependant, en formulant les questions dans leur contexte, en évitant les expressions problématiques et en abordant les scénarios du point de vue d'une troisième personne, les utilisateurs peuvent souvent obtenir des réponses plus utiles. De plus, les utilisateurs peuvent contourner les limites de caractères en demandant des portions de texte plus petites à la fois.
L’IA générative peut-elle être le héros du sauvetage ?
Dans un paysage numérique en évolution rapide, la confluence du potentiel malveillant de l’IA et de la dynamique changeante des environnements de travail à distance et hybrides a suscité des inquiétudes quant au risque croissant de cyberattaques.
Avec des employés dispersés sur plusieurs appareils et canaux de communication, les organisations sont de plus en plus vulnérables aux failles de sécurité. Pour contrer cette menace, il existe une demande croissante de IA générative des solutions de sécurité conçues pour protéger contre les cyberattaques avancées telles que la compromission de la messagerie professionnelle (BEC), les attaques de la chaîne d'approvisionnement, l'usurpation d'identité de dirigeants et la fraude financière.
Les solutions de sécurité génératives d’IA sont efficaces pour identifier les menaces qui manipulent les émotions humaines, en tirant parti de tactiques telles que la peur ou la confiance pour inciter à des actions rapides. En simulant ces émotions et comportements humains dans leur processus de détection, les solutions de sécurité génératives d’IA offrent une défense robuste contre les dernières cybermenaces.
Un acteur notable dans ce domaine est SlashNext. La technologie de l'entreprise est capable de détecter, prévoir et stopper les attaques telles que le spear phishing, le BEC et le Smishing, qui exploitent toutes des techniques d'ingénierie sociale de type zéro heure. Ce système avancé fonctionne de manière transparente sur les applications de messagerie électronique, mobile et Web, offrant une défense à plusieurs volets.
Selon SlashNext, ses solutions combinent traitement du langage naturel, vision par ordinateur, apprentissage automatique, graphiques relationnels et contextualisation approfondie pour contrecarrer les attaques sophistiquées de messagerie multicanal.
L'entreprise a la capacité d'anticiper un large éventail de menaces BEC générées par l'IA en utilisant des technologies d'augmentation et de clonage des données d'IA.
Cette approche permet au système d'évaluer les principales menaces et de générer de nombreuses variations, en s'entraînant efficacement à reconnaître et à contrecarrer les risques potentiels, ajoute-t-il.
Alors que les organisations sont aux prises avec les défis de cybersécurité toujours croissants posés par les menaces basées sur l’IA, les solutions de sécurité génératives par l’IA sont des alliées inestimables dans la quête de la protection des données sensibles et du maintien de l’intégrité numérique. L’avenir de la cybersécurité dépend de plus en plus de ces technologies innovantes, qui permettent aux organisations de garder une longueur d’avance sur les cybercriminels et les menaces émergentes.
Clause de non-responsabilité
En ligne avec la Lignes directrices du projet de confiance, veuillez noter que les informations fournies sur cette page ne sont pas destinées à être et ne doivent pas être interprétées comme des conseils juridiques, fiscaux, d'investissement, financiers ou toute autre forme de conseil. Il est important d’investir uniquement ce que vous pouvez vous permettre de perdre et de demander des conseils financiers indépendants en cas de doute. Pour plus d'informations, nous vous suggérons de vous référer aux conditions générales ainsi qu'aux pages d'aide et de support mises à disposition par l'émetteur ou l'annonceur. MetaversePost s'engage à fournir des rapports précis et impartiaux, mais les conditions du marché sont susceptibles de changer sans préavis.
A propos de l'auteur
Kumar est un journaliste technologique expérimenté spécialisé dans les intersections dynamiques de l'IA/ML, de la technologie marketing et des domaines émergents tels que la cryptographie, la blockchain et NFTs. Avec plus de 3 ans d'expérience dans l'industrie, Kumar a fait ses preuves dans l'élaboration de récits convaincants, la conduite d'entretiens perspicaces et la fourniture d'informations complètes. L'expertise de Kumar réside dans la production de contenu à fort impact, notamment des articles, des rapports et des publications de recherche pour des plateformes industrielles de premier plan. Doté d’un ensemble de compétences uniques combinant connaissances techniques et narration, Kumar excelle dans la communication de concepts technologiques complexes à des publics divers de manière claire et engageante.
Plus d'articlesKumar est un journaliste technologique expérimenté spécialisé dans les intersections dynamiques de l'IA/ML, de la technologie marketing et des domaines émergents tels que la cryptographie, la blockchain et NFTs. Avec plus de 3 ans d'expérience dans l'industrie, Kumar a fait ses preuves dans l'élaboration de récits convaincants, la conduite d'entretiens perspicaces et la fourniture d'informations complètes. L'expertise de Kumar réside dans la production de contenu à fort impact, notamment des articles, des rapports et des publications de recherche pour des plateformes industrielles de premier plan. Doté d’un ensemble de compétences uniques combinant connaissances techniques et narration, Kumar excelle dans la communication de concepts technologiques complexes à des publics divers de manière claire et engageante.