Cyberprzestępcy wykorzystujący chatboty LLM do phishingu: jak generatywna sztuczna inteligencja może temu przeciwdziałać
W skrócie
Od czasu wprowadzenia ChatGPT pod koniec 2022 r. zaobserwowano znaczny wzrost liczby złośliwych wiadomości e-mail phishingowych – wzrost o 1,265%.
Niektórzy z najczęstszych użytkowników chatboty z dużym modelem językowym (LLM). to cyberprzestępcy, ujawnia dostawca informacji o zagrożeniach w czasie rzeczywistym UkośnikNastępny raport. Ale jaki dokładnie jest cel korzystania z chatbotów LLM?
Jak wynika z raportu pt. „Stan phishingu 2023Cyberprzestępcy wykorzystują to narzędzie, aby pomóc w pisaniu ataków na firmową pocztę e-mail (BEC) i systematycznie przeprowadzać wysoce ukierunkowane ataki phishingowe.
Od czasu wprowadzenia OpenAI'S ChatGPT pod koniec 2022 r. zaobserwowano znaczny wzrost liczby złośliwych wiadomości e-mail typu phishing, z oszałamiającym wzrostem o 1,265%.
Warto zauważyć, że 68% tych e-maili phishingowych wykorzystuje taktykę tekstową Business Email Compromise (BEC). Ta niepokojąca tendencja podkreśla rosnące obawy dotyczące roli chatbotów i jailbreaków w ułatwianiu szybkiego rozprzestrzeniania się ataków phishingowych poprzez umożliwienie cyberprzestępcom przeprowadzania wysoce wyrafinowanych i szybkich ofensyw.
Na pytanie 40% respondentów (specjalistów ds. cyberbezpieczeństwa) wskazało, że obecnie zatrudnia ChatGPT do tworzenia wiadomości e-mail, zarówno do użytku osobistego, jak i zawodowego.
Nic dziwnego, że to wykorzystanie rozciąga się na cyberprzestępcy, ponieważ tworzenie wiadomości e-mail jest jednym z najpowszechniejszych zastosowań ChatGPT dla hakerów. Cyberprzestępcy wykorzystują ChatGPTmożliwości pomagające w przygotowywaniu ataków typu Business Email Compromise (BEC) i organizowaniu skrupulatnie ukierunkowanych kampanii phishingowych.
blokowanie ChatGPT Podobnie jak chatboty – Nie jest to skomplikowane zadanie
Kompletujemy wszystkie dokumenty (wymagana jest kopia paszportu i XNUMX zdjęcia) potrzebne do Chatboty AI lubić ChatGPT posiadają rozległą wiedzę i potrafią generować teksty na szeroki zakres tematów, podlegają pewnym ograniczeniom, aby zapobiec różnym problemom.
Ograniczenia te obowiązują ze względu na charakter danych szkoleniowych i możliwość wystąpienia szkodliwych lub niewłaściwych reakcji. W tym artykule dowiemy się, dlaczego ChatGPT jest ograniczony i zapewnia techniki obejścia tych ograniczeń.
Jednak formułując pytania w kontekście, unikając problematycznych wyrażeń i odnosząc się do scenariuszy z perspektywy trzeciej osoby, użytkownicy często mogą uzyskać bardziej pomocne odpowiedzi. Dodatkowo użytkownicy mogą ominąć limity znaków, prosząc o mniejsze fragmenty tekstu na raz.
Czy generatywna sztuczna inteligencja może być bohaterem ratunkowym?
W szybko zmieniającym się krajobrazie cyfrowym połączenie szkodliwego potencjału sztucznej inteligencji ze zmieniającą się dynamiką zdalnych i hybrydowych środowisk pracy wzbudziło obawy dotyczące rosnącego ryzyka cyberataków.
Ponieważ pracownicy są rozproszeni przy użyciu wielu urządzeń i kanałów komunikacji, organizacje są coraz bardziej narażone na naruszenia bezpieczeństwa. Aby przeciwdziałać temu zagrożeniu, istnieje rosnące zapotrzebowanie generatywna sztuczna inteligencja rozwiązania zabezpieczające zaprojektowane w celu ochrony przed zaawansowanymi cyberatakami, takimi jak włamanie do poczty biznesowej (BEC), ataki na łańcuch dostaw, podszywanie się pod kierownictwo i oszustwa finansowe.
Generacyjne rozwiązania w zakresie bezpieczeństwa oparte na sztucznej inteligencji dobrze radzą sobie z identyfikowaniem zagrożeń manipulujących ludzkimi emocjami i wykorzystują taktyki takie jak strach lub zaufanie, aby przyspieszyć szybkie działania. Symulując ludzkie emocje i zachowania w procesie ich wykrywania, generatywne rozwiązania bezpieczeństwa oparte na sztucznej inteligencji zapewniają solidną ochronę przed najnowszymi zagrożeniami cybernetycznymi.
Jednym z godnych uwagi graczy na tym polu jest SlashNext. Technologia firmy doskonale radzi sobie z wykrywaniem, przewidywaniem i powstrzymywaniem ataków, takich jak spear phishing, BEC i Smishing, z których wszystkie wykorzystują techniki inżynierii społecznej zero-hour. Ten zaawansowany system płynnie współpracuje z aplikacjami pocztowymi, mobilnymi i internetowymi, oferując wielopoziomową ochronę.
Według SlashNext jej rozwiązania łączą przetwarzanie języka naturalnego, widzenie komputerowe, uczenie maszynowe, wykresy relacji i głęboką kontekstualizację, aby przeciwdziałać wyrafinowanym atakom na przesyłanie wiadomości wielokanałowych.
Firma ma zdolność przewidywania szerokiej gamy zagrożeń BEC generowanych przez sztuczną inteligencję, stosując technologie powiększania i klonowania danych AI.
Takie podejście pozwala systemowi oceniać podstawowe zagrożenia i generować liczne ich odmiany, skutecznie szkoląc się w zakresie rozpoznawania i udaremniania potencjalnych zagrożeń – dodał.
Ponieważ organizacje zmagają się ze stale rosnącymi wyzwaniami w zakresie cyberbezpieczeństwa, jakie stwarzają zagrożenia oparte na sztucznej inteligencji, generatywne rozwiązania w zakresie bezpieczeństwa oparte na sztucznej inteligencji stają się nieocenionymi sojusznikami w dążeniu do ochrony wrażliwych danych i utrzymania integralności cyfrowej. Przyszłość cyberbezpieczeństwa w coraz większym stopniu zależy od tych innowacyjnych technologii, dzięki którym organizacje mogą być o krok przed cyberprzestępcami i pojawiającymi się zagrożeniami.
Odpowiedzialność
Zgodnie z Zaufaj wytycznym projektu, należy pamiętać, że informacje zawarte na tej stronie nie mają na celu i nie powinny być interpretowane jako porady prawne, podatkowe, inwestycyjne, finansowe lub jakiekolwiek inne formy porad. Ważne jest, aby inwestować tylko tyle, na utratę czego możesz sobie pozwolić, a w przypadku jakichkolwiek wątpliwości zasięgnąć niezależnej porady finansowej. Aby uzyskać więcej informacji, sugerujemy zapoznać się z warunkami oraz stronami pomocy i wsparcia udostępnianymi przez wydawcę lub reklamodawcę. MetaversePost zobowiązuje się do sporządzania dokładnych i bezstronnych raportów, jednakże warunki rynkowe mogą ulec zmianie bez powiadomienia.
O autorze
Kumar jest doświadczonym dziennikarzem technicznym ze specjalizacją w dynamicznych skrzyżowaniach AI/ML, technologii marketingowej i nowych dziedzin, takich jak kryptowaluty, blockchain i NFTS. Dzięki ponad 3-letniemu doświadczeniu w branży Kumar zdobył udokumentowane doświadczenie w tworzeniu fascynujących narracji, przeprowadzaniu wnikliwych wywiadów i dostarczaniu kompleksowych spostrzeżeń. Doświadczenie Kumara polega na tworzeniu treści o dużym wpływie, w tym artykułów, raportów i publikacji badawczych dla czołowych platform branżowych. Dzięki unikalnemu zestawowi umiejętności, który łączy wiedzę techniczną i opowiadanie historii, Kumar przoduje w przekazywaniu złożonych koncepcji technologicznych różnym odbiorcom w jasny i wciągający sposób.
Więcej artykułówKumar jest doświadczonym dziennikarzem technicznym ze specjalizacją w dynamicznych skrzyżowaniach AI/ML, technologii marketingowej i nowych dziedzin, takich jak kryptowaluty, blockchain i NFTS. Dzięki ponad 3-letniemu doświadczeniu w branży Kumar zdobył udokumentowane doświadczenie w tworzeniu fascynujących narracji, przeprowadzaniu wnikliwych wywiadów i dostarczaniu kompleksowych spostrzeżeń. Doświadczenie Kumara polega na tworzeniu treści o dużym wpływie, w tym artykułów, raportów i publikacji badawczych dla czołowych platform branżowych. Dzięki unikalnemu zestawowi umiejętności, który łączy wiedzę techniczną i opowiadanie historii, Kumar przoduje w przekazywaniu złożonych koncepcji technologicznych różnym odbiorcom w jasny i wciągający sposób.