Думка Технологія
20 Грудня, 2022

Небезпеки штучного інтелекту: як використовуватимуть хакери ChatGPT в найближчі кілька років

Коротко

ШІ може перетворитися на неконтрольований генератор шкідливих програм

ШІ можна використовувати для створення потужних шкідливих програм без втручання людини

Ризик неконтрольованого фішингу AI, оскільки він набуває більшої потужності

Швидкий розвиток штучного інтелекту (ШІ) є одним із найбільш трансформуючих технологічних досягнень у новітній історії. Однак, оскільки штучний інтелект продовжує розвиватися та стає все більш досконалим, зростає ризик того, що він може стати неконтрольованим або його використовуватимуть хакери.

Завдяки сучасному розвитку технології штучного інтелекту стало можливим створювати автономне шкідливе програмне забезпечення, яке може вибирати та вражати цілі без втручання людини. Також існує ризик того, що штучний інтелект може бути використаний для посилення можливостей кіберзлочинців. ШІ можна використовувати для створення потужного шкідливого програмного забезпечення, яке важко виявити та захиститися від нього. Зловмисне програмне забезпечення з підтримкою штучного інтелекту може використовуватися для запуску атак, від яких люди не можуть захиститися. Ви певні AI або ChatGPT не може створити щось шкідливе, враховуючи, що він уже створює програми, додатки, ігри та сценарії?

Небезпека ШІ: як машини можуть стати некерованими в наступні роки
ШІ можна використовувати для створення шкідливих програм, які важко виявити та захистити від них

Потенційні ризики, які створює ШІ, не лише теоретичні. Вони реальні та представляють небезпеку, на яку ми повинні звернути увагу, поки не пізно.

Як вважають експерти у Фінляндії, незабаром зловмисники почнуть використовувати штучний інтелект для здійснення смертельно ефективних фішингових атак. WithSecure, Фінське агентство транспорту та зв’язку та Федеральне агентство з управління надзвичайними ситуаціями підготували звітом аналіз поточних тенденцій і розробок у сфері штучного інтелекту, кібератак і місця їх перетину.

ШІ може перетворитися на неконтрольований генератор шкідливих програм

Автори звіту кажуть, що хоча атаки з використанням штучного інтелекту зараз дуже рідкісні, вони проводяться таким чином, що дослідники та аналітики не можуть їх спостерігати. Проте протягом наступних років цілком ймовірно, що зловмисники розроблять алгоритми ШІ, які зможуть самостійно знаходити вразливості, планувати та проводити шкідливі кампанії, обходити системи безпеки та збирати інформацію зі зламаних пристроїв.

ШІ ризикує неконтрольованим фішингом, оскільки він набуває більшої потужності

WithSecure передбачив, що спонсоровані державою хакери будуть першими, хто використовуватиме штучний інтелект для кібератак, а технологія з часом потрапить до рук менших груп, які використовуватимуть її у більших масштабах. У результаті фахівці з інформаційної безпеки повинні розпочати розробку систем, які можуть захистити від таких атак.

Автори звіту заявили, що кібератаки на основі штучного інтелекту будуть особливо ефективними, коли справа доходить до методів уособлення, які часто використовуються під час фішингових і вішингових атак.

Скористаються хакери ChatGPT в соціальній інженерії для отримання конфіденційних даних

Зростає тенденція використання хакерами ШІ для здійснення своїх атак, оскільки ця технологія надає їм можливість автоматизувати свої атаки та зробити їх ефективнішими.

Одним із останніх прикладів цього є ChatGPT Chatbot, який використовується хакерами для здійснення атак соціальної інженерії. Цей чат-бот створений для імітації людської розмови та здатний вести складні, реалістичні та зв’язні розмови. Ця технологія може зловживати. Хакери можуть використовувати чат-бот для створення переконливих розмов, щоб збирати конфіденційні дані, особисті дані та паролі від нічого не підозрюючих жертв.

Досі чат-бот використовувався для видавання себе за представника служби підтримки клієнтів і здійснення фішингових атак. Це лише питання часу, коли ми побачимо більш складні атаки, які здійснюються за допомогою цієї технології.

Це серйозне питання, яке потребує вирішення. Якщо ChatGPT не захищений належним чином, його можна використовувати для експлуатації людей у ​​дуже витончений спосіб. Оскільки чат-боти стають все більш просунутими, важливо знати про ризики, які вони становлять. Хакери продовжуватимуть знаходити нові способи використовувати їх для здійснення своїх атак. Обов’язково оновлюйте програмне забезпечення безпеки та будьте обережні з будь-якими розмовами з незнайомими людьми в Інтернеті.

Докладніше про ШІ:

відмова

Відповідно до Правила проекту Trust, будь ласка, зверніть увагу, що інформація, надана на цій сторінці, не призначена і не повинна тлумачитися як юридична, податкова, інвестиційна, фінансова або будь-яка інша форма консультації. Важливо інвестувати лише те, що ви можете дозволити собі втратити, і звернутися за незалежною фінансовою порадою, якщо у вас виникнуть сумніви. Щоб отримати додаткову інформацію, ми пропонуємо звернутися до положень та умов, а також до сторінок довідки та підтримки, наданих емітентом або рекламодавцем. MetaversePost прагне до точного, неупередженого звітування, але ринкові умови можуть змінюватися без попередження.

про автора

Дамір є керівником групи, менеджером із продуктів і редактором Metaverse Post, що охоплює такі теми, як AI/ML, AGI, LLMs, Metaverse тощо Web3- суміжні поля. Його статті щомісяця приваблюють величезну аудиторію понад мільйон користувачів. Здається, він є експертом із 10-річним досвідом роботи в SEO та цифровому маркетингу. Даміра згадували в Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto та інші видання. Він подорожує між ОАЕ, Туреччиною, Росією та СНД як цифровий кочівник. Дамір отримав ступінь бакалавра з фізики, що, на його думку, дало йому навички критичного мислення, необхідні для досягнення успіху в Інтернеті, який постійно змінюється. 

інші статті
Дамір Ялалов
Дамір Ялалов

Дамір є керівником групи, менеджером із продуктів і редактором Metaverse Post, що охоплює такі теми, як AI/ML, AGI, LLMs, Metaverse тощо Web3- суміжні поля. Його статті щомісяця приваблюють величезну аудиторію понад мільйон користувачів. Здається, він є експертом із 10-річним досвідом роботи в SEO та цифровому маркетингу. Даміра згадували в Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto та інші видання. Він подорожує між ОАЕ, Туреччиною, Росією та СНД як цифровий кочівник. Дамір отримав ступінь бакалавра з фізики, що, на його думку, дало йому навички критичного мислення, необхідні для досягнення успіху в Інтернеті, який постійно змінюється. 

Hot Stories
Приєднуйтеся до нашої розсилки.
Останні новини

The DOGE Frenzy: аналіз нещодавнього зростання вартості Dogecoin (DOGE)

Криптовалютна індустрія стрімко розвивається, і мем-монети готуються до значного підйому. Доджкойн (DOGE), ...

Дізнайтеся більше

Еволюція створеного штучним інтелектом контенту в метавсесвіті

Поява генеративного штучного інтелекту є одним із найцікавіших подій у віртуальному середовищі...

Дізнайтеся більше
Приєднуйтесь до нашої спільноти інноваційних технологій
Детальніше
Читати далі
Найпопулярніші пропозиції цього тижня, великі інвестиції в AI, IT, Web3і Crypto (22-26.04)
Digest Business ринки Технологія
Найпопулярніші пропозиції цього тижня, великі інвестиції в AI, IT, Web3і Crypto (22-26.04)
Квітень 26, 2024
Віталік Бутерін коментує централізацію PoW, зазначає, що це був тимчасовий етап до PoS
Звіт про новини Технологія
Віталік Бутерін коментує централізацію PoW, зазначає, що це був тимчасовий етап до PoS
Квітень 26, 2024
Offchain Labs виявляє дві критичні вразливості в доказах шахрайства Optimism OP Stack
Звіт про новини Софтвер Технологія
Offchain Labs виявляє дві критичні вразливості в доказах шахрайства Optimism OP Stack
Квітень 26, 2024
Відкритий ринок Dymension для передачі ліквідності з RollApps eIBC запускається в мережі Mainnet
Звіт про новини Технологія
Відкритий ринок Dymension для передачі ліквідності з RollApps eIBC запускається в мережі Mainnet 
Квітень 26, 2024
CRYPTOMERIA LABS PTE. LTD.