Звіт про новини Технологія
Липень 02, 2025

10 ризиків безпеки, про які потрібно знати, використовуючи штучний інтелект для роботи

Коротко

До середини 2025 року штучний інтелект глибоко впроваджено в робочі процеси, але його широке використання, особливо через незахищені інструменти, значно збільшило ризики кібербезпеки, що спонукало до нагальних закликів до кращого управління даними, контролю доступу та політик безпеки, специфічних для штучного інтелекту.

10 ризиків безпеки, про які потрібно знати, використовуючи штучний інтелект для роботи

До середини 2025 року штучний інтелект перестане бути футуристичною концепцією на робочому місці. Він вбудований у щоденні робочі процеси в маркетингу, юридичній сфері, інженерії, підтримці клієнтів, HR тощо. Моделі ШІ тепер допомагають у складанні документів, створенні звітів, кодуванні та навіть автоматизації внутрішньої підтримки в чаті. Але зі зростанням залежності від ШІ зростає і ландшафт ризиків.

Звіт За прогнозами Cybersecurity Ventures, до 10.5 року глобальні збитки від кіберзлочинності сягнуть 2025 трильйонів доларів., що відображає 38% річне зростання кількості порушень, пов'язаних зі штучним інтелектом, порівняно з попереднім роком. За оцінками того ж джерела, близько 64% ​​корпоративних команд використовують генеративний штучний інтелект у тій чи іншій мірі, тоді як лише 21% цих організацій мають офіційні політики обробки даних.

Ці цифри не просто викликають галузевий ажіотаж — вони вказують на зростання масштабів впливу. Оскільки більшість команд досі покладаються на публічні або безкоштовні інструменти штучного інтелекту, потреба в обізнаності про безпеку ШІ є нагальною.

Нижче наведено 10 критичних ризиків безпеки, з якими стикаються команди під час використання штучного інтелекту на роботі. У кожному розділі пояснюється природа ризику, як він працює, чому він становить небезпеку та де він найчастіше проявляється. Ці загрози вже впливають на реальні організації у 2025 році.

Витік вхідних даних через підказки

Одна з найпоширеніших прогалин у безпеці починається на першому кроці: у самому запиті. У відділах маркетингу, кадрів, юридичного відділу та відділі обслуговування клієнтів співробітники часто вставляють конфіденційні документи, електронні листи клієнтів або внутрішній код в інструменти штучного інтелекту, щоб швидко складати відповіді. Хоча це здається ефективним, більшість платформ зберігають принаймні частину цих даних на внутрішніх серверах, де вони можуть реєструватися, індексуватися або використовуватися для покращення моделей. Згідно з Згідно зі звітом Varonis за 2025 рік, 99% компаній визнали обмін конфіденційними даними або даними клієнтів зі штучним інтелектом. послуги без застосування внутрішніх заходів безпеки.

Коли дані компанії потрапляють на сторонні платформи, вони часто піддаються політикам зберігання та доступу персоналу, які багато фірм не повністю контролюють. Навіть «приватні» режими можуть зберігати фрагменти для налагодження. Це створює юридичні ризики, особливо згідно з GDPR, HIPAA та аналогічними законами. Щоб зменшити ризики, компанії тепер використовують фільтри для видалення конфіденційних даних перед їх надсиланням інструментам штучного інтелекту та встановлюють чіткіші правила щодо того, що можна ділитися.

Приховане зберігання даних у журналах ШІ

Багато сервісів штучного інтелекту зберігають детальні записи про підказки та виводи користувача, навіть після того, як користувач їх видаляє. Звіт Thales про загрози даним за 2025 рік було прийнято до уваги що 45% організацій зіткнулися з інцидентами безпеки, пов'язаними із затримкою даних у журналах штучного інтелекту.

Це особливо важливо в таких секторах, як фінанси, юриспруденція та охорона здоров'я, де навіть тимчасовий запис імен, даних облікових записів або історій хвороби може порушувати угоди про дотримання вимог. Деякі компанії вважають, що видалення даних на фронтенді достатньо; насправді, бекенд-системи часто зберігають копії протягом кількох днів або тижнів, особливо коли вони використовуються для оптимізації або навчання.

Команди, які прагнуть уникнути цієї пастки, все частіше звертаються до корпоративних планів зі суворими угодами про зберігання даних та впроваджують інструменти, що підтверджують видалення з внутрішнього сервера, замість того, щоб покладатися на розпливчасті перемикачі на панелі інструментів з написом «видалити історію».

Моделювання дрейфу через навчання на конфіденційних даних

На відміну від традиційного програмного забезпечення, багато платформ штучного інтелекту покращують свої відповіді, навчаючись на введених користувачами даних. Це означає, що запит, що містить унікальну юридичну формулювання, стратегію клієнта або власний код, може вплинути на майбутні результати, що надаються непов’язаним користувачам. Індекс штучного інтелекту Стенфорда за 2025 рік показав зростання на 56% у порівнянні з минулим роком. у зареєстрованих випадках, коли дані, що стосуються компанії, ненавмисно з'являлися у вихідних даних інших джерел.

У галузях, де конкурентна перевага залежить від інтелектуальної власності, навіть невеликі витоки можуть зашкодити доходам та репутації. Оскільки навчання відбувається автоматично, якщо його спеціально не вимкнути, багато компаній зараз вимагають локального розгортання або ізольованих моделей, які не зберігають дані користувачів і не навчаються на конфіденційних даних.

Фішинг та шахрайство, згенеровані штучним інтелектом

Штучний інтелект зробив фішингові атаки швидшими, переконливішими та набагато складнішими для виявлення. У 2025 році DMARC повідомив про зростання на 4000% у фішингових кампаніях, створених штучним інтелектом, багато з яких використовували автентичні внутрішні мовні шаблони, отримані з витоків даних або публічних даних компанії. Згідно з За даними Hoxhunt, кількість шахрайських схем з використанням голосових підробок зросла на 15% цього року., із середніми збитками за один напад, що наближаються до 4.88 мільйона доларів.

Ці атаки часто настільки точно імітують моделі мовлення та стилі спілкування керівників, що традиційне навчання з безпеки більше не може їх зупинити. Щоб захистити себе, компанії розширюють інструменти перевірки голосу, впроваджують вторинні канали підтвердження для високоризикових погоджень та навчають персонал позначати підозрілу мову, навіть якщо вона виглядає відшліфованою та безпомилковою.

Слабкий контроль над приватними API

У поспіху розгортання нових інструментів багато команд підключають моделі штучного інтелекту до таких систем, як інформаційні панелі або CRM, за допомогою API з мінімальним захистом. Ці інтеграції часто не враховують ключові практики, такі як ротація токенів, обмеження швидкості або дозволи для користувачів. Якщо токен витікає або його вгадують, зловмисники можуть викрасти дані або маніпулювати підключеними системами, перш ніж хтось це помітить.

Цей ризик не є теоретичним. Нещодавнє Дослідження Akamai показало, що 84% експертів з безпеки повідомили про інцидент безпеки API. протягом минулого року. І майже половина організацій зіткнулася з витоками даних через викриття токенів API. В одному випадку дослідники знайшли понад 18,000 XNUMX розкритих секретів API у публічних репозиторіях.

Оскільки ці мости API працюють непомітно у фоновому режимі, компанії часто виявляють порушення лише після дивної поведінки в аналітиці або записах клієнтів. Щоб зупинити це, провідні фірми посилюють контроль, забезпечуючи короткий термін служби токенів, регулярно проводячи тести на проникнення на кінцевих точках, підключених до штучного інтелекту, та ведучи детальні журнали аудиту всієї активності API.

Впровадження тіньового штучного інтелекту в Teams

До 2025 року несанкціоноване використання штучного інтелекту, відоме як «тіньовий штучний інтелект», стало поширеним явищем. Дослідження Zluri показало, що 80% використання штучного інтелекту в підприємствах відбувається за допомогою інструментів, не схвалених ІТ-відділами.

Працівники часто звертаються до завантажуваних розширень для браузера, генераторів коду з низьким рівнем коду або публічних чат-ботів зі штучним інтелектом для задоволення нагальних потреб. Ці інструменти можуть надсилати внутрішні дані на неперевірені сервери, не мати шифрування або збирати журнали використання, приховані від організації. Без видимості того, які дані передаються, компанії не можуть забезпечити дотримання вимог або підтримувати контроль.

Щоб боротися з цим, багато фірм зараз впроваджують внутрішні рішення для моніторингу, які позначають невідомі сервіси. Вони також ведуть кураторські списки схвалених інструментів штучного інтелекту та вимагають від співробітників взаємодії лише через санкціоновані канали, що супроводжують безпечні середовища.

Швидке впровадження та маніпульовані шаблони

Впровадження запиту відбувається, коли хтось вбудовує шкідливі інструкції у спільні шаблони запитів або зовнішні дані, приховані в легітимному тексті. Наприклад, запит, призначений для «підсумку останньої електронної пошти клієнта», може бути змінений для вилучення цілої історії потоків повідомлень або ненавмисного розкриття конфіденційного вмісту. У рейтингу OWASP 2025 GenAI Security Top 10 зазначено, що промови про впровадження коду є провідною вразливістю., попереджаючи, що вхідні дані, надані користувачем, особливо в поєднанні із зовнішніми даними, можуть легко перевизначити системні інструкції та обійти захисні заходи.

Організації, які покладаються на внутрішні бібліотеки запитань без належного нагляду, ризикують призвести до каскадних проблем: небажаного розкриття даних, оманливих результатів або пошкоджених робочих процесів. Ця проблема часто виникає в системах управління знаннями та автоматизованих відповідях на запити клієнтів або юридичних питань, побудованих на шаблонах запитань. Для боротьби з цією загрозою експерти рекомендують застосовувати багаторівневий процес управління: централізовано перевіряти всі шаблони запитань перед розгортанням, де це можливо, санітувати зовнішні вхідні дані та тестувати запити в ізольованих середовищах, щоб переконатися, що жодні приховані інструкції не прослизнуть.

Проблеми з відповідністю через неперевірені результати

Генеративний штучний інтелект часто створює відшліфований текст, проте ці результати можуть бути неповними, неточними або навіть невідповідними нормативним актам. Це особливо небезпечно у фінансовому, юридичному чи медичному секторах, де незначні помилки або оманлива мова можуть призвести до штрафів або відповідальності.

За оцінкою Згідно з опитуванням ISACA за 2025 рік, 83% підприємств повідомляють про щоденне використання генеративного штучного інтелекту., але лише 31% мають офіційні внутрішні політики щодо ШІ. Тривожно, що 64% ​​фахівців висловили серйозну стурбованість щодо зловживань, проте лише 18% організацій інвестують у захисні заходи, такі як виявлення дипфейків або перевірки відповідності.

Оскільки моделі штучного інтелекту не розуміють юридичних нюансів, багато компаній зараз вимагають дотримання вимог людиною або юридичної перевірки будь-якого контенту, створеного штучним інтелектом, перед публічним використанням. Цей крок гарантує, що заяви відповідають нормативним стандартам та запобігає введенню клієнтів чи користувачів в оману.

Ризики сторонніх плагінів

Багато платформ штучного інтелекту пропонують сторонні плагіни, які підключаються до електронної пошти, календарів, баз даних та інших систем. Ці плагіни часто не проходять ретельних перевірок безпеки, і У звіті Check Point Research щодо безпеки штучного інтелекту за 2025 рік було виявлено, що кожна 1-та підказка штучного інтелекту має високий ризик витоку інформації. конфіденційні дані — частина цього ризику виникає через взаємодію за допомогою плагінів. Check Point також попереджає, що несанкціоновані інструменти штучного інтелекту та неправильно налаштовані інтеграції є одними з головних загроз цілісності корпоративних даних.

Якщо плагіни встановлено без перевірки, вони можуть отримати доступ до ваших вхідних даних, виходів та пов’язаних з ними облікових даних. Вони можуть надсилати цю інформацію на зовнішні сервери поза корпоративним наглядом, іноді без шифрування або належного ведення журналу доступу.

Кілька фірм тепер вимагають перевірки плагінів перед розгортанням, дозволяють використовувати лише плагіни з білого списку та контролюють передачу даних, пов’язану з активними інтеграціями ШІ, щоб гарантувати, що жодні дані не залишають контрольованих середовищ.

Відсутність управління доступом до інструментів штучного інтелекту

Багато організацій покладаються на спільні облікові записи штучного інтелекту без дозволів для окремих користувачів, що унеможливлює відстеження того, хто які запити надсилав або які результати отримував. Звіт Varonis за 2025 рік, у якому аналізується 1,000 хмарних середовищ виявили, що 98% компаній використовували неперевірені або неавторизовані програми штучного інтелекту, а 88% підтримували фіктивних користувачів із постійним доступом до конфіденційних систем (джерело). Ці результати підкреслюють, що майже всі фірми стикаються з прогалинами в управлінні, які можуть призвести до витоку даних, до яких неможливо відстежити.

Коли індивідуальний доступ не відстежується, неправильне використання внутрішніх даних — випадкове чи зловмисне — часто залишається непоміченим протягом тривалого часу. Спільні облікові дані розмивають відповідальність та ускладнюють реагування на інциденти, коли відбуваються порушення. Щоб вирішити цю проблему, компанії переходять на платформи штучного інтелекту, які забезпечують детальні дозволи, журнали активності на рівні запитів та атрибуцію користувачів. Такий рівень контролю дозволяє виявляти незвичайну поведінку, оперативно скасовувати неактивний або несанкціонований доступ та відстежувати будь-яку активність з даними до конкретної особи.

Що ж тепер робити

Подивіться, як ваші команди насправді використовують штучний інтелект щодня. Визначте, які інструменти обробляють конфіденційні дані та хто може отримати до них доступ. Встановіть чіткі правила щодо того, що можна передавати системам штучного інтелекту, та складіть простий контрольний список: ротуйте токени API, видаляйте невикористовувані плагіни та перевірте, чи має будь-який інструмент, що зберігає дані, реальні опції видалення. Більшість порушень трапляються тому, що компанії припускають, що «хтось інший спостерігає». Насправді безпека починається з невеликих кроків, які ви робите сьогодні.

відмова

Відповідно до Правила проекту Trust, будь ласка, зверніть увагу, що інформація, надана на цій сторінці, не призначена і не повинна тлумачитися як юридична, податкова, інвестиційна, фінансова або будь-яка інша форма консультації. Важливо інвестувати лише те, що ви можете дозволити собі втратити, і звернутися за незалежною фінансовою порадою, якщо у вас виникнуть сумніви. Щоб отримати додаткову інформацію, ми пропонуємо звернутися до положень та умов, а також до сторінок довідки та підтримки, наданих емітентом або рекламодавцем. MetaversePost прагне до точного, неупередженого звітування, але ринкові умови можуть змінюватися без попередження.

про автора

Аліса, відданий журналіст на MPost, спеціалізується на криптовалюті, доказах з нульовим знанням, інвестиціях і великій сфері Web3. З гострим поглядом на нові тенденції та технології, вона надає всебічне висвітлення, щоб інформувати та залучати читачів до постійно змінюваного ландшафту цифрових фінансів.

інші статті
Аліса Девідсон
Аліса Девідсон

Аліса, відданий журналіст на MPost, спеціалізується на криптовалюті, доказах з нульовим знанням, інвестиціях і великій сфері Web3. З гострим поглядом на нові тенденції та технології, вона надає всебічне висвітлення, щоб інформувати та залучати читачів до постійно змінюваного ландшафту цифрових фінансів.

Hot Stories
Приєднуйтеся до нашої розсилки.
Останні новини

Затишшя перед штормом Солана: що зараз говорять графіки, кити та сигнали на мережі

Солана продемонструвала високі показники, зумовлені зростанням рівня впровадження, інституційного інтересу та ключових партнерств, водночас стикаючись з потенційними ...

Дізнайтеся більше

Криптовалюта у квітні 2025 року: ключові тенденції, зміни та що буде далі

У квітні 2025 року криптовалютний простір зосередився на зміцненні базової інфраструктури, а Ethereum готувався до Pectra ...

Дізнайтеся більше
Детальніше
Читати далі
Binance порушує судовий позов проти The Wall Street Journal через ймовірні наклепницькі повідомлення
Business Звіт про новини Технологія
Binance порушує судовий позов проти The Wall Street Journal через ймовірні наклепницькі повідомлення
Березня 11, 2026
Дослідники безпеки попереджають, що експлойт Coruna для iPhone націлений на криптовалютні гаманці
Звіт про новини Технологія
Дослідники безпеки попереджають, що експлойт Coruna для iPhone націлений на криптовалютні гаманці
Березня 11, 2026
QCP Capital сигналізує про макроекономічно залежний ринок та обережне позиціонування інвесторів, оскільки BTC утримується близько $70 тис.
ринки Звіт про новини Технологія
QCP Capital сигналізує про макроекономічно залежний ринок та обережне позиціонування інвесторів, оскільки BTC утримується близько $70 тис.
Березня 11, 2026
7 інструментів RWA, що оптимізують випуск активів та зменшують витрати у 2026 році
Топ списки Звіт про новини Технологія
7 інструментів RWA, що оптимізують випуск активів та зменшують витрати у 2026 році
Березня 11, 2026
CRYPTOMERIA LABS PTE. LTD.