Від ризику до відповідальності: Ахмад Шадід про створення безпечних робочих процесів розробки за допомогою штучного інтелекту
Коротко
«Vibe-кодування» набуває все більшої популярності, але експерти попереджають, що традиційні інструменти створюють ризики для безпеки та конфіденційності корпоративного коду, підкреслюючи необхідність зашифрованих, апаратно-підкріплених рішень «конфіденційного штучного інтелекту».
В останні місяці набрав популярності «вібраційний код» — робочий процес, заснований на штучному інтелекті, де розробники використовують великі мовні моделі (LLM) та агентні інструменти для створення та вдосконалення програмного забезпечення. Водночас, у численних галузевих звітах було підкреслено, що хоча код, згенерований штучним інтелектом, пропонує швидкість і зручність, він часто створює серйозні ризики для безпеки та ланцюга постачання.
Веракода Дослідження показало, що майже половина коду, створеного LLM, містить критичні вразливості, причому моделі штучного інтелекту часто створюють небезпечні реалізації та ігнорують такі проблеми, як недоліки впровадження або слабка автентифікація, якщо це не запропоновано окремо. Нещодавнє дослідження академічне навчання також зазначив, що модульні «навички» ШІ в агентних системах можуть містити вразливості, які можуть призвести до ескалації привілеїв або розкриття ланцюжків постачання програмного забезпечення.
Окрім незахищених виводів, існує часто недооцінений системний ризик конфіденційності. Сучасні помічники кодування на основі штучного інтелекту обробляють конфіденційний внутрішній код та інтелектуальну власність у спільних хмарних середовищах, де постачальники або оператори можуть отримати доступ до даних під час виведення даних. Це викликає занепокоєння щодо розкриття власного виробничого коду в великих масштабах, що є значною проблемою як для окремих розробників, так і для великих підприємств.
В ексклюзивному інтерв'ю з MPost, Ахмад Шадід, Засновник ОЛЛМ—ініціатива конфіденційної інфраструктури штучного інтелекту — пояснила, чому традиційні інструменти кодування на основі штучного інтелекту за своєю суттю є ризикованими для корпоративних кодових баз і як конфіденційний штучний інтелект, який зберігає дані в шифруванні навіть під час обробки моделі, забезпечує життєздатний шлях для безпечного та відповідального кодування вібрацій у розробці програмного забезпечення в реальному світі.
Що відбувається з конфіденційним корпоративним кодом у помічниках кодування на основі штучного інтелекту, і чому це ризиковано?
Більшість сучасних інструментів кодування можуть захистити дані лише до певного рівня. Корпоративний код зазвичай шифрується під час надсилання на сервери постачальника, зазвичай через TLS. Але як тільки код надходить на ці сервери, він розшифровується в пам'яті, щоб модель могла його прочитати та обробити. У цей момент конфіденційні деталі, такі як власна логіка, внутрішні API та деталі безпеки, розкриваються. представлений у вигляді простого тексту в системі. І саме в цьому полягає ризик.
Код може проходити через внутрішні журнали, тимчасову пам'ять або системи налагодження, які клієнтам важко побачити або перевірити під час розшифровки. Навіть якщо постачальник гарантує відсутність збережених даних, викриття все одно відбувається під час обробки, і цього короткого вікна достатньо для створення сліпих зон. Для підприємств це створює потенційний ризик, який наражає конфіденційний код на неправомірне використання без власного контролю.
Чому ви вважаєте, що основні інструменти кодування штучного інтелекту є принципово небезпечними для розвитку підприємств?
Більшість популярних інструментів кодування штучного інтелекту не створені для моделей корпоративних ризиків; вони лише оптимізують швидкість та зручність, оскільки навчаються здебільшого на публічних репозиторіях, які містять відомі вразливості, застарілі шаблони та небезпечні налаштування за замовчуванням. Як результат, код, який вони створюють, зазвичай демонструє уразливості якщо воно не пройде ретельну перевірку та виправлення.
Що ще важливіше, ці інструменти працюють без формальних структур управління, тому вони насправді не забезпечують дотримання внутрішніх стандартів безпеки на ранньому етапі, і це створює розрив між тим, як програмується програмне забезпечення, і тим, як воно пізніше перевіряється або захищається. Зрештою, це призводить до того, що команди звикають працювати з результатами, які вони ледве розуміють, тоді як відставання в безпеці непомітно зростають. Таке поєднання відсутності прозорості та технічних наслідків робить стандартну підтримку практично неможливою для організацій, що працюють у сферах, де безпека є першочерговою.
Якщо постачальники не зберігають і не навчають на клієнтському коді, чому цього недостатньо, і які технічні гарантії потрібні?
Політика гарантування достовірності суттєво відрізняється від технічних гарантій. Дані користувачів все одно розшифровуються та обробляються під час обчислень, навіть коли постачальники гарантують, що їх не буде збереження. Тимчасові журнали під час процесів налагодження все ще можуть створювати шляхи витоку, яким політики не здатні запобігти або довести безпеку. З точки зору ризику, довіри без перевірки недостатньо.
Бізнесу слід зосередитися на обіцянках, які можна встановити на рівні інфраструктури. Це включає конфіденційні обчислювальні середовища, де код шифрується не лише під час передачі, але й під час використання. Дуже гарним прикладом є апаратне забезпечення. довірене середовище виконання, що створює зашифроване середовище, де навіть оператор інфраструктури не може отримати доступ до конфіденційного коду. Модель обробляє дані в цьому безпечному середовищі, а віддалена атестація дозволяє підприємствам криптографічно перевіряти активність цих заходів безпеки.
Такі механізми мають бути базовою вимогою, оскільки вони перетворюють конфіденційність на вимірну властивість, а не просто на обіцянку.
Чи повністю вирішує запуск штучного інтелекту локально або в приватній хмарі ризики конфіденційності?
Запуск штучного інтелекту в приватній хмарі допомагає зменшити деякі ризики, але не вирішує проблему. Дані все ще дуже помітні та вразливі під час обробки, якщо не впроваджено додаткові засоби захисту. Отже, внутрішній доступ, погане налаштування та переміщення всередині мережі все ще можуть призвести до витоків.
Поведінка моделі є ще однією проблемою. Хоча приватні системи реєструють вхідні дані або зберігають їх для тестування, без надійної ізоляції ці ризики залишаються. Бізнес-командам все ще потрібна зашифрована обробка. Впровадження апаратного контролю доступу та встановлення чітких обмежень на використання даних є важливими для безпечного захисту даних. В іншому випадку вони лише уникають ризику, але не вирішують його.
Що насправді означає «конфіденційний ШІ» для інструментів кодування?
Конфіденційний ШІ стосується систем, які керують безпекою даних під час обчислень. Він дозволяє обробляти дані в ізольованому анклаві, такому як апаратно-базовані довірені середовища виконання, але у відкритому тексті, щоб модель могла з ними працювати. Застосування апаратної ізоляції гарантує, що дані недоступні для оператора платформи, хост-операційної системи або будь-якої зовнішньої сторони, а також забезпечує криптографічно перевірену конфіденційність, не впливаючи на функціональні можливості ШІ.
Це повністю змінює модель довіри для платформ кодування, оскільки дозволяє розробникам використовувати штучний інтелект, не надсилаючи власну логіку до спільних або публічних систем. Цей процес також підвищує чітку підзвітність, оскільки межі доступу будуються апаратним забезпеченням, а не політикою. Деякі технології йдуть далі, поєднуючи зашифровані обчислення з відстеженням історії, тому результати можна перевіряти без розкриття вхідних даних.
Хоча термін звучить абстрактно, його зміст простий: допомога штучного інтелекту більше не вимагає від підприємств жертвувати конфіденційністю заради ефективності.
Які є компроміси або обмеження використання конфіденційного ШІ наразі?
Найбільшим компромісом сьогодні є швидкість. Системи штучного інтелекту, ізольовані в надійних середовищах виконання, можуть досвід деяка затримка порівняно із незахищеними структурами, просто в результаті апаратного шифрування пам'яті та перевірки атестації. Гарна новина полягає в тому, що новіше обладнання з часом скорочує цю прогалину.
Також потрібна детальніша організація роботи та належне планування, оскільки системи повинні працювати в більш обмеженому середовищі. Також необхідно враховувати вартість. Конфіденційний ШІ часто потребує спеціальне обладнання — спеціалізовані чіпи, такі як NVIDIA H100 та H200, наприклад, — та інструменти, які можуть збільшити початкові витрати. Але витрати мають бути збалансовані з потенційною шкодою, яка може виникнути внаслідок витоку коду або недотримання правил.
Конфіденційний ШІ ще не є універсальною системною вимогою, тому команди повинні використовувати його там, де конфіденційність та підзвітність мають найбільше значення. Багато з цих обмежень будуть вирішені.
Чи очікуєте ви, що регуляторні органи або стандарти незабаром вимагатимуть від інструментів штучного інтелекту шифрування всіх даних під час обробки?
Такі нормативно-правові рамки, як Закон ЄС про штучний інтелект та Система управління ризиками щодо штучного інтелекту NIST США, вже мають рішуче підкреслити щодо управління ризиками, захисту даних та підзвітності для високоефективних систем штучного інтелекту. З розвитком цих структур, системи, які розкривають конфіденційні дані за своєю природою, стають все важче виправданими відповідно до встановлених очікувань управління.
Групи зі стандартизації також закладають основи, встановлюючи чіткіші правила щодо того, як штучний інтелект повинен обробляти дані під час використання. Ці правила можуть впроваджуватися з різною швидкістю в різних регіонах. Тим не менш, компанії повинні очікувати більшого тиску на системи, які обробляють дані у звичайному тексті. Таким чином, конфіденційний штучний інтелект менше стосується вгадування майбутнього, а більше — до відповідності вже існуючому напрямку регулювання.
Як зараз виглядає «відповідальне вібраційне кодування» для розробників та ІТ-лідерів?
Відповідальне кодування вібрацій — це просто відповідальність за кожен рядок коду, від перевірки пропозицій ШІ до перевірки наслідків для безпеки, а також врахування кожного крайнього випадку в кожній програмі. Для організацій це вимагає чіткого defiрозробка політик щодо затвердження конкретних інструментів та безпечних шляхів для конфіденційного коду, водночас забезпечуючи розуміння командами як сильних, так і обмежень допомоги ШІ.
Для регуляторів та лідерів галузі це завдання означає розробку чітких правил, які дозволять командам легко визначати, які інструменти дозволені та де їх можна використовувати. Конфіденційні дані повинні бути дозволені лише в системах, які відповідають вимогам конфіденційності та відповідності, а також навчати операторів та користувачів розуміти можливості штучного інтелекту та його обмеження. Штучний інтелект заощаджує зусилля та час за умови правильного використання, але він також несе значні ризики за умови недбалого використання.
Заглядаючи в майбутнє, як ви бачите еволюцію асистентів кодування на основі штучного інтелекту з точки зору безпеки?
Інструменти для кодування на основі штучного інтелекту еволюціонуватимуть від простих рекомендацій до перевірки коду в процесі його написання, дотримуючись правил, авторизованих бібліотек та обмежень безпеки в режимі реального часу.
Безпека, як це важливо, також буде глибше вбудована в те, як працюють ці інструменти, шляхом розробки зашифрованого виконання та чітких записів про прийняття рішень як звичайних функцій. З часом це перетворить помічників ШІ з ризиків на інструменти підтримки для безпечної розробки. Найкращими системами будуть ті, що поєднують швидкість з контролем. А довіра визначатиметься тим, як працюють інструменти, а не обіцянками розробників.
відмова
Відповідно до Правила проекту Trust, будь ласка, зверніть увагу, що інформація, надана на цій сторінці, не призначена і не повинна тлумачитися як юридична, податкова, інвестиційна, фінансова або будь-яка інша форма консультації. Важливо інвестувати лише те, що ви можете дозволити собі втратити, і звернутися за незалежною фінансовою порадою, якщо у вас виникнуть сумніви. Щоб отримати додаткову інформацію, ми пропонуємо звернутися до положень та умов, а також до сторінок довідки та підтримки, наданих емітентом або рекламодавцем. MetaversePost прагне до точного, неупередженого звітування, але ринкові умови можуть змінюватися без попередження.
про автора
Аліса, відданий журналіст на MPost, спеціалізується на криптовалюті, доказах з нульовим знанням, інвестиціях і великій сфері Web3. З гострим поглядом на нові тенденції та технології, вона надає всебічне висвітлення, щоб інформувати та залучати читачів до постійно змінюваного ландшафту цифрових фінансів.
інші статті
Аліса, відданий журналіст на MPost, спеціалізується на криптовалюті, доказах з нульовим знанням, інвестиціях і великій сфері Web3. З гострим поглядом на нові тенденції та технології, вона надає всебічне висвітлення, щоб інформувати та залучати читачів до постійно змінюваного ландшафту цифрових фінансів.
