Protect AI повідомляє про критичні вразливості в існуючих системах AI та ML, закликає захистити проекти з відкритим кодом
Коротко
Звіт Protect AI визначає вразливі місця в інструментах, які використовуються в ланцюжку постачання AI/ML, часто з відкритим кодом, з унікальними загрозами безпеці.
Існують уразливості в інструментах, які використовуються в ланцюжку постачання AI/ML, часто з відкритим вихідним кодом, несуть унікальні загрози безпеці, і ці уразливості створюють ризики неавтентифікованого віддаленого виконання коду та включення локальних файлів, згідно зі звітом Protect AI – a кібербезпека компанія, що зосереджена на системах штучного інтелекту та машинного навчання.
Це може призвести до наслідків, починаючи від захоплення серверів і закінчуючи крадіжкою конфіденційної інформації, додається у звіті.
У звіті також наголошується на необхідності проактивного підходу до виявлення та усунення цих вразливостей для захисту даних, моделей і облікових даних.
На передньому краї зусиль Protect AI є huntr, перша в світі програма винагород за помилки AI/ML, яка залучає спільноту з понад 13,000 XNUMX учасників, які активно шукають уразливості. Ця ініціатива має на меті надати важливу розвідувальну інформацію про потенційні загрози та сприяти швидкому реагуванню на безпечні системи ШІ.
У серпні 2023 року компанія оголосила про запуск huntr – платформи винагород за помилки AI/ML, яка зосереджена виключно на захисті програмного забезпечення з відкритим кодом AI/ML (OSS), фундаментальні моделіі ML Systems. Запуск платформи huntr AI/ML bug bounty став результатом придбання huntr.dev компанією Protect AI.
«З понад 15,000 XNUMX членів, Huntr Protect AI є найбільшою та найбільш концентрованою групою дослідників загроз і хакерів, які зосереджені виключно на безпеці AI/ML», — Дар’ян Дехганпіше, президент і співзасновник Protect AI.
«Операційна модель Huntr зосереджена на простоті, прозорості та винагороді. Автоматизовані функції та досвід сортування Protect AI щодо контекстуалізації загроз для супроводжуючих допомагають усім розробникам програмного забезпечення з відкритим кодом у штучному інтелекті створювати більш безпечні програмні пакети. Зрештою це принесе користь усім користувачам, оскільки системи штучного інтелекту стають більш безпечними та стійкими», — додав Дехганпіше.
Звіт визначає критичні вразливості
Підкреслюючи висновки спільноти huntr за останній місяць, у звіті визначено три критичні вразливості, серед яких MLflow Remote Code Execution, MLflow Arbitrary File Overwrite та MLflow Local File Include.
- Віддалене виконання коду MLflow: недолік призводить до захоплення сервера та втрати конфіденційної інформації. MLflow, інструмент для зберігання та відстеження моделей, мав уразливість до віддаленого виконання коду в коді, який використовувався для виведення віддаленого сховища даних. Користувачі можуть бути введені в оману за допомогою шкідливих віддалених джерел даних, які можуть виконувати команди від імені користувача.
- MLflow Arbitrary File Overwrite: недолік може призвести до захоплення системи, відмови в обслуговуванні та знищення даних. Знайдено обхід у функції MLflow, яка перевіряє безпечність шляху до файлу, що дозволяє зловмисному користувачеві віддалено перезаписувати файли на сервері MLflow. Це може призвести до віддаленого виконання коду з додатковими кроками, такими як перезапис ключів SSH у системі або редагування файлу .bashrc для виконання довільних команд під час наступного входу користувача
- Включення локального файлу MLflow: недолік призводить до втрати конфіденційної інформації та потенційного захоплення системи. MLflow, якщо він розміщений у певних операційних системах, можна маніпулювати для відображення вмісту конфіденційних файлів, створюючи потенційний шлях для захоплення системи, якщо важливі облікові дані зберігаються на сервері.
Про це заявив співзасновник Protect AI Дар’ян Дехганпіше Metaverse Post, «Терміновість усунення вразливостей систем AI/ML залежить від їх впливу на бізнес. Зважаючи на критичну роль штучного інтелекту та ML у сучасному бізнесі та серйозний характер потенційних експлойтів, більшість організацій вважатиме це невідкладним. Основний виклик у захисті систем AI/ML полягає в розумінні ризиків протягом життєвого циклу MLOps».
«Щоб пом’якшити ці ризики, компанії повинні проводити моделювання загроз для своїх систем штучного інтелекту та ML, визначати вікна ризику та впроваджувати відповідні засоби контролю в рамках інтегрованої та комплексної програми MLSecOps», — додав він.
У своєму звіті Protect AI підкреслює терміновість вирішення цих проблем уразливості оперативно та надає список рекомендацій для користувачів із зачепленими проектами у виробництві, підкреслюючи важливість проактивної позиції для зменшення потенційних ризиків. Користувачам, які стикаються з труднощами щодо пом’якшення цих вразливостей, рекомендується звернутися до спільноти Protect AI.
У міру розвитку технологій AI Protect AI працює над захистом складної мережі систем AI/ML, щоб забезпечити відповідальне та безпечне використання переваг штучного інтелекту.
відмова
Відповідно до Правила проекту Trust, будь ласка, зверніть увагу, що інформація, надана на цій сторінці, не призначена і не повинна тлумачитися як юридична, податкова, інвестиційна, фінансова або будь-яка інша форма консультації. Важливо інвестувати лише те, що ви можете дозволити собі втратити, і звернутися за незалежною фінансовою порадою, якщо у вас виникнуть сумніви. Щоб отримати додаткову інформацію, ми пропонуємо звернутися до положень та умов, а також до сторінок довідки та підтримки, наданих емітентом або рекламодавцем. MetaversePost прагне до точного, неупередженого звітування, але ринкові умови можуть змінюватися без попередження.
про автора
Кумар є досвідченим технічним журналістом, який спеціалізується на динамічному перетині ШІ/ML, маркетингових технологій і нових галузей, таких як криптовалюта, блокчейн і NFTс. Завдяки більш ніж 3-річному досвіду роботи в галузі Кумар має досвід створення переконливих оповідей, проведення проникливих інтерв’ю та надання вичерпної інформації. Досвід Кумара полягає у створенні вражаючого контенту, зокрема статей, звітів і дослідницьких публікацій для відомих галузевих платформ. Володіючи унікальним набором навичок, який поєднує в собі технічні знання та розповідь, Кумар чудово вміє доносити складні технологічні концепції до різноманітної аудиторії в чіткій та привабливій формі.
інші статтіКумар є досвідченим технічним журналістом, який спеціалізується на динамічному перетині ШІ/ML, маркетингових технологій і нових галузей, таких як криптовалюта, блокчейн і NFTс. Завдяки більш ніж 3-річному досвіду роботи в галузі Кумар має досвід створення переконливих оповідей, проведення проникливих інтерв’ю та надання вичерпної інформації. Досвід Кумара полягає у створенні вражаючого контенту, зокрема статей, звітів і дослідницьких публікацій для відомих галузевих платформ. Володіючи унікальним набором навичок, який поєднує в собі технічні знання та розповідь, Кумар чудово вміє доносити складні технологічні концепції до різноманітної аудиторії в чіткій та привабливій формі.