Звіт про новини Технологія
Жовтень 27, 2023

Компанії штучного інтелекту мають витрачати 30% свого фінансування на дослідження та розробки в галузі безпеки та етики

Шкода, завдана упередженням і неправдивою інформацією, вже очевидна. Є ознаки того, що можуть виникнути й інші небезпеки. Дуже важливо зменшити поточні ризики та передбачити нові.

Компанії штучного інтелекту мають витрачати 30% свого фінансування на дослідження та розробки в галузі безпеки та етики

Ми б не знали, як переконатися, що передові автономні системи чи AGI безпечні або як їх перевірити, якби вони були доступні прямо зараз. Крім того, урядам бракує інституцій, необхідних для припинення зловживань і запровадження безпечних практик, навіть якщо вони це зробили. Автори підтримують розвиток ефективного державного нагляду та перенаправлення зусиль науково-дослідних розробок на безпеку та етику.

Контроль і чесність (складніші системи можуть перехитрити тестування, видаючи хибні, але переконливі відповіді), надійність (у нових умовах зі зміною розподілу або конкурентними введеннями), можливість інтерпретації (розуміння роботи), оцінка ризику (з’являються нові здібності, які важко передбачити), і поява нових проблем (безпрецедентні режими відмови) є одними з проблем науково-дослідних розробок, які не будуть вирішені розробка більш потужних систем ШІ.

Автори припускають, що безпека та етика повинні отримувати принаймні одну третину фінансування досліджень і розробок штучного інтелекту.

Необхідно забезпечити дотримання стандартів як щодо національних установ, так і для глобального управління. Цього не вистачає ШІ, але є у фармацевтичній, фінансовій та ядерній галузях. Зараз існують стимули для країн і компаній економити за рахунок безпеки. Компанії можуть отримувати прибуток від розвитку штучного інтелекту, залишаючи суспільство нести наслідки, подібно до того, як промисловість скидає відходи в річки.

Сильні технічні знання та здатність швидко рухатися є вимогами до національних установ. На глобальній арені партнерство та угоди є важливими. Слід уникати бюрократичних перешкод для невеликих і передбачуваних моделей, щоб захистити академічні дослідження та застосування з низьким рівнем ризику. Граничні моделі — обрана група найпотужніших систем, навчених на суперкомп’ютерах вартістю мільярд доларів — повинні отримати найбільшу увагу.

Уряди повинні бути більш відкритими щодо подій, щоб нормативні акти були ефективними. Регуляторні органи повинні обов’язково реєструвати моделі, захищати внутрішніх інформаторів, зобов’язувати повідомляти про інциденти та стежити за розробкою моделей і використанням суперкомп’ютерів.

Регулюючі органи також повинні мати доступ до цих систем до їх випуску у виробництво, щоб оцінити потенційно шкідливий такі особливості, як генерація патогенів, самовідтворення та проникнення в систему.

Системи, які можуть бути небезпечними, потребують різноманітних методів контролю. Прикордонна модель творці також повинні нести юридичну відповідальність за будь-які пошкодження своїх систем, яких можна було уникнути. Це має стимулювати інвестиції в безпеку. Більше функцій, таких як державне ліцензування, здатність зупинити розвиток у відповідь на потенційно небезпечний можливості, засоби контролю доступу та заходи безпеки інформації, непроникні для хакерів державного рівня, можуть знадобитися для надзвичайно потужних систем.

Незважаючи на відсутність правил, компаніям слід швидко прояснити свої обов’язки «якщо-тоді», окресливши точні кроки, які вони вживатимуть, якщо певні можливості моделі перетнуть червону лінію. Ці заходи потребують ретельного пояснення та незалежного підтвердження. Таким чином, це так. Окремий Доповнення до полісу складає конспект тез.

  • У жовтні Frontier Model Forum запровадив Фонд безпеки штучного інтелекту на суму понад 10 мільйонів доларів, щоб стимулювати прогрес у дослідженнях безпеки ШІ. Фонд, створений у рамках співпраці Frontier Model Forum і партнерів-благодійників, надаватиме підтримку незалежним дослідникам у всьому світі, пов’язаним з академічними установами, дослідницькими організаціями та стартапами. Основними учасниками ініціативи є Anthropic, Google, Microsoft, OpenAIразом із благодійними організаціями, такими як Фонд Патріка Дж. МакГоверна, Фонд Девіда та Люсіль Паккард, Еріка Шмідта та Яана Таллінна. Фонд безпеки штучного інтелекту в першу чергу зосереджується на сприянні розробці нових методів оцінювання та підходів червоної команди для моделей штучного інтелекту з метою виявлення потенційних небезпек. У найближчі місяці Форум планує створити Консультативну раду, а невдовзі після цього опублікує перший конкурс пропозицій і присудить гранти.
споріднений: Управління з питань конкуренції та ринків Великої Британії розпочинає перегляд моделей штучного інтелекту в міру посилення зусиль державного регулювання

відмова

Відповідно до Правила проекту Trust, будь ласка, зверніть увагу, що інформація, надана на цій сторінці, не призначена і не повинна тлумачитися як юридична, податкова, інвестиційна, фінансова або будь-яка інша форма консультації. Важливо інвестувати лише те, що ви можете дозволити собі втратити, і звернутися за незалежною фінансовою порадою, якщо у вас виникнуть сумніви. Щоб отримати додаткову інформацію, ми пропонуємо звернутися до положень та умов, а також до сторінок довідки та підтримки, наданих емітентом або рекламодавцем. MetaversePost прагне до точного, неупередженого звітування, але ринкові умови можуть змінюватися без попередження.

про автора

Дамір є керівником групи, менеджером із продуктів і редактором Metaverse Post, що охоплює такі теми, як AI/ML, AGI, LLMs, Metaverse тощо Web3- суміжні поля. Його статті щомісяця приваблюють величезну аудиторію понад мільйон користувачів. Здається, він є експертом із 10-річним досвідом роботи в SEO та цифровому маркетингу. Даміра згадували в Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto та інші видання. Він подорожує між ОАЕ, Туреччиною, Росією та СНД як цифровий кочівник. Дамір отримав ступінь бакалавра з фізики, що, на його думку, дало йому навички критичного мислення, необхідні для досягнення успіху в Інтернеті, який постійно змінюється. 

інші статті
Дамір Ялалов
Дамір Ялалов

Дамір є керівником групи, менеджером із продуктів і редактором Metaverse Post, що охоплює такі теми, як AI/ML, AGI, LLMs, Metaverse тощо Web3- суміжні поля. Його статті щомісяця приваблюють величезну аудиторію понад мільйон користувачів. Здається, він є експертом із 10-річним досвідом роботи в SEO та цифровому маркетингу. Даміра згадували в Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto та інші видання. Він подорожує між ОАЕ, Туреччиною, Росією та СНД як цифровий кочівник. Дамір отримав ступінь бакалавра з фізики, що, на його думку, дало йому навички критичного мислення, необхідні для досягнення успіху в Інтернеті, який постійно змінюється. 

Hot Stories
Приєднуйтеся до нашої розсилки.
Останні новини

Інституційний апетит зростає до біткойн ETF на тлі волатильності

Розкриття інформації через документи 13F свідчить про те, що відомі інституційні інвестори займаються біткойн ETF, підкреслюючи зростаюче визнання ...

Дізнайтеся більше

Настав день винесення вироку: суд США розглядає прохання Міністерства юстиції щодо долі CZ.

Changpeng Zhao готовий зіткнутися з вироком у американському суді в Сіетлі сьогодні.

Дізнайтеся більше
Приєднуйтесь до нашої спільноти інноваційних технологій
Детальніше
Читати далі
Останнє попередження Едварда Сноудена розробникам Bitcoin: «Зробіть конфіденційність пріоритетом на рівні протоколу або ризикуйте її втратити»
ринки Безпека Wiki Софтвер Розповіді та огляди Технологія
Останнє попередження Едварда Сноудена розробникам Bitcoin: «Зробіть конфіденційність пріоритетом на рівні протоколу або ризикуйте її втратити»
Травень 10, 2024
Мережевий монетний двір Ethereum рівня 2 на основі оптимізму запустить свою мережу 15 травня
Звіт про новини Технологія
Мережевий монетний двір Ethereum рівня 2 на основі оптимізму запустить свою мережу 15 травня
Травень 10, 2024
Найпопулярніші пропозиції цього тижня, великі інвестиції в AI, IT, Web3і Crypto (06-10.04)
Digest Business ринки Софтвер Технологія
Найпопулярніші пропозиції цього тижня, великі інвестиції в AI, IT, Web3і Crypto (06-10.04)
Травень 10, 2024
StaFi інтегрує підтримку LRT EigenLayer у свій стек Liquid-Staking-as-a-Service
ринки Звіт про новини Технологія
StaFi інтегрує підтримку LRT EigenLayer у свій стек Liquid-Staking-as-a-Service
Травень 10, 2024
CRYPTOMERIA LABS PTE. LTD.