Хіросімський штучний інтелект
Що таке Хіросімський штучний інтелект?
Цього року Японія, як і щороку, приймала саміт G7 у травні 2023 року. Європейський Союз, Канада, Японія, Італія, Франція, Сполучені Штати та Велика Британія є серед країн, представлених на саміті G7. Місцем була Хіросіма, і штучний інтелект був головною темою обговорення на цій конференції G7. Найважливіші висновки цього саміту свідчать про те, що лідери віддали пріоритет зміцненню нормативно-правової бази для зменшення можливих небезпек, пов’язаних із штучним інтелектом, і прискоренню використання ШІ для вигідних випадків використання в уряді та економіці.
Розуміння Хіросімського штучного інтелекту
У травні 2023 року країни G7 погодилися надати пріоритет співпраці для інклюзивного ШІ управління, прагнучи розробити безпечні та надійні системи, одночасно максимізуючи переваги технології, зокрема для країн, що розвиваються, та економік, що переходять, шляхом подолання цифрового розриву.
Хіросімські принципи для передових моделей штучного інтелекту, включаючи основні моделі та генеративні системи штучного інтелекту, були схвалені G7 у жовтні минулого року. Вони являють собою набір з 11 міжнародних керівних принципів, призначених для застосування до всіх учасників ШІ та охоплюють проектування, розробку, розгортання та використання передових систем ШІ.
- Вживайте відповідних заходів протягом усього процесу розробки передових систем штучного інтелекту, зокрема до та протягом усього їхнього розгортання та розміщення на ринку, щоб ідентифікувати, оцінити та зменшити ризики протягом життєвого циклу штучного інтелекту.
- Визначати та пом’якшувати вразливі місця, а також, якщо це доречно, інциденти та моделі неправильного використання після розгортання, включаючи розміщення на ринку.
- Публічно повідомляйте про можливості, обмеження та сфери належного та неналежного використання розширених систем штучного інтелекту, щоб забезпечити достатню прозорість і тим самим сприяти підвищенню підзвітності.
- Працюйте над відповідальним обміном інформацією та звітуванням про інциденти між організаціями, які розробляють передові системи штучного інтелекту, зокрема з промисловістю, урядами, громадянським суспільством і академічними колами.
- Розробляйте, впроваджуйте та оприлюднюйте політику управління ШІ та управління ризиками, засновану на підході, що ґрунтується на оцінці ризиків, включаючи політику конфіденційності та заходи пом’якшення, зокрема для організацій, що розробляють передові системи ШІ.
- Invest і запровадити надійні засоби контролю безпеки, включаючи фізичну безпеку, кібербезпеку та захист від внутрішніх загроз протягом усього життєвого циклу ШІ.
- Розробляйте та розгортайте надійний контент ідентифікація і механізми походження, якщо це технічно можливо, наприклад водяні знаки або інші методи, які дозволяють користувачам ідентифікувати створений штучним інтелектом контент.
- Надати пріоритет дослідженням для пом’якшення суспільних ризиків, ризиків безпеки та безпеки та визначити пріоритетність інвестицій у ефективні заходи пом’якшення.
- Надайте пріоритет розробці передових систем штучного інтелекту для вирішення найбільших світових викликів, зокрема, але не обмежуючись кліматичною кризою, глобальною охороною здоров’я та освітою.
- Сприяти розробці та, у відповідних випадках, прийняттю міжнародних технічних стандартів.
- Впровадити відповідні заходи щодо введення даних і захисту персональних даних та інтелектуальної власності.
Ці принципи, у свою чергу, послужили основою для створення a норми поведінки для розробників ШІ. Дотримання компаніями цих принципів є добровільним і, за логікою, має бути адаптовано до особливостей кожної юрисдикції.
споріднений: Nvidia запускає графічний процесор H200, щоб полегшити навантаження на генеративну обробку AI |
Останні новини про Хіросімський процес ШІ
- Промислові країни G7 збираються узгодити кодекс поведінки для компаній, що розвиваються штучний інтелект системи. 11-пунктовий код спрямований на просування безпечного, захищеного та надійного штучного інтелекту в усьому світі. Процес, започаткований під час «процесу штучного інтелекту в Хіросімі», спрямований на вирішення проблем конфіденційності та ризиків безпеки. Кодекс зобов’язує компанії публічно оприлюднювати звіти про можливості, обмеження та неправильне використання ШІ.
- Прем’єр-міністр Великобританії Ріші Сунак оголосив про створення першого в світі Інституту безпеки штучного інтелекту, метою якого є оцінка та тестування моделей штучного інтелекту для боротьби з упередженістю, дезінформацією та екстремальними загрозами. Саміт, запланований на 1-2 листопада, об’єднає зацікавлені сторони та експерти з штучного інтелекту для досягнення міжнародного консенсусу щодо безпеки штучного інтелекту. Обережна позиція Великобританії щодо Регулювання ШІ і його акцент на інноваціях буде підкреслено.
Останні публікації в соціальних мережах про Хіросімський штучний інтелект
« Назад до покажчика глосаріювідмова
Відповідно до Правила проекту Trust, будь ласка, зверніть увагу, що інформація, надана на цій сторінці, не призначена і не повинна тлумачитися як юридична, податкова, інвестиційна, фінансова або будь-яка інша форма консультації. Важливо інвестувати лише те, що ви можете дозволити собі втратити, і звернутися за незалежною фінансовою порадою, якщо у вас виникнуть сумніви. Щоб отримати додаткову інформацію, ми пропонуємо звернутися до положень та умов, а також до сторінок довідки та підтримки, наданих емітентом або рекламодавцем. MetaversePost прагне до точного, неупередженого звітування, але ринкові умови можуть змінюватися без попередження.
про автора
Вікторія пише про різноманітні технологічні теми, зокрема Web3.0, ШІ та криптовалюти. Її великий досвід дозволяє їй писати проникливі статті для широкої аудиторії.
інші статтіВікторія пише про різноманітні технологічні теми, зокрема Web3.0, ШІ та криптовалюти. Її великий досвід дозволяє їй писати проникливі статті для широкої аудиторії.