Оприлюднено закони про штучний інтелект: як ЄС, США, Китай та інші країни формують майбутнє штучного інтелекту
Коротко
Глобальний вплив штучного інтелекту призвело до проблем для урядів і регуляторних органів щодо управління його вдосконаленням і використанням у різних штатах і регіонах.
Глобальні потрясіння в бізнесі та суспільстві, викликані штучним інтелектом, призвели до того, що уряди та регулюючі органи намагаються боротися з його розвитком і використанням. Тут ми розглянемо поточну ситуацію із законодавством щодо ШІ в різних штатах і регіонах.
Фото: AuthorityHacker
Європейський Союз
З проходженням його істор Закон про ШІ, Європейський Союз зарекомендував себе як лідер у сфері комплексного законодавства щодо ШІ. Закон, ухвалений у березні 2024 року, поділяє нагляд за штучним інтелектом на чотири категорії ризику: неприйнятний, високий, обмежений і мінімальний або відсутній.
Фото: розум ливарний
Системи штучного інтелекту, які, згідно з Законом, створюють нестерпну небезпеку, заборонені, включно з тими, які використовують тактику підсвідомого маніпулювання. Суворі вказівки щодо тестування, документування та моніторингу з боку людини застосовуються до програм із високим ризиком. Крім того, закон вимагає, щоб чат-боти та інші системи ШІ з низьким рівнем ризику були прозорими.
Закон про AI буде впроваджуватися поступово, а його найважливіші положення набудуть чинності наприкінці 2024 або на початку 2026 року. Порушення цих правил може призвести до штрафів у розмірі до 35 мільйонів євро, або 7% світового доходу, що демонструє рішучість ЄС дотримуватись суворого виконання.
Сполучені Штати
Що стосується управління ШІ, США віддають перевагу більш децентралізованій стратегії. Виконавчі розпорядження та рекомендації пропонують загальне керівництво на федеральному рівні, але окремі штати та галузеві агентства в основному залишені відповідальними за прийняття конкретних правил.
Указ «Безпечний, захищений і надійний штучний інтелект», підписаний президентом Байденом у жовтні 2023 року, встановлює нові вказівки щодо звітності та тестування системи штучного інтелекту. Сотні законів, пов’язаних зі штучним інтелектом, були введені на державному рівні, багато з яких зосереджені на конкретних цілях, таких як глибокі фейки або безпілотні автомобілі.
Лідируючими в законодавстві щодо штучного інтелекту на рівні штатів є Каліфорнія, Нью-Йорк і Флорида, які борються з усім: від алгоритмічної дискримінації до генеративного ШІ. Крім того, федеральні організації, які контролюють використання штучного інтелекту, наприклад Комісія з цінних паперів і бірж, ухвалюють закони у своїх штатах.
Китай
Китай опублікував «План розвитку штучного інтелекту нового покоління» у 2017 році, що свідчить про те, що вона була піонером у розробці національного плану ШІ. Цей всеохоплюючий план окреслив стратегію Китаю щодо розвитку штучного інтелекту до 2030 року, приділяючи однакову увагу еволюції технологій та їх впливу на суспільство.
Відтоді Китай запровадив правила, спеціально розроблені для певних застосувань ШІ, таких як генеративні послуги ШІ та керування алгоритмами. Уряд працював над досягненням балансу між інноваціями та контролем, дозволяючи підприємствам і дослідницьким установам розширювати межі, одночасно запроваджуючи суворі правила щодо послуг ШІ, доступних для широкої громадськості.
Об'єднане Королівство
Великобританія обрала «проінноваційну» стратегію регулювання штучного інтелекту, відмовившись від широкого законодавства на користь галузевого нагляду. Урядова структура, опублікована в березні 2023 року, покладає відповідальність за регулювання штучного інтелекту в кожній сфері на конкретні регуляторні організації за допомогою «центральних регуляторних функцій штучного інтелекту».
Фото: розум ливарний
Ця стратегія прагне знайти баланс між вимогами інвестицій, інновацій та ефективного управління. Завдяки організації та проведенню саміту з безпеки штучного інтелекту в листопаді 2023 року Велика Британія також зайняла важливу позицію в глобальних переговорах щодо управління ШІ.
Канада
Над Законом про штучний інтелект та дані (AIDA) працює Канада намагаючись захистити своїх громадян від високого ризику ШІ та заохочувати етичне використання ШІ. AIDA приділяє особливу увагу правам людини та безпеці та обмежує необережне використання ШІ.
Крім того, Канада ввела в дію Директиву щодо автоматизованого прийняття рішень, яка встановлює керівні принципи використання автоматизованих систем прийняття рішень федеральним урядом. Стратегія країни спрямована на вирішення окремих внутрішніх питань, відповідаючи міжнародним стандартам.
Japan
Японія виступає за «гнучке управління» у своїй нормативно-правовій базі навколо ШІ. У цій структурі поважаються добровільні зусилля приватного сектору щодо саморегулювання, тоді як уряд пропонує необов’язкові вказівки.
Незважаючи на те, що японський уряд опублікував принципи та вказівки щодо штучного інтелекту, японський уряд ще не запровадив жорстких юридично обов’язкових законів. Ця адаптивна стратегія спрямована на вирішення питань етики та безпеки, одночасно сприяючи інноваціям.
India
Зараз Індія створює законодавчу базу для ШІ. Уряд сформував цільову групу для створення регулюючого органу ШІ та надання пропозицій щодо моральних, правових і соціологічних проблем, пов’язаних із ШІ.
Хоча законодавство, яке стосується штучного інтелекту, все ще розробляється, чинні в Індії правила захисту даних і технології пропонують певний нагляд за програмами штучного інтелекту. Стратегія, ймовірно, братиме до уваги особливі соціально-економічні проблеми країни, а також її цілі стати всесвітнім центром технологій.
Австралія
Австралія обережно підійшла до законодавства щодо штучного інтелекту, зосередившись на інтеграції технології штучного інтелекту в рамки, які вже існують. Незважаючи на те, що уряд наголошує на важливості відповідальних досліджень штучного інтелекту, повний закон, який конкретно стосується штучного інтелекту, ще не прийнятий.
Критики попереджають, що в результаті цієї стратегії Австралія може «відставати» з точки зору управління ШІ. Уряд заперечує, що це дає змогу реагувати на технології, що швидко змінюються, більш адаптованим способом.
Brazil
Бразилія працює над комплексним законопроектом про штучний інтелект який заборонить деякі високоризикові системи штучного інтелекту, створить спеціальне регуляторне агентство та притягне розробників і розробників штучного інтелекту до відповідальності через цивільні позови.
Регламент, який розглядається, передбачає обов’язкове швидке розкриття серйозних порушень безпеки та гарантує, що люди мають право розуміти висновки, створені штучним інтелектом, і виправляти будь-які упередження. Ця стратегія є відображенням спроб Бразилії стати піонером у латиноамериканському управлінні ШІ.
Південна Африка
У квітні 2024 року Департамент комунікацій і цифрових технологій представив документ для обговорення штучного інтелекту, тому Південна Африка продовжує розробку правил штучного інтелекту. У Південній Африці штучний інтелект зараз регулюється такими законами, як Закон про захист особистої інформації (POPIA).
Південноафриканський центр досліджень штучного інтелекту (CAIR) був заснований нацією як ще одна ознака її відданості розширенню можливостей ШІ та створенню відповідних структур управління.
Швейцарія
Швейцарія вирішила не створювати окремий закон про штучний інтелект, натомість змінити чинне законодавство певним чином, щоб звільнити місце для штучного інтелекту. Ця стратегія передбачає внесення змін до місцевих законів про конкуренцію, відповідальність за продукт і загальне цивільне законодавство відповідно до вимог системи штучного інтелекту, а також включення правил прозорості штучного інтелекту до вже існуючих законів про захист даних.
Швейцарський підхід робить сильний акцент на адаптації та гнучкості, що узгоджується з інноваційною репутацією країни та значним дослідницьким співтовариством ШІ.
Глобальні тенденції та виклики
У глобальному управлінні штучним інтелектом розвивається кілька подібних елементів, незважаючи на різноманітність методів. Численні регіони впроваджують рамки, засновані на оцінці ризику, приділяючи сильний акцент відкритості та обговорюючи моральні питання. Поширеність галузевих правил зростає, оскільки все більше компаній усвідомлюють потенційні переваги та небезпеки штучного інтелекту.
Фото: розум ливарний
Досі існують проблеми з поєднанням інновацій із безпекою, постійним оновленням технологій, що швидко розвиваються, та гармонізацією законів у межах національних кордонів. Забезпечення відповідності нормативним вимогам і вирішення проблем упередженості та справедливості в системах штучного інтелекту залишаються пріоритетами глобального регулювання.
відмова
Відповідно до Правила проекту Trust, будь ласка, зверніть увагу, що інформація, надана на цій сторінці, не призначена і не повинна тлумачитися як юридична, податкова, інвестиційна, фінансова або будь-яка інша форма консультації. Важливо інвестувати лише те, що ви можете дозволити собі втратити, і звернутися за незалежною фінансовою порадою, якщо у вас виникнуть сумніви. Щоб отримати додаткову інформацію, ми пропонуємо звернутися до положень та умов, а також до сторінок довідки та підтримки, наданих емітентом або рекламодавцем. MetaversePost прагне до точного, неупередженого звітування, але ринкові умови можуть змінюватися без попередження.
про автора
Вікторія є письменницею на різноманітні технологічні теми, зокрема Web3.0, ШІ та криптовалюти. Її великий досвід дозволяє їй писати проникливі статті для широкої аудиторії.
інші статтіВікторія є письменницею на різноманітні технологічні теми, зокрема Web3.0, ШІ та криптовалюти. Її великий досвід дозволяє їй писати проникливі статті для широкої аудиторії.