Ujawnienie przepisów dotyczących sztucznej inteligencji: jak UE, USA, Chiny i inne kraje kształtują przyszłość sztucznej inteligencji
W skrócie
Globalny wpływ sztucznej inteligencji doprowadził do wyzwań dla rządów i agencji regulacyjnych w zakresie zarządzania jej rozwojem i wykorzystaniem w różnych stanach i regionach.
Globalne wstrząsy w przedsiębiorstwach i społeczeństwie spowodowane sztuczną inteligencją sprawiły, że rządy i agencje regulacyjne mają trudności z zarządzaniem jej rozwojem i wykorzystaniem. W tym miejscu dokonamy przeglądu obecnej sytuacji w zakresie ustawodawstwa dotyczącego sztucznej inteligencji w różnych stanach i regionach.
Zdjęcie: AuthorityHacker
Unia Europejska
Wraz z upływem jego historycznego Ustawa o sztucznej inteligencji, Unia Europejska ugruntowała swoją pozycję lidera w dziedzinie kompleksowego prawodawstwa dotyczącego sztucznej inteligencji. Ustawa, która została przyjęta w marcu 2024 r., dzieli nadzór nad sztuczną inteligencją na cztery kategorie ryzyka: ryzyko niedopuszczalne, wysokie, ograniczone oraz ryzyko minimalne lub żadne.
Zdjęcie: odlewnia umysłów
Systemy sztucznej inteligencji, które ustawa uznaje za stwarzające niedopuszczalne zagrożenia, są zabronione, w tym systemy wykorzystujące taktykę manipulacji podprogowej. W zastosowaniach wysokiego ryzyka mają zastosowanie rygorystyczne wytyczne dotyczące testowania, dokumentacji i monitorowania przez człowieka. Ponadto prawo wymaga, aby chatboty i inne systemy AI niskiego ryzyka były przejrzyste.
Ustawa o AI będzie wdrażana stopniowo, a jej najważniejsze zapisy zaczną obowiązywać na przełomie 2024 i 2026 roku. Naruszenie tych przepisów może skutkować karami finansowymi w wysokości do 35 milionów euro lub 7% światowych przychodów, co świadczy o determinacji UE w dążeniu do rygorystycznego egzekwowania przepisów.
United States
Jeśli chodzi o zarządzanie sztuczną inteligencją, Stany Zjednoczone opowiadały się za bardziej zdecentralizowaną strategią. Rozkazy wykonawcze i zalecenia wyznaczają ogólne kierunki na poziomie federalnym, ale poszczególne stany i agencje sektorowe są głównie odpowiedzialne za uchwalanie szczegółowych przepisów.
Zarządzenie wykonawcze „Bezpieczna, bezpieczna i godna zaufania sztuczna inteligencja” podpisane przez prezydenta Bidena w październiku 2023 r. ustanawia nowe wytyczne dotyczące raportowania i testowania systemów sztucznej inteligencji. Na poziomie stanowym wprowadzono setki przepisów związanych ze sztuczną inteligencją, z których wiele koncentruje się na konkretnych zastosowaniach, takich jak deepfake czy samochody autonomiczne.
Przodami w ustawodawstwie dotyczącym sztucznej inteligencji na poziomie stanowym są Kalifornia, Nowy Jork i Floryda, które zajmują się wszystkim, od dyskryminacji algorytmicznej po generatywną sztuczną inteligencję. Ponadto organizacje federalne nadzorujące wykorzystanie sztucznej inteligencji, takie jak Komisja Papierów Wartościowych i Giełd, uchwalają przepisy w swoich stanach.
Chiny
Chiny opublikowały „Plan rozwoju sztucznej inteligencji nowej generacji” w 2017 r., wskazując, że była pionierem w opracowaniu krajowego planu AI. Ten kompleksowy plan nakreślił chińską strategię rozwoju sztucznej inteligencji do roku 2030, kładąc równy nacisk na ewolucję technologii i jej wpływ na społeczeństwo.
Od tego czasu Chiny wprowadziły przepisy opracowane specjalnie z myślą o określonych zastosowaniach sztucznej inteligencji, takich jak generatywne usługi sztucznej inteligencji i zarządzanie algorytmami. Rząd pracował nad osiągnięciem równowagi między innowacjami a kontrolą, pozwalając przedsiębiorstwom i instytucjom badawczym przekraczać granice, jednocześnie egzekwując rygorystyczne przepisy dotyczące usług sztucznej inteligencji dostępnych dla ogółu społeczeństwa.
Wielka Brytania
Wielka Brytania wybrała „proinnowacyjną” strategię regulowania sztucznej inteligencji, rezygnując z szerokiego ustawodawstwa na rzecz nadzoru specyficznego dla branży. Opublikowane w marcu 2023 r. rządowe ramy przydzielają odpowiedzialność za regulacje dotyczące sztucznej inteligencji w każdej domenie konkretnym organizacjom regulacyjnym, z pomocą „centralnych funkcji regulacyjnych dotyczących sztucznej inteligencji”.
Zdjęcie: odlewnia umysłów
Strategia ta ma na celu znalezienie równowagi pomiędzy wymogami inwestycji, innowacji i skutecznego zarządzania. Organizując i prowadząc szczyt dotyczący bezpieczeństwa sztucznej inteligencji w listopadzie 2023 r., Wielka Brytania przyjęła również główne stanowisko w światowych rozmowach na temat zarządzania sztuczną inteligencją.
Kanada
Kanada pracuje nad ustawą o sztucznej inteligencji i danych (AIDA). w celu ochrony swoich obywateli przed sztuczną inteligencją wysokiego ryzyka i zachęcania do etycznego korzystania ze sztucznej inteligencji. AIDA kładzie duży nacisk na prawa człowieka i bezpieczeństwo oraz ogranicza bezmyślne wykorzystanie sztucznej inteligencji.
Ponadto Kanada wprowadziła w życie dyrektywę w sprawie zautomatyzowanego podejmowania decyzji, która ustanawia wytyczne dotyczące korzystania z systemów zautomatyzowanego podejmowania decyzji przez rząd federalny. Strategia narodu ma na celu rozwiązanie określonych problemów wewnętrznych, dostosowując się do standardów międzynarodowych.
Japonia
Japonia opowiada się za „elastycznym zarządzaniem” w swoich ramach regulacyjnych dotyczących sztucznej inteligencji. W tych ramach honorowane są dobrowolne wysiłki sektora prywatnego na rzecz samoregulacji, podczas gdy rząd oferuje niewiążące wytyczne.
Mimo że japoński rząd opublikował zasady i wytyczne dotyczące sztucznej inteligencji, nie wprowadził jeszcze rygorystycznych, prawnie wiążących przepisów. Ta elastyczna strategia ma na celu rozwiązanie kwestii etycznych i bezpieczeństwa przy jednoczesnym promowaniu innowacji.
Indie
Indie tworzą obecnie ramy prawne dla sztucznej inteligencji. Rząd utworzył grupę zadaniową, której zadaniem jest utworzenie organu regulacyjnego ds. sztucznej inteligencji i przedstawianie sugestii dotyczących problemów moralnych, prawnych i socjologicznych związanych ze sztuczną inteligencją.
Chociaż przepisy dotyczące sztucznej inteligencji są wciąż opracowywane, obecne indyjskie przepisy dotyczące ochrony danych i technologii zapewniają pewien nadzór nad zastosowaniami sztucznej inteligencji. Strategia prawdopodobnie uwzględniałaby szczególne problemy społeczno-gospodarcze kraju, a także jego cele, jakim jest stanie się światowym centrum technologii.
Australia
Australia ostrożnie podeszła do prawodawstwa dotyczącego sztucznej inteligencji, koncentrując się na integracji technologii sztucznej inteligencji z już istniejącymi ramami. Chociaż rząd podkreślił znaczenie odpowiedzialnych badań nad sztuczną inteligencją, nie wprowadzono jeszcze pełnego prawa dotyczącego sztucznej inteligencji.
Krytycy ostrzegają, że w wyniku tej strategii Australia może „zostać w tyle” pod względem zarządzania sztuczną inteligencją. Rząd odpowiada, że umożliwia reagowanie na szybko zmieniającą się technologię w sposób bardziej elastyczny.
Brazylia
Brazylia pracuje nad kompleksową ustawą o sztucznej inteligencji które zakażą niektórych systemów sztucznej inteligencji wysokiego ryzyka, utworzą specjalną agencję regulacyjną i pociągną twórców i wdrażających sztuczną inteligencję do odpowiedzialności w drodze procesów cywilnych.
Rozważane rozporządzenie nakazywałoby szybkie ujawnianie godnych uwagi naruszeń bezpieczeństwa i zapewniałoby obywatelom prawo do zrozumienia wniosków wygenerowanych przez sztuczną inteligencję i skorygowania wszelkich uprzedzeń. Strategia ta odzwierciedla wysiłki Brazylii, aby zyskać pozycję pioniera w zarządzaniu sztuczną inteligencją w Ameryce Łacińskiej.
RPA
Wraz z przedstawieniem przez Departament Komunikacji i Technologii Cyfrowych dokumentu do dyskusji na temat sztucznej inteligencji w kwietniu 2024 r. Republika Południowej Afryki poczyniła postępy w opracowywaniu przepisów dotyczących sztucznej inteligencji. W Afryce Południowej sztuczna inteligencja jest obecnie regulowana przepisami takimi jak ustawa o ochronie danych osobowych (POPIA).
Południowoafrykańskie Centrum Badań nad Sztuczną Inteligencją (CAIR) zostało utworzone przez naród jako kolejny znak jego zaangażowania w rozszerzanie możliwości sztucznej inteligencji i tworzenie odpowiednich ram zarządzania.
Szwajcaria
Szwajcaria zdecydowała się nie tworzyć odrębnego prawa dotyczącego sztucznej inteligencji, zamiast tego zmodyfikować obowiązujące przepisy w określony sposób, aby zrobić miejsce dla sztucznej inteligencji. Strategia ta obejmuje zmianę lokalnych przepisów dotyczących konkurencji, odpowiedzialności za produkt i ogólnych przepisów cywilnych, aby dopasować je do wymagań systemu sztucznej inteligencji, a także włączenie przepisów dotyczących przejrzystości sztucznej inteligencji do już istniejących przepisów o ochronie danych.
Szwajcarskie podejście kładzie duży nacisk na adaptację i elastyczność, co jest zgodne z reputacją innowacyjną kraju i liczną społecznością badawczą AI.
Globalne trendy i wyzwania
W globalnym zarządzaniu sztuczną inteligencją rozwija się kilka podobnych elementów pomimo różnorodności metod. Wiele regionów wdraża ramy oparte na ryzyku, kładąc duży nacisk na otwartość i debatując nad kwestiami moralnymi. W miarę jak coraz więcej firm zdaje sobie sprawę z potencjalnych zalet i zagrożeń związanych ze sztuczną inteligencją, rośnie liczba przepisów branżowych.
Zdjęcie: odlewnia umysłów
Nadal istnieją problemy z pogodzeniem innowacji z bezpieczeństwem, byciem na bieżąco z szybko rozwijającymi się technologiami i harmonizacją przepisów ponad granicami krajowymi. Egzekwowanie zgodności z przepisami oraz rozwiązywanie problemów związanych z uprzedzeniami i sprawiedliwością w systemach sztucznej inteligencji nadal stanowią globalne priorytety regulacyjne.
Odpowiedzialność
Zgodnie z Zaufaj wytycznym projektu, należy pamiętać, że informacje zawarte na tej stronie nie mają na celu i nie powinny być interpretowane jako porady prawne, podatkowe, inwestycyjne, finansowe lub jakiekolwiek inne formy porad. Ważne jest, aby inwestować tylko tyle, na utratę czego możesz sobie pozwolić, a w przypadku jakichkolwiek wątpliwości zasięgnąć niezależnej porady finansowej. Aby uzyskać więcej informacji, sugerujemy zapoznać się z warunkami oraz stronami pomocy i wsparcia udostępnianymi przez wydawcę lub reklamodawcę. MetaversePost zobowiązuje się do sporządzania dokładnych i bezstronnych raportów, jednakże warunki rynkowe mogą ulec zmianie bez powiadomienia.
O autorze
Victoria jest autorką publikacji na różne tematy technologiczne, m.in Web3.0, sztuczna inteligencja i kryptowaluty. Jej bogate doświadczenie pozwala jej pisać wnikliwe artykuły dla szerszego grona odbiorców.
Więcej artykułówVictoria jest autorką publikacji na różne tematy technologiczne, m.in Web3.0, sztuczna inteligencja i kryptowaluty. Jej bogate doświadczenie pozwala jej pisać wnikliwe artykuły dla szerszego grona odbiorców.