Raport aktualności Technologia
27 października 2023 r.

Firmy zajmujące się sztuczną inteligencją powinny wydawać 30% swoich środków na badania i rozwój w zakresie bezpieczeństwa i etyki

Szkody spowodowane uprzedzeniami i fałszywymi informacjami są już widoczne. Istnieją przesłanki wskazujące, że mogą pojawić się także inne zagrożenia. Ograniczanie bieżących zagrożeń i przewidywanie pojawiających się jest niezwykle istotne.

Firmy zajmujące się sztuczną inteligencją powinny wydawać 30% swoich środków na badania i rozwój w zakresie bezpieczeństwa i etyki

Nie wiedzielibyśmy, jak zapewnić bezpieczeństwo zaawansowanych systemów autonomicznych lub AGI ani jak je przetestować, gdyby były teraz dostępne. Co więcej, rządom brakuje instytucji niezbędnych do powstrzymania nadużyć i wprowadzenia bezpiecznych praktyk, nawet gdyby tak się stało. Autorzy wspierają rozwój skutecznego nadzoru rządowego i przekierowanie wysiłków badawczo-rozwojowych na bezpieczeństwo i etykę.

Kontrola i uczciwość (bardziej wyrafinowane systemy mogą przechytrzyć testowanie, dając fałszywe, ale przekonujące odpowiedzi), solidność (w nowych warunkach ze zmianą dystrybucji lub kontradyktoryjnymi danymi wejściowymi), interpretowalność (zrozumienie pracy), ocena ryzyka (pojawiają się nowe umiejętności, które są trudne do przewidzenia), oraz pojawienie się nowych wyzwań (bezprecedensowe tryby awarii) to tylko niektóre z wyzwań badawczo-rozwojowych, którym nie uda się rozwiązać opracowywanie potężniejszych systemów sztucznej inteligencji.

Autorzy sugerują, że bezpieczeństwo i etyka powinny otrzymać co najmniej jedną trzecią środków na badania i rozwój sztucznej inteligencji.

Należy egzekwować standardy zarówno w odniesieniu do instytucji krajowych, jak i zarządzania globalnego. Sztucznej inteligencji ich brakuje, ale brakuje ich w przemyśle farmaceutycznym, finansowym i nuklearnym. Obecnie istnieją zachęty dla narodów i przedsiębiorstw, aby oszczędzały kosztem bezpieczeństwa. Firmy mogą czerpać korzyści z rozwoju sztucznej inteligencji, pozostawiając społeczeństwu poniesienie konsekwencji, podobnie jak przemysł wyrzuca odpady do rzek.

Silna wiedza techniczna i umiejętność szybkiego działania to wymagania stawiane instytucjom krajowym. Na arenie globalnej partnerstwa i porozumienia są niezbędne. Należy unikać biurokratycznych przeszkód dla małych i przewidywalnych modeli, aby chronić badania akademickie i zastosowania niskiego ryzyka. Najwięcej uwagi należy poświęcić modelom pionierskim – wybranej grupie najpotężniejszych systemów przeszkolonych na superkomputerach wartych miliardy dolarów.

Aby regulacje były skuteczne, rządy muszą być bardziej otwarte na zmiany. Organy regulacyjne powinny nałożyć obowiązek rejestracji modeli, chronić wewnętrznych informatorów, nakazać zgłaszanie incydentów oraz monitorować rozwój modeli i wykorzystanie superkomputerów.

Organy regulacyjne muszą również mieć dostęp do tych systemów przed ich dopuszczeniem do produkcji, aby móc je ocenić potencjalnie szkodliwy cechy, takie jak generowanie patogenów, samoreplikacja i penetracja systemu.

Systemy, które mogą być niebezpieczne, wymagają różnorodnych metod kontroli. Model graniczny twórcy muszą także ponosić prawną odpowiedzialność za wszelkie szkody w swoich systemach, których można było uniknąć. Powinno to zachęcać do inwestycji w bezpieczeństwo. Więcej funkcji, takich jak licencje rządowe, możliwość zatrzymania rozwoju w odpowiedzi na potencjalnie niebezpieczny w przypadku niezwykle wydajnych systemów mogą być wymagane możliwości, kontrola dostępu i środki bezpieczeństwa informacji odporne na ataki hakerów na szczeblu stanowym.

Chociaż nie ma żadnych zasad, firmy powinny szybko wyjaśnić swoje obowiązki „jeśli-to” poprzez określenie dokładnych kroków, jakie podejmą, jeśli możliwości niektórych modeli przekroczą czerwoną linię. Środki te należy dokładnie wyjaśnić i niezależnie potwierdzić. Tak jest. Oddzielny Dodatek do polityki sporządza streszczenie tez.

  • W październiku Forum Frontier Model uruchomiła fundusz bezpieczeństwa sztucznej inteligencji o wartości ponad 10 milionów dolarów, których celem jest wspieranie postępów w badaniach nad bezpieczeństwem sztucznej inteligencji. Fundusz, będący efektem współpracy Frontier Model Forum i partnerów filantropijnych, zapewni wsparcie niezależnym badaczom na całym świecie związanym z instytucjami akademickimi, organizacjami badawczymi i start-upami. Głównymi współautorami inicjatywy są: Anthropic, Google, Microsoft, OpenAI, a także organizacje filantropijne, takie jak Fundacja Patricka J. McGoverna, Fundacja Davida i Lucile Packardów, Eric Schmidt i Jaan Tallinn. Fundusz na rzecz bezpieczeństwa sztucznej inteligencji koncentruje się przede wszystkim na wspieraniu rozwoju nowych technik oceny i podejścia do tworzenia zespołów typu „red team” w przypadku modeli sztucznej inteligencji, mając na celu odkrywanie potencjalnych zagrożeń. Forum planuje powołanie Rady Doradczej w nadchodzących miesiącach, a wkrótce potem ogłosi pierwsze zaproszenie do składania wniosków i przyzna nagrody.
Związane z: Brytyjski Urząd ds. Konkurencji i Rynków rozpoczyna przegląd modeli sztucznej inteligencji w miarę eskalacji rządowych wysiłków regulacyjnych

Odpowiedzialność

Zgodnie z Zaufaj wytycznym projektu, należy pamiętać, że informacje zawarte na tej stronie nie mają na celu i nie powinny być interpretowane jako porady prawne, podatkowe, inwestycyjne, finansowe lub jakiekolwiek inne formy porad. Ważne jest, aby inwestować tylko tyle, na utratę czego możesz sobie pozwolić, a w przypadku jakichkolwiek wątpliwości zasięgnąć niezależnej porady finansowej. Aby uzyskać więcej informacji, sugerujemy zapoznać się z warunkami oraz stronami pomocy i wsparcia udostępnianymi przez wydawcę lub reklamodawcę. MetaversePost zobowiązuje się do sporządzania dokładnych i bezstronnych raportów, jednakże warunki rynkowe mogą ulec zmianie bez powiadomienia.

O autorze

Damir jest liderem zespołu, menedżerem produktu i redaktorem w Metaverse Post, obejmujący takie tematy, jak AI/ML, AGI, LLM, Metaverse i Web3-pokrewne pola. Jego artykuły przyciągają każdego miesiąca ogromną publiczność, liczącą ponad milion użytkowników. Wydaje się być ekspertem z 10-letnim doświadczeniem w SEO i marketingu cyfrowym. Damir został wspomniany w Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto i inne publikacje. Jako cyfrowy koczownik podróżuje między ZEA, Turcją, Rosją i WNP. Damir uzyskał tytuł licencjata z fizyki, co jego zdaniem dało mu umiejętności krytycznego myślenia potrzebne do odniesienia sukcesu w ciągle zmieniającym się środowisku internetowym. 

Więcej artykułów
Damir Jałałow
Damir Jałałow

Damir jest liderem zespołu, menedżerem produktu i redaktorem w Metaverse Post, obejmujący takie tematy, jak AI/ML, AGI, LLM, Metaverse i Web3-pokrewne pola. Jego artykuły przyciągają każdego miesiąca ogromną publiczność, liczącą ponad milion użytkowników. Wydaje się być ekspertem z 10-letnim doświadczeniem w SEO i marketingu cyfrowym. Damir został wspomniany w Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto i inne publikacje. Jako cyfrowy koczownik podróżuje między ZEA, Turcją, Rosją i WNP. Damir uzyskał tytuł licencjata z fizyki, co jego zdaniem dało mu umiejętności krytycznego myślenia potrzebne do odniesienia sukcesu w ciągle zmieniającym się środowisku internetowym. 

Apetyt instytucjonalny na ETFy Bitcoin rośnie w obliczu zmienności

Ujawnienia zawarte w zgłoszeniach 13F ujawniają, że znaczący inwestorzy instytucjonalni parają się funduszami ETF Bitcoin, co podkreśla rosnącą akceptację…

Dowiedz się więcej

Nadchodzi dzień wyroku: los CZ wisi na włosku, gdy amerykański sąd rozpatruje skargę Departamentu Sprawiedliwości

Changpeng Zhao stanie dziś przed amerykańskim sądem w Seattle wyrokiem skazującym.

Dowiedz się więcej
Dołącz do naszej innowacyjnej społeczności technologicznej
Czytaj więcej
Czytaj więcej
Nexo inicjuje „polowanie”, aby nagrodzić użytkowników 12 milionami dolarów w tokenach NEXO za zaangażowanie w jego ekosystem
rynki Raport aktualności Technologia
Nexo inicjuje „polowanie”, aby nagrodzić użytkowników 12 milionami dolarów w tokenach NEXO za zaangażowanie w jego ekosystem
8 maja 2024 r.
Revolut X Exchange przyciąga traderów kryptowalut dzięki zerowym opłatom za tworzenie i zaawansowanym analizom
rynki Tworzenie Historie i recenzje Technologia
Revolut X Exchange przyciąga traderów kryptowalut dzięki zerowym opłatom za tworzenie i zaawansowanym analizom
8 maja 2024 r.
Platforma handlu kryptowalutami BitMEX debiutuje w handlu opcjami z zerowymi opłatami i zachętami gotówkowymi
Biznes rynki Raport aktualności
Platforma handlu kryptowalutami BitMEX debiutuje w handlu opcjami z zerowymi opłatami i zachętami gotówkowymi
8 maja 2024 r.
Lisk oficjalnie przechodzi na warstwę 2 Ethereum i prezentuje wersję Core 4.0.6
Raport aktualności Technologia
Lisk oficjalnie przechodzi na warstwę 2 Ethereum i prezentuje wersję Core 4.0.6
8 maja 2024 r.
CRYPTOMERIA LABS PTE. SP. Z O.O.