Raport aktualności Technologia
30 maja 2023 r.

Eksperci AI i osoby publiczne alarmują o ryzyku wyginięcia AI

W skrócie

Wybitni eksperci AI i wpływowe osobistości wyrażają swoje zdanie obawy dotyczące zagrożeń związanych ze sztuczną inteligencją.

Pomimo znacznych postępów w sztucznej inteligencji, wiele wyzwań związanych z ryzykiem związanym ze sztuczną inteligencją pozostaje nierozwiązanych.

Eksperci AI i osoby publiczne alarmują o ryzyku wyginięcia AI

Wybitni eksperci AI i osoby publiczne wydali oświadczenie ostrzegające, że AI może stanowić zagrożenie dla przetrwania ludzkości, porównywalne lub nawet większe niż ryzyko pandemii i wojny nuklearnej. 350 sygnatariuszy twierdzi, że sztuczna inteligencja może mieć nieprzewidziane i katastrofalne konsekwencje, takie jak uwolnienie autonomicznej broni, zakłócenie systemów społecznych i ekonomicznych lub stworzenie superinteligentnych agentów, którzy mogliby przechytrzyć i pokonać ludzi.

Wzywają decydentów do poważnego potraktowania tego ryzyka i przyjęcia środków zapewniających bezpieczny i korzystny rozwój sztucznej inteligencji. The oświadczenie jest podpisany przez niektóre z czołowych postaci w badaniach i rozwoju sztucznej inteligencji, takie jak OpenAI Dyrektor generalny Sam Altman, współzałożyciel Skype Jaan Tallinn, dyrektor generalny DeepMind Demis Hassabis i informatyk zajmujący się sztuczną inteligencją Geoffrey Hinton, a także wpływowe osobistości publiczne, takie jak muzyk Grimes i podcaster Sam Harris.

Wśród sygnatariuszy byli laureaci Nagrody Turinga 2018 za wkład w głębokie uczenie się: Geoffrey Hinton i Yoshua Bengio. Dołączyli do nich profesorowie z prestiżowych uniwersytetów, takich jak Harvard i Tsinghua University w Chinach, a także Max Tegmark z MIT.

„Ograniczenie ryzyka wyginięcia spowodowanego przez sztuczną inteligencję powinno być globalnym priorytetem obok innych zagrożeń na skalę społeczną, takich jak pandemie i wojna nuklearna”

list opublikowany przez stany CAIS.

Centrum Bezpieczeństwa AI (CAIS), organizacja non-profit z siedzibą w San Francisco, ma na celu rozwiązanie problemów związanych z bezpieczeństwem związanych ze sztuczną inteligencją. Dostrzegając potencjalne korzyści AI, CAIS podkreśla potrzebę jej rozwijania i bezpiecznego użytkowania. Firma uważa, że ​​pomimo znacznych postępów w sztucznej inteligencji wiele fundamentalnych wyzwań w zakresie bezpieczeństwa sztucznej inteligencji pozostaje nierozwiązanych. Według strony internetowej, misją CAIS jest ograniczanie ryzyka poprzez prowadzenie badań nad bezpieczeństwem, wspieranie społeczności naukowców zajmujących się bezpieczeństwem sztucznej inteligencji oraz propagowanie standardów bezpieczeństwa.

„Istnieje wiele„ ważnych i pilnych zagrożeń związanych ze sztuczną inteligencją ”, nie tylko ryzyko wyginięcia; na przykład stronniczość systemowa, dezinformacja, złośliwe użycie, cyberataki i uzbrojenie. To wszystko są ważne zagrożenia, którymi należy się zająć. Społeczeństwa mogą jednocześnie zarządzać wieloma rodzajami ryzyka; to nie jest „albo/albo”, ale „tak/i”. Z punktu widzenia zarządzania ryzykiem, podobnie jak lekkomyślne byłoby ustalanie priorytetów wyłącznie dla obecnych szkód, tak lekkomyślne byłoby również ich ignorowanie”

Dan Hendrycks, dyrektor CAIS napisał na Twitterze. 

W marcu ponad 1,100 ekspertów technicznych podpisana list otwarty żądający półrocznego wstrzymania szkolenia w zakresie systemów sztucznej inteligencji GPT-4. Ostatnio także europejscy prawodawcy zatwierdzony bardziej rygorystyczny projekt przepisów, znany jako ustawa o sztucznej inteligencji, regulujący narzędzia sztucznej inteligencji, takie jak ChatGPT. Ustawa zawiera wymogi dotyczące kontroli bezpieczeństwa, zarządzania danymi i ograniczania ryzyka w przypadku podstawowych modeli sztucznej inteligencji oraz zabrania praktyk takich jak techniki manipulacyjne i określone zastosowania danych biometrycznych.

Czytaj więcej:

tagi:

Odpowiedzialność

Zgodnie z Zaufaj wytycznym projektu, należy pamiętać, że informacje zawarte na tej stronie nie mają na celu i nie powinny być interpretowane jako porady prawne, podatkowe, inwestycyjne, finansowe lub jakiekolwiek inne formy porad. Ważne jest, aby inwestować tylko tyle, na utratę czego możesz sobie pozwolić, a w przypadku jakichkolwiek wątpliwości zasięgnąć niezależnej porady finansowej. Aby uzyskać więcej informacji, sugerujemy zapoznać się z warunkami oraz stronami pomocy i wsparcia udostępnianymi przez wydawcę lub reklamodawcę. MetaversePost zobowiązuje się do sporządzania dokładnych i bezstronnych raportów, jednakże warunki rynkowe mogą ulec zmianie bez powiadomienia.

O autorze

Agne jest dziennikarką, która zajmuje się najnowszymi trendami i wydarzeniami w metaverse, sztucznej inteligencji i Web3 branże dla Metaverse Post. Jej pasja do opowiadania historii skłoniła ją do przeprowadzenia licznych wywiadów z ekspertami w tych dziedzinach, zawsze starając się odkryć ekscytujące i wciągające historie. Agne posiada tytuł licencjata z literatury i rozległe doświadczenie w pisaniu na różne tematy, w tym podróże, sztukę i kulturę. Zgłosiła się także jako wolontariuszka jako redaktorka do organizacji praw zwierząt, gdzie pomagała podnosić świadomość na temat kwestii związanych z dobrostanem zwierząt. Skontaktuj się z nią [email chroniony].

Więcej artykułów
Agnieszka Cimerman
Agnieszka Cimerman

Agne jest dziennikarką, która zajmuje się najnowszymi trendami i wydarzeniami w metaverse, sztucznej inteligencji i Web3 branże dla Metaverse Post. Jej pasja do opowiadania historii skłoniła ją do przeprowadzenia licznych wywiadów z ekspertami w tych dziedzinach, zawsze starając się odkryć ekscytujące i wciągające historie. Agne posiada tytuł licencjata z literatury i rozległe doświadczenie w pisaniu na różne tematy, w tym podróże, sztukę i kulturę. Zgłosiła się także jako wolontariuszka jako redaktorka do organizacji praw zwierząt, gdzie pomagała podnosić świadomość na temat kwestii związanych z dobrostanem zwierząt. Skontaktuj się z nią [email chroniony].

Od Ripple do Big Green DAO: jak projekty kryptowalutowe przyczyniają się do działalności charytatywnej

Przyjrzyjmy się inicjatywom wykorzystującym potencjał walut cyfrowych na cele charytatywne.

Dowiedz się więcej

AlphaFold 3, Med-Gemini i inne: sposób, w jaki sztuczna inteligencja zmieni opiekę zdrowotną w 2024 r.

Sztuczna inteligencja objawia się na różne sposoby w opiece zdrowotnej, od odkrywania nowych korelacji genetycznych po wzmacnianie zrobotyzowanych systemów chirurgicznych…

Dowiedz się więcej
Dołącz do naszej innowacyjnej społeczności technologicznej
Czytaj więcej
Czytaj więcej
Od Ripple do Big Green DAO: jak projekty kryptowalutowe przyczyniają się do działalności charytatywnej
Analiza krypto Wiki Biznes Edukacja Styl życia rynki Tworzenie Technologia
Od Ripple do Big Green DAO: jak projekty kryptowalutowe przyczyniają się do działalności charytatywnej
13 maja 2024 r.
AlphaFold 3, Med-Gemini i inne: sposób, w jaki sztuczna inteligencja zmieni opiekę zdrowotną w 2024 r.
AI Wiki Analiza Digest Opinia Biznes rynki Raport aktualności Tworzenie Historie i recenzje Technologia
AlphaFold 3, Med-Gemini i inne: sposób, w jaki sztuczna inteligencja zmieni opiekę zdrowotną w 2024 r.
13 maja 2024 r.
Sieć Nim wdroży ramy tokenizacji własności AI i przeprowadzi sprzedaż zysków z datą migawki zaplanowaną na maj
rynki Raport aktualności Technologia
Sieć Nim wdroży ramy tokenizacji własności AI i przeprowadzi sprzedaż zysków z datą migawki zaplanowaną na maj
13 maja 2024 r.
Binance współpracuje z Argentyną w walce z cyberprzestępczością
Opinia Biznes rynki Raport aktualności Tworzenie Technologia
Binance współpracuje z Argentyną w walce z cyberprzestępczością
13 maja 2024 r.
CRYPTOMERIA LABS PTE. SP. Z O.O.