OpenAI: Sztuczna inteligencja może potencjalnie wyrządzić wiele szkód ludziom, ale próba zatrzymania postępu nie wchodzi w grę
W skrócie
OpenAIdokument „Planning for AGI and Beyond” sugeruje stopniowe, powolne wprowadzanie bardziej złożonych i „inteligentnych” modeli, organizowanie niezależnych audytów dużych systemów i ograniczanie zasobów obliczeniowych.
OpenAI chce, aby sztuczna inteligencja była otwarta dla wszystkich jednakowo i tworzyła bardziej spójne i łatwe do opanowania modele w celu ograniczenia uprzedzeń i niepożądanych zachowań.
OpenAI niedawno opublikował dokument zatytułowany „Planowanie dla AGI i nie tylko”. Nakreśla szerokie idee przyświecające działaniom firmy w obliczu zbliżania się świata do rozwoju AGI (sztucznej inteligencji ogólnej).
OpenAI z uważa, że chociaż sztuczna inteligencja może wyrządzić ludziom znaczne szkody, próby zatrzymania postępu nie wchodzą w grę. W rezultacie musimy nauczyć się, jak utrzymać tę poprawę, aby nie uległa ona znacznemu pogorszeniu.
Dokument można znaleźć tutaj. Wyróżnijmy z niego kilka kluczowych elementów:
- OpenAI pragnie, aby AGI pomagało ludziom rozwijać się we wszystkich aspektach życia, zarówno pod względem gospodarczym, jak i naukowym.
Zamiast tworzyć superfajną, dużą sztuczną inteligencję i natychmiast wypuszczać ją na świat, OpenAI będzie stopniowo wprowadzać bardziej skomplikowane i „inteligentne” modele. Zakłada się, że stopniowe zwiększanie możliwości sztucznej inteligencji nie będzie szokować świata, dając ludziom czas na dostosowanie się, dostosowanie gospodarki i zbudowanie procedur interakcji z sztuczną inteligencją. - OpenAI zachęca wszystkie organizacje do formalnego przyjęcia powyższej zasady (stopniowego wdrażania potężnej sztucznej inteligencji). Altman zaleca również ograniczenie ilości zasobów obliczeniowych, które można wykorzystać do uczenia modeli i zorganizowanie bezstronnych audytów głównych systemów, zanim zostaną one udostępnione ogółowi społeczeństwa. Zamiast angażować się w konkursy typu „kto jako pierwszy wprowadzi na rynek fajniejszy i większy model?” OpenAI zwraca się do przedsiębiorstw pracować razem poprawić bezpieczeństwo sztucznej inteligencji.
- OpenAI Uważa, że niezwykle istotne jest informowanie rządów o seriach szkoleniowych przekraczających określoną skalę. To intrygująca koncepcja i chcielibyśmy dowiedzieć się więcej na ten temat plany OpenAI ma w tym zakresie. Na pierwszy rzut oka ta propozycja nie wydaje mi się zbyt wspaniała.
- OpenAI spróbuje opracować modele, które będą bardziej niezawodne i kontrolowalne, co najprawdopodobniej ograniczy stronniczość i niekorzystne zachowanie w sztucznej inteligencji. Podejście przyjęte przez OpenAI w tym przypadku polega na udostępnieniu modelu ogółowi społeczeństwa w bardzo ograniczonej formie, jednocześnie dając użytkownikom możliwość jego personalizacji. Ponieważ konsumenci nie będą mogli niczego tam „spersonalizować”, nie jestem pewien, w jaki sposób pomoże to modelowi jako całości stać się mniej stronniczym. Chyba, że zwalnia to firmę z odpowiedzialności za działania modela.
Ogólnie rzecz biorąc, dokument wskazuje właściwą drogę. Doszło jednak do drobnego konfliktu między „nie od razu pokażemy publiczności fajne modele, ale będziemy o nich rozmawiać z państwami” a „ludzie powinni wiedzieć o postępie sztucznej inteligencji.” Krótko mówiąc, będziemy czekać na szczegółowe wyjaśnienia od OpenAI na wszystkie tematy.
Przeczytaj więcej o sztucznej inteligencji:
Odpowiedzialność
Zgodnie z Zaufaj wytycznym projektu, należy pamiętać, że informacje zawarte na tej stronie nie mają na celu i nie powinny być interpretowane jako porady prawne, podatkowe, inwestycyjne, finansowe lub jakiekolwiek inne formy porad. Ważne jest, aby inwestować tylko tyle, na utratę czego możesz sobie pozwolić, a w przypadku jakichkolwiek wątpliwości zasięgnąć niezależnej porady finansowej. Aby uzyskać więcej informacji, sugerujemy zapoznać się z warunkami oraz stronami pomocy i wsparcia udostępnianymi przez wydawcę lub reklamodawcę. MetaversePost zobowiązuje się do sporządzania dokładnych i bezstronnych raportów, jednakże warunki rynkowe mogą ulec zmianie bez powiadomienia.
O autorze
Damir jest liderem zespołu, menedżerem produktu i redaktorem w Metaverse Post, obejmujący takie tematy, jak AI/ML, AGI, LLM, Metaverse i Web3-pokrewne pola. Jego artykuły przyciągają każdego miesiąca ogromną publiczność, liczącą ponad milion użytkowników. Wydaje się być ekspertem z 10-letnim doświadczeniem w SEO i marketingu cyfrowym. Damir został wspomniany w Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto i inne publikacje. Jako cyfrowy koczownik podróżuje między ZEA, Turcją, Rosją i WNP. Damir uzyskał tytuł licencjata z fizyki, co jego zdaniem dało mu umiejętności krytycznego myślenia potrzebne do odniesienia sukcesu w ciągle zmieniającym się środowisku internetowym.
Więcej artykułówDamir jest liderem zespołu, menedżerem produktu i redaktorem w Metaverse Post, obejmujący takie tematy, jak AI/ML, AGI, LLM, Metaverse i Web3-pokrewne pola. Jego artykuły przyciągają każdego miesiąca ogromną publiczność, liczącą ponad milion użytkowników. Wydaje się być ekspertem z 10-letnim doświadczeniem w SEO i marketingu cyfrowym. Damir został wspomniany w Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto i inne publikacje. Jako cyfrowy koczownik podróżuje między ZEA, Turcją, Rosją i WNP. Damir uzyskał tytuł licencjata z fizyki, co jego zdaniem dało mu umiejętności krytycznego myślenia potrzebne do odniesienia sukcesu w ciągle zmieniającym się środowisku internetowym.