Anthropic, Google, Microsoft i OpenAI Mianowanie dyrektora wykonawczego Frontier Model Forum i utworzenie funduszu bezpieczeństwa AI o wartości 10 mln dolarów
W skrócie
Anthropic, Google, Microsoft i OpenAI przedstawiliśmy Chrisa Meserole jako inauguracyjnego dyrektora wykonawczego Frontier Model Forum.
Jednocześnie ogłosili utworzenie znacznego funduszu bezpieczeństwa sztucznej inteligencji, na który przeznaczono ponad 10 milionów dolarów.
Anthropic, Google, Microsoft i OpenAI mieć wyznaczony Chris Meserole jako inauguracyjny dyrektor wykonawczy Frontier Model Forum. Konsorcjum branżowe jest zaangażowane w promowanie bezpiecznego i etycznego rozwoju najnowocześniejszych modeli sztucznej inteligencji na całym świecie. Jednocześnie Forum uruchomiło fundusz bezpieczeństwa AI o wartości ponad 10 milionów dolarów. Celem funduszu jest wspieranie postępów w badaniach nad bezpieczeństwem sztucznej inteligencji.
Dyrektor wykonawczy Chrisa Meserole posiada rozległą wiedzę z zakresu polityki technologicznej i zarządzania pojawiającymi się technologiami. Przed nominacją pełnił funkcję dyrektora inicjatywy na rzecz sztucznej inteligencji i nowych technologii w Brookings Institution. Na swoim nowym stanowisku Meserole będzie kierował wysiłkami na rzecz postępów w badaniach nad bezpieczeństwem sztucznej inteligencji, identyfikował najlepsze praktyki w zakresie bezpiecznego rozwoju modelu sztucznej inteligencji, rozpowszechniał wiedzę wśród zainteresowanych stron i wspierał inicjatywy wykorzystujące sztuczną inteligencję do rozwiązywania problemów społecznych.
„Najpotężniejsze modele sztucznej inteligencji niosą ze sobą ogromne nadzieje dla społeczeństwa, jednak aby w pełni wykorzystać ich potencjał, musimy lepiej zrozumieć, jak bezpiecznie je rozwijać i oceniać. Jestem podekscytowany możliwością podjęcia tego wyzwania wraz z Frontier Model Forum”
powiedział Meserole.
Fundusz na rzecz bezpieczeństwa sztucznej inteligencji powstał w odpowiedzi na szybki rozwój możliwości sztucznej inteligencji w ciągu ostatniego roku, co spowodowało konieczność dalszych badań akademickich nad bezpieczeństwem sztucznej inteligencji. Fundusz ten, będący efektem współpracy Frontier Model Forum i partnerów filantropijnych, zapewni wsparcie niezależnym badaczom na całym świecie związanym z instytucjami akademickimi, organizacjami badawczymi i start-upami.
Głównymi współautorami tej inicjatywy są Anthropic, Google, Microsoft i OpenAI, a także organizacje filantropijne, takie jak Fundacja Patricka J. McGoverna, Fundacja Davida i Lucile Packardów, Eric Schmidt i Jaan Tallinn. Ich łączny wkład przekracza 10 milionów dolarów, przy czym spodziewane są dodatkowe darowizny od innych partnerów.
Na początku tego roku członkowie Forum zobowiązali się w Białym Domu do dobrowolnych zobowiązań, obejmujących umożliwienie stronom trzecim wykrywania i zgłaszania luk w zabezpieczeniach ich systemów sztucznej inteligencji. Fundusz Bezpieczeństwa AI wywiązuje się z tego zobowiązania, oferując społecznościom zewnętrznym fundusze na kontrolę pionierskich systemów sztucznej inteligencji. Różnorodność głosów i perspektyw wzbogaci globalny dyskurs na temat bezpieczeństwa sztucznej inteligencji i poszerzy ogólną bazę wiedzy o sztucznej inteligencji.
Zwiększanie bezpieczeństwa i współpracy w zakresie sztucznej inteligencji
Fundusz Bezpieczeństwa AI koncentruje się przede wszystkim na wspieraniu rozwoju nowych technik oceny i podejścia do tworzenia zespołów typu „red team” w przypadku modeli sztucznej inteligencji, mając na celu odkrycie potencjalnych zagrożeń. Red Teaming to ustrukturyzowany proces kontroli systemów sztucznej inteligencji w celu zidentyfikowania szkodliwych możliwości, wyników lub zagrożeń infrastrukturalnych. Zwiększone finansowanie w tej dziedzinie mogłoby podnieść standardy bezpieczeństwa i ochrony oraz dostarczyć cennych informacji na temat łagodzenia wyzwań stwarzanych przez systemy sztucznej inteligencji.
Co więcej, Fundusz wkrótce będzie poszukiwał propozycji badawczych i będzie zarządzany przez Instytut Meridian przy wsparciu komitetu doradczego, w skład którego wejdą niezależni eksperci, specjaliści AI i eksperci ds. grantodawców.
Trwa odpowiedzialny proces ujawniania informacji, umożliwiający laboratoriom Frontier AI udostępnianie informacji o lukach w zabezpieczeniach i niebezpiecznych możliwościach w pionierskich modelach AI wraz z ich rozwiązaniami. Niektóre firmy z Forum zidentyfikowały już takie kwestie w kontekście bezpieczeństwa narodowego, służąc jako studia przypadków i wytyczne dla innych laboratoriów we wdrażaniu procedur odpowiedzialnego ujawniania informacji.
Patrząc w przyszłość, Forum Modelu Frontier planuje w nadchodzących miesiącach powołanie Rady Doradczej, której zadaniem będzie kierowanie jej priorytetami strategicznymi oraz reprezentowanie różnorodnej wiedzy specjalistycznej i perspektyw. Forum będzie regularnie publikować aktualizacje, w tym dodawanie nowych członków. Jednocześnie Fundusz Bezpieczeństwa AI ogłosi pierwsze zaproszenie do składania wniosków, a wkrótce potem zostaną przyznane dotacje. Ponadto Forum będzie w dalszym ciągu publikować ustalenia techniczne, gdy tylko staną się dostępne.
Nadrzędnym celem Forum jest współpraca z Chrisem Meserole i poszerzenie zaangażowania w szerszą społeczność naukową. Obejmuje to partnerstwa z organizacjami takimi jak Partnership on AI, MLCommons i innymi wiodącymi organizacjami pozarządowymi, jednostkami rządowymi i organizacjami międzynarodowymi. Wspólnie dążą do wykorzystania potencjału sztucznej inteligencji, zapewniając jednocześnie jej bezpieczny i etyczny rozwój i wykorzystanie.
Zastrzeżenie
Zgodnie z Zaufaj wytycznym projektu, należy pamiętać, że informacje zawarte na tej stronie nie mają na celu i nie powinny być interpretowane jako porady prawne, podatkowe, inwestycyjne, finansowe lub jakiekolwiek inne formy porad. Ważne jest, aby inwestować tylko tyle, na utratę czego możesz sobie pozwolić, a w przypadku jakichkolwiek wątpliwości zasięgnąć niezależnej porady finansowej. Aby uzyskać więcej informacji, sugerujemy zapoznać się z warunkami oraz stronami pomocy i wsparcia udostępnianymi przez wydawcę lub reklamodawcę. MetaversePost zobowiązuje się do sporządzania dokładnych i bezstronnych raportów, jednakże warunki rynkowe mogą ulec zmianie bez powiadomienia.
O autorze
Agne jest dziennikarką, która zajmuje się najnowszymi trendami i wydarzeniami w metaverse, sztucznej inteligencji i Web3 branże dla Metaverse Post. Jej pasja do opowiadania historii skłoniła ją do przeprowadzenia licznych wywiadów z ekspertami w tych dziedzinach, zawsze starając się odkryć ekscytujące i wciągające historie. Agne posiada tytuł licencjata z literatury i rozległe doświadczenie w pisaniu na różne tematy, w tym podróże, sztukę i kulturę. Zgłosiła się także jako wolontariuszka jako redaktorka do organizacji praw zwierząt, gdzie pomagała podnosić świadomość na temat kwestii związanych z dobrostanem zwierząt. Skontaktuj się z nią [email chroniony].
Więcej artykułów
Agne jest dziennikarką, która zajmuje się najnowszymi trendami i wydarzeniami w metaverse, sztucznej inteligencji i Web3 branże dla Metaverse Post. Jej pasja do opowiadania historii skłoniła ją do przeprowadzenia licznych wywiadów z ekspertami w tych dziedzinach, zawsze starając się odkryć ekscytujące i wciągające historie. Agne posiada tytuł licencjata z literatury i rozległe doświadczenie w pisaniu na różne tematy, w tym podróże, sztukę i kulturę. Zgłosiła się także jako wolontariuszka jako redaktorka do organizacji praw zwierząt, gdzie pomagała podnosić świadomość na temat kwestii związanych z dobrostanem zwierząt. Skontaktuj się z nią [email chroniony].