Az AI-cégeknek finanszírozásuk 30%-át a biztonság és az etika területén végzett kutatásra és fejlesztésre kell fordítaniuk
Az előítéletek és a hamis információk által okozott károk már most láthatóak. Vannak arra utaló jelek, hogy más veszélyek is felmerülhetnek. Kritikus a jelenlegi kockázatok mérséklése és a kialakuló kockázatok előrejelzése.
Nem tudnánk, hogyan biztosítsuk a fejlett autonóm rendszerek vagy az AGI biztonságát, vagy hogyan teszteljük őket, ha jelenleg elérhetőek lennének. Ezen túlmenően a kormányoknak hiányoznak a visszaélések megállításához és biztonságos gyakorlatok bevezetéséhez szükséges intézmények, még ha meg is teszik. A szerzők támogatják a hatékony kormányzati felügyelet kialakítását és a K+F erőfeszítések biztonság és etika irányába történő átirányítását.
Ellenőrzés és őszinteség (a kifinomultabb rendszerek túlszárnyalhatják a tesztelést hamis, de meggyőző válaszok adásával), robusztusság (új körülmények között, disztribúcióváltással vagy ellenséges bemenetekkel), értelmezhetőség (a munka megértése), kockázatértékelés (új, nehezen megjósolható képességek jelennek meg), és az új kihívások (példátlan meghibásodási módok) megjelenése néhány a K+F kihívások közül, amelyeket nem lehet megoldani erősebb AI-rendszerek fejlesztése.
A szerzők azt javasolják, hogy a biztonság és az etika kapjon legalább egyharmadát az AI K+F finanszírozásának.
A szabványokat mind a nemzeti intézményekkel, mind a globális kormányzással kapcsolatban érvényesíteni kell. A mesterséges intelligencia ezekből hiányzik, de a gyógyszeripar, a pénzügyi és a nukleáris ipar igen. A nemzeteket és a vállalkozásokat ma már arra ösztönzik, hogy a biztonság rovására takarékoskodjanak. A vállalatok profitálhatnak a mesterséges intelligencia fejlesztéseiből, miközben a társadalmat viselik a következmények, hasonlóan ahhoz, ahogy az iparágak a hulladékot a folyókba dobják.
Az erős műszaki know-how és a gyors mozgásra való képesség követelmény a nemzeti intézmények számára. A globális színtéren a partnerségek és megállapodások elengedhetetlenek. Az akadémiai kutatás és az alacsony kockázatú alkalmazások védelme érdekében el kell kerülni a kisméretű és kiszámítható modellek előtti bürokratikus akadályokat. A határmodellekre – a milliárd dolláros szuperszámítógépekre kiképzett leghatékonyabb rendszerek egy kiválasztott csoportjára – kell a legnagyobb hangsúlyt fektetni.
A kormányoknak nyitottabbnak kell lenniük a fejleményeket illetően, hogy a szabályozások hatékonyak legyenek. A szabályozó hatóságoknak elő kell írniuk a modellek regisztrálását, meg kell védeniük a belső informátorokat, elő kell írniuk az incidensek jelentését, és figyelemmel kell kísérniük a modellek fejlesztését és a szuperszámítógépek használatát.
A szabályozó hatóságoknak is hozzá kell férniük ezekhez a rendszerekhez a termelésbe bocsátásuk előtt, hogy értékelhessék potenciálisan káros olyan funkciók, mint a kórokozók generálása, az önreplikáció és a rendszerbe való behatolás.
A potenciálisan veszélyes rendszereknek különféle szabályozási módszerekre van szükségük. Frontier modell az alkotókat jogilag is felelősségre kell vonni minden olyan kárért, amelyet rendszereikben el lehetett volna kerülni. Ennek ösztönöznie kell a biztonsági befektetéseket. További funkciók, mint például a kormányzati engedélyezés, a fejlesztés leállításának képessége válaszul potenciálisan veszélyes Az állami szintű hackerek számára áthatolhatatlan képességekre, hozzáférés-ellenőrzésekre és információbiztonsági intézkedésekre lehet szükség a rendkívül alkalmas rendszerek esetében.
Bár nincsenek szabályok, a vállalkozásoknak gyorsan tisztázniuk kell a ha-akkor felelősségeiket, felvázolva azokat a pontos lépéseket, amelyeket meg kell tenniük, ha bizonyos modellképességek átlépnek egy piros vonalat. Ezeket az intézkedéseket alaposan meg kell magyarázni, és függetlenül meg kell erősíteni. Így van. Egy külön Szabályzat kiegészítés tézisekből összefoglalót állít össze.
- Októberben a Frontier Model Forum több mint 10 millió dolláros mesterségesintelligencia-biztonsági alapot vezetett be, amelynek célja az AI biztonsági kutatásának előrehaladása. Az alap, a Frontier Model Forum és a jótékonysági partnerek együttműködése, támogatást nyújt olyan független kutatóknak, akik világszerte kapcsolatban állnak tudományos intézményekkel, kutatószervezetekkel és startupokkal. A kezdeményezés elsődleges közreműködői az Anthropic, a Google, a Microsoft, OpenAI, valamint olyan jótékonysági szervezetekkel, mint a Patrick J. McGovern Alapítvány, a David és Lucile Packard Alapítvány, Eric Schmidt és Jaan Tallinn. Az AI Biztonsági Alap elsősorban az AI-modellek új értékelési technikáinak és red teaming megközelítéseinek fejlesztésére összpontosít, a lehetséges veszélyek feltárása érdekében. A Fórum a következő hónapokban egy tanácsadó testület felállítását tervezi, és röviddel ezután kiírja első pályázati felhívását és odaítéli a díjakat.
A felelősség megtagadása
Összhangban a A Trust Project irányelvei, kérjük, vegye figyelembe, hogy az ezen az oldalon közölt információk nem minősülnek jogi, adózási, befektetési, pénzügyi vagy bármilyen más formájú tanácsnak, és nem is értelmezhetők. Fontos, hogy csak annyit fektessen be, amennyit megengedhet magának, hogy elveszítsen, és kérjen független pénzügyi tanácsot, ha kétségei vannak. További információkért javasoljuk, hogy tekintse meg a szerződési feltételeket, valamint a kibocsátó vagy hirdető által biztosított súgó- és támogatási oldalakat. MetaversePost elkötelezett a pontos, elfogulatlan jelentéstétel mellett, de a piaci feltételek előzetes értesítés nélkül változhatnak.
A szerzőről
Damir a csapat vezetője, termékmenedzsere és szerkesztője Metaverse Post, olyan témákkal foglalkozik, mint az AI/ML, AGI, LLMs, Metaverse és Web3- kapcsolódó mezők. Cikkei havonta több mint egymillió felhasználót vonzanak. Úgy tűnik, szakértő, aki 10 éves tapasztalattal rendelkezik a SEO és a digitális marketing területén. Damirt a Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto és más kiadványok. Digitális nomádként utazik az Egyesült Arab Emírségek, Törökország, Oroszország és a FÁK között. Damir fizikából szerzett bachelor-diplomát, és úgy gondolja, hogy ez megadta neki azokat a kritikus gondolkodási készségeket, amelyek szükségesek ahhoz, hogy sikeres legyen az internet folyamatosan változó táján.
További cikkekDamir a csapat vezetője, termékmenedzsere és szerkesztője Metaverse Post, olyan témákkal foglalkozik, mint az AI/ML, AGI, LLMs, Metaverse és Web3- kapcsolódó mezők. Cikkei havonta több mint egymillió felhasználót vonzanak. Úgy tűnik, szakértő, aki 10 éves tapasztalattal rendelkezik a SEO és a digitális marketing területén. Damirt a Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto és más kiadványok. Digitális nomádként utazik az Egyesült Arab Emírségek, Törökország, Oroszország és a FÁK között. Damir fizikából szerzett bachelor-diplomát, és úgy gondolja, hogy ez megadta neki azokat a kritikus gondolkodási készségeket, amelyek szükségesek ahhoz, hogy sikeres legyen az internet folyamatosan változó táján.