Novinky Technika
Října 27, 2023

Společnosti AI by měly utratit 30 % svých finančních prostředků na výzkum a vývoj v oblasti bezpečnosti a etiky

Škoda způsobená předsudky a nepravdivými informacemi je již patrná. Existují náznaky, že se mohou objevit i jiná nebezpečí. Je důležité zmírnit současná rizika a předvídat nová.

Společnosti AI by měly utratit 30 % svých finančních prostředků na výzkum a vývoj v oblasti bezpečnosti a etiky

Nevěděli bychom, jak zajistit, aby pokročilé autonomní systémy nebo AGI byly bezpečné, nebo jak je otestovat, pokud by byly právě teď dostupné. Vládám navíc chybí instituce nezbytné k zastavení zneužívání a zavedení bezpečných postupů, i když ano. Autoři podporují rozvoj účinného vládního dohledu a přesměrování úsilí výzkumu a vývoje směrem k bezpečnosti a etice.

Kontrola a poctivost (sofistikovanější systémy mohou přechytračit testování tím, že produkují nepravdivé, ale přesvědčivé odpovědi), robustnost (v nových podmínkách s posunem distribuce nebo nepřátelskými vstupy), interpretovatelnost (pochopení práce), hodnocení rizik (objevují se nové schopnosti, které je obtížné předvídat), a vznik nových výzev (bezprecedentní způsoby selhání) jsou některé z výzev výzkumu a vývoje, které nebudou vyřešeny vývoj výkonnějších systémů umělé inteligence.

Autoři navrhují, že bezpečnost a etika by měly dostat alespoň jednu třetinu finančních prostředků na výzkum a vývoj AI.

Normy je třeba prosazovat jak ve vztahu k národním institucím, tak ke globální správě. To AI postrádá, ale farmaceutický, finanční a jaderný průmysl ano. Nyní existují pobídky pro národy a podniky, aby šetřily na úkor bezpečnosti. Společnosti mohou profitovat z pokroku v oblasti umělé inteligence a nechat společnost nést následky, podobně jako průmyslová odvětví vysypávají odpad do řek.

Silné technické know-how a schopnost rychlého pohybu jsou požadavky na národní instituce. V celosvětovém měřítku jsou partnerství a dohody zásadní. Je třeba se vyhnout byrokratickým překážkám malých a předvídatelných modelů, aby byl zajištěn akademický výzkum a aplikace s nízkým rizikem. Největší pozornost by měla být věnována hraničním modelům – vybrané skupině nejúčinnějších systémů trénovaných na miliardových superpočítačích.

Vlády musí být otevřenější k vývoji, aby byla regulace účinná. Regulátoři by měli nařídit registraci modelů, chránit interní informátory, nařídit hlášení incidentů a dohlížet na vývoj modelů a používání superpočítačů.

Regulátoři musí mít také přístup k těmto systémům před jejich uvedením do výroby, aby je mohli vyhodnotit potenciálně škodlivé funkce jako generování patogenů, sebereplikace a průnik do systému.

Systémy s potenciálem být nebezpečné potřebují různé kontrolní metody. Hraniční model tvůrci také musí být právně zodpovědní za jakékoli škody na jejich systémech, kterým se dalo předejít. To by mělo podpořit investice do bezpečnosti. Více funkcí, jako je vládní licence, schopnost zastavit vývoj v reakci na potenciálně nebezpečný Extrémně schopné systémy mohou vyžadovat schopnosti, kontroly přístupu a opatření pro zabezpečení informací, která jsou pro hackery na státní úrovni nepropustná.

Ačkoli neexistují žádná pravidla, podniky by si měly rychle ujasnit své povinnosti tehdy a pak tím, že načrtnou přesné kroky, které podniknou, pokud určité schopnosti modelu překročí červenou čáru. Tato opatření je třeba důkladně vysvětlit a nezávisle potvrdit. Tak to je. Oddělený Dodatek k zásadám sestavuje souhrn tezí.

  • V říjnu Frontier Model Forum zavedla bezpečnostní fond AI ve výši více než 10 milionů dolarů, jehož cílem je podporovat pokrok ve výzkumu bezpečnosti AI. Fond, který spolupracuje mezi Frontier Model Forum a filantropickými partnery, bude poskytovat podporu nezávislým výzkumníkům po celém světě přidruženým k akademickým institucím, výzkumným organizacím a startupům. Hlavními přispěvateli do iniciativy jsou Anthropic, Google, Microsoft, OpenAI, spolu s filantropickými organizacemi, jako je Patrick J. McGovern Foundation, David a Lucile Packard Foundation, Eric Schmidt a Jaan Tallinn. AI Safety Fund se primárně zaměřuje na podporu vývoje nových hodnotících technik a červených týmových přístupů pro modely AI s cílem odhalit potenciální nebezpečí. Fórum plánuje v nadcházejících měsících zřídit poradní sbor a krátce poté vydá první výzvu k předkládání návrhů a udělí ceny.
PODOBNÉ ČLÁNKY: Úřad pro hospodářskou soutěž a trhy Spojeného království zahajuje přezkum modelů umělé inteligence s tím, jak eskaluje úsilí o vládní nařízení

Odmítnutí odpovědnosti

V souladu s Pokyny k projektu Trust, prosím vezměte na vědomí, že informace uvedené na této stránce nejsou určeny a neměly by být vykládány jako právní, daňové, investiční, finanční nebo jakékoli jiné formy poradenství. Je důležité investovat jen to, co si můžete dovolit ztratit, a v případě pochybností vyhledat nezávislé finanční poradenství. Pro další informace doporučujeme nahlédnout do smluvních podmínek a také na stránky nápovědy a podpory poskytnuté vydavatelem nebo inzerentem. MetaversePost se zavázala poskytovat přesné a nezaujaté zprávy, ale podmínky na trhu se mohou bez upozornění změnit.

O autorovi

Damir je vedoucí týmu, produktový manažer a editor ve společnosti Metaverse Post, pokrývající témata jako AI/ML, AGI, LLM, Metaverse a Web3- související obory. Jeho články přitahují každý měsíc masivní publikum čítající více než milion uživatelů. Jeví se jako odborník s 10 lety zkušeností v oblasti SEO a digitálního marketingu. Damir byl zmíněn v Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto a další publikace. Jako digitální nomád cestuje mezi SAE, Tureckem, Ruskem a SNS. Damir získal bakalářský titul z fyziky, o kterém se domnívá, že mu dal dovednosti kritického myšlení potřebné k úspěchu v neustále se měnícím prostředí internetu. 

Další články
Damir Yalalov
Damir Yalalov

Damir je vedoucí týmu, produktový manažer a editor ve společnosti Metaverse Post, pokrývající témata jako AI/ML, AGI, LLM, Metaverse a Web3- související obory. Jeho články přitahují každý měsíc masivní publikum čítající více než milion uživatelů. Jeví se jako odborník s 10 lety zkušeností v oblasti SEO a digitálního marketingu. Damir byl zmíněn v Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto a další publikace. Jako digitální nomád cestuje mezi SAE, Tureckem, Ruskem a SNS. Damir získal bakalářský titul z fyziky, o kterém se domnívá, že mu dal dovednosti kritického myšlení potřebné k úspěchu v neustále se měnícím prostředí internetu. 

Přichází den odsouzení: Osud CZ visí v rovnováze, protože americký soud zvažuje žalobu ministerstva spravedlnosti

Changpeng Zhao je dnes připraven čelit rozsudku u amerického soudu v Seattlu.

Vědět více

Zakladatelé peněženky Samourai byli obviněni z usnadňování 2 miliard dolarů v obchodech Darknet

Obavy zakladatelů Peněženky Samourai představují pro průmysl významnou překážku, která podtrhuje přetrvávající ...

Vědět více
Připojte se k naší komunitě inovativních technologií
Více
Dozvědět se více
BRICS Nations Eye Stablecoin obchodní řešení
Business Trhy Příběhy a recenze Technika
BRICS Nations Eye Stablecoin obchodní řešení
1
Bitcoin L2 Network BOB se integruje s LayerZero pro vylepšenou funkčnost
Business Novinky Technika
Bitcoin L2 Network BOB se integruje s LayerZero pro vylepšenou funkčnost
1
AI Renaissance ve vývoji her v roce 2024
AI Wiki Metaverse Wiki Vzdělání Trhy Vývoj Technika
AI Renaissance ve vývoji her v roce 2024
1
Uvnitř nové laboratoře Estée Lauder AI Innovation Lab: Bližší pohled na to, jak generativní AI transformuje kosmetické značky
Životní styl Vývoj Příběhy a recenze Technika
Uvnitř nové laboratoře Estée Lauder AI Innovation Lab: Bližší pohled na to, jak generativní AI transformuje kosmetické značky
1
CRYPTOMERIA LABS PTE. LTD.