Názor Vzdělání Životní styl Trhy Vývoj Technika
Června 05, 2024

Bývalý OpenAI Výzkumník odhaluje exponenciální vzestup schopností AI a cestu k AGI

Stručně

Leopold Aschenbrenner, býv OpenAI člen, zkoumá pokroky AI a potenciální cestu AGI, zkoumá vědecké, morální a strategické otázky a upozorňuje na potenciální i potenciální rizika.

V jeho 165stránkový papír, bývalý člen OpenAIJe Tým Superalignment, Leopold Aschenbrenner, nabízí důkladný a provokativní pohled na směr, kterým se umělá inteligence ubírá. Aschenbrenner se snaží upozornit na rychlý vývoj schopností umělé inteligence a také na možnou cestu k umělé obecné inteligenci (AGI) a dále. Poháněn jedinečnými vyhlídkami a také významnými riziky, která tyto průlomové objevy přinášejí, zkoumá vědecké, morální a strategické otázky týkající se umělé obecné inteligence. 

Aschenbrenner O cestě z GPT-4 do AGI

V této kapitole autor zkoumá exponenciální nárůst schopností umělé inteligence, který byl v poslední době vidět, zejména s vynálezem GPT-2 a GPT-4. Leopold Aschenbrenner to vyzdvihuje jako dobu mimořádného pokroku, během níž umělá inteligence pokročila od dokončení zcela základních úkolů k dosažení sofistikovanějšího porozumění a produkce jazyka jako u lidí.

Leopold Aschenbrenner, býv OpenAI člen, zkoumá pokroky AI a potenciální cestu AGI, zkoumá vědecké, morální a strategické otázky a upozorňuje na potenciální i potenciální rizika.

Foto: Pokrok za čtyři roky. Situační uvědomění

Myšlenka Řádů Magnitude neboli „OOM“ je pro tento rozhovor zásadní. Aschenbrenner využívá řádovou hodnotu (OOM), což je metrika pro desetinásobný růst v dané míře, k posouzení pokroku v možnostech umělé inteligence, výpočetním výkonu a spotřebě dat. Z hlediska výpočetního výkonu a škálovatelnosti dat je přechod od GPT-2 na GPT-4 představuje mnoho OOM, což má za následek znatelně lepší výkon a schopnosti.

Leopold Aschenbrenner, býv OpenAI člen, zkoumá pokroky AI a potenciální cestu AGI, zkoumá vědecké, morální a strategické otázky a upozorňuje na potenciální i potenciální rizika.

Fotografie: Situační uvědomění

Za tyto zisky, které nejsou pouze lineární, ale exponenciální, jsou zodpovědné tři hlavní faktory – zákony o škálování, algoritmické inovace a používání obrovských datových sad. Podle principů škálování se výkon modelů spolehlivě zlepšuje, když jsou trénovány pomocí většího množství dat a kapacity zpracování. Vývoj větších a výkonnějších modelů, jako GPT-4, byla vedena touto myšlenkou.

Leopold Aschenbrenner, býv OpenAI člen, zkoumá pokroky AI a potenciální cestu AGI, zkoumá vědecké, morální a strategické otázky a upozorňuje na potenciální i potenciální rizika.

Fotografie: Situační uvědomění

Inovace v algoritmech byla také velmi důležitá. Účinnost a účinnost modelů umělé inteligence byla posílena pokroky v metodice školení, optimalizačních strategiích a základních architekturách. Tento vývoj umožňuje modelům lépe využívat rostoucí výpočetní výkon a dostupná data.

Aschenbrenner také zdůrazňuje možnou cestu k AGI do roku 2027. Na základě projekce současných trendů tato předpověď naznačuje, že trvalé investice do výpočetního výkonu a efektivity algoritmů mohou vést k systémům umělé inteligence, které jsou schopny vykonávat úkoly, které se vyrovnají nebo překonávají lidský intelekt. širokou škálu domén. Každý z OOM, který tvoří cestu k AGI, znamená velký pokrok ve schopnostech AI.

Leopold Aschenbrenner, býv OpenAI člen, zkoumá pokroky AI a potenciální cestu AGI, zkoumá vědecké, morální a strategické otázky a upozorňuje na potenciální i potenciální rizika.

Fotografie: Situační uvědomění

Integrace AGI má dalekosáhlé důsledky. Tyto druhy systémů by mohly být schopny samostatně řešit složité problémy, inovovat způsoby, které jsou v současnosti vyhrazeny pro lidské profesionály, a vykonávat složité úkoly. To zahrnuje potenciál systémů umělé inteligence k dalšímu výzkumu umělé inteligence, čímž se urychlí tempo, s jakým se tato oblast vyvíjí.

Vývoj společnosti AGI má potenciál transformovat průmyslová odvětví a zvýšit produkci a efektivitu. Přináší také důležité otázky, jako je ztráta pracovních míst, morální aplikace umělé inteligence a požadavek na silné řídící struktury pro kontrolu rizik, která představují plně autonomní systémy.

Leopold Aschenbrenner, býv OpenAI člen, zkoumá pokroky AI a potenciální cestu AGI, zkoumá vědecké, morální a strategické otázky a upozorňuje na potenciální i potenciální rizika.

Fotografie: Situační uvědomění

Aschenbrenner naléhá na mezinárodní komunitu – která zahrnuje vědce, zákonodárce a manažery podniků – ke spolupráci, aby byla připravena na příležitosti a problémy, které umělá inteligence (AI) přinese. Aby se vyřešil globální charakter těchto problémů, znamená to financování výzkumu bezpečnosti a přizpůsobení umělé inteligence, vytváření pravidel, která zaručí spravedlivé sdílení výhod umělé inteligence, a podporu mezinárodní spolupráce.

Leopold Aschenbrenner sdílí své myšlenky o superinteligenci

Aschenbrenner tam pojednává o myšlence superinteligence a také o možnosti rychlého přechodu od umělé inteligence k systémům, které jsou mnohem nad schopností lidského poznání. Ústřední myšlenkou argumentu je, že principy, které řídí evoluci AI, mohou vytvořit zpětnovazební smyčku, která exploduje v intelektu, jakmile dosáhne lidské úrovně.

Podle konceptu zpravodajské exploze může AGI samostatně vyvinout své vlastní algoritmy a dovednosti. Systémy AGI mohou zdokonalovat své vlastní návrhy rychleji než lidští výzkumníci, protože jsou kvalifikovanější ve výzkumu a vývoji AI. Tento cyklus sebezdokonalování může vést k exponenciálnímu nárůstu intelektu.

Leopold Aschenbrenner, býv OpenAI člen, zkoumá pokroky AI a potenciální cestu AGI, zkoumá vědecké, morální a strategické otázky a upozorňuje na potenciální i potenciální rizika.

Fotografie: Situační uvědomění

Aschenbrenner nabízí důkladné prozkoumání proměnných, které by mohly být zapojeny do této rychlé eskalace. Za prvé, systémy AGI by byly schopny rozpoznat vzory a poznatky, které přesahují lidské chápání, díky jejich bezkonkurenční rychlosti a schopnosti přistupovat k masivním objemům dat a zpracovávat je.

Kromě toho je kladen důraz na paralelizaci výzkumné práce. Systémy AGI, na rozdíl od lidských výzkumníků, jsou schopny provádět několik testů najednou, přičemž paralelně zlepšují různé části jejich designu a výkonu.

Důsledky superinteligence jsou také popsány v této kapitole. Tyto systémy by byly podstatně výkonnější než kdokoli jiný, se schopností vyvíjet nové technologie, řešit složité vědecké a technologické hádanky a možná i řídit fyzické systémy způsoby, které jsou dnes nemyslitelné. Aschenbrenner hovoří o možných výhodách, jako jsou pokroky ve vědě o materiálech, energetice a zdraví, které by mohly výrazně zlepšit ekonomickou produktivitu a lidský blahobyt.

Leopold Aschenbrenner, býv OpenAI člen, zkoumá pokroky AI a potenciální cestu AGI, zkoumá vědecké, morální a strategické otázky a upozorňuje na potenciální i potenciální rizika.

Fotografie: Situační uvědomění

Leopold však také upozorňuje na vážná nebezpečí, která s sebou nese superinteligence. Kontrola je jedním z hlavních problémů. Je velmi náročné zajistit, aby se systém choval způsobem, který je v souladu s lidskými hodnotami a zájmy, jakmile překoná lidský intelekt. Existenciální rizika vznikají z možnosti nesouososti, ve které se cíle superinteligentního systému liší od cílů lidstva.

Navíc existují další situace, kdy superinteligentní systémy mohou mít katastrofální následky. Jedná se o situace, kdy systém úmyslně nebo náhodně podniká kroky nebo výsledky, které poškozují lidi, aby dosáhl svých cílů.

Aschenbrenner nabádá k důkladné studii o přizpůsobení a bezpečnosti umělé inteligence, aby se tyto hrozby snížily. Jedním z aspektů je vytvoření silných metod, které zaručí, že cíle a akce superinteligentních systémů zůstanou v souladu s lidskými hodnotami. Aby se vypořádal se složitými problémy, které představuje superinteligence, navrhuje multidisciplinární přístup, který zahrnuje poznatky z oblastí, jako je technologie, morálka a humanitní vědy.

Leopold sdílí, jaké výzvy bychom měli očekávat od vývoje AGI

Autor se v této pasáži věnuje otázkám a výzvám souvisejícím s vytvářením a používáním umělé inteligence (AGI) a superinteligentních systémů. Diskutuje o problémech, které je třeba vyřešit na technologické, morální a bezpečnostní úrovni, aby bylo zaručeno, že výhody sofistikované umělé inteligence lze dosáhnout bez extrémně vysokých nebezpečí.

Masivní průmyslová mobilizace potřebná k vybudování výpočetní infrastruktury potřebné pro AGI je jedním z hlavních problémů, které jsou zvažovány. Podle Aschenbrennera bude dosažení AGI vyžadovat podstatně větší výpočetní výkon, než je nyní dostupné. To zahrnuje zlepšení účinnosti zařízení, využití energie a kapacity zpracování informací kromě samotné výpočetní kapacity.

Leopold Aschenbrenner, býv OpenAI člen, zkoumá pokroky AI a potenciální cestu AGI, zkoumá vědecké, morální a strategické otázky a upozorňuje na potenciální i potenciální rizika.

Foto: Největší tréninkové shluky. Situační uvědomění

Leopold Aschenbrenner, býv OpenAI člen, zkoumá pokroky AI a potenciální cestu AGI, zkoumá vědecké, morální a strategické otázky a upozorňuje na potenciální i potenciální rizika.

Fotografie: Situační uvědomění

Dalším důležitým tématem této kapitoly jsou bezpečnostní otázky. Aschenbrenner zdůrazňuje nebezpečí, která mohou vyplynout z darebáckých národů nebo jiných špatných herců používajících technologii AGI. Kvůli strategickému významu technologie AGI se země a organizace mohou zapojit do nové formy závodů ve zbrojení, aby vytvořily a získaly kontrolu nad těmito účinnými systémy. Zdůrazňuje, jak důležité je mít při vývoji AGI zavedené silné bezpečnostní mechanismy k ochraně před sabotáží, špionáží a nelegálním přístupem.

Další velkou překážkou je technologická obtížnost správy systémů AGI. Tyto systémy se blíží lidské inteligenci a dokonce ji převyšují. Proto se musíme ujistit, že jejich činy jsou výhodné a v souladu s lidskými ideály. A to je nepochybně náročné právě teď. „Problém kontroly“, který souvisí s vytvářením systémů AGI, které mohou být důsledně řízeny a kontrolovány lidskými operátory, je tématem, které Aschenbrenner pokrývá. To znamená vytvořit opatření zabezpečená proti selhání, být otevřený a upřímný ohledně rozhodovacích postupů a mít pravomoc přehlasovat nebo zastavit systém podle potřeby.

Leopold Aschenbrenner, býv OpenAI člen, zkoumá pokroky AI a potenciální cestu AGI, zkoumá vědecké, morální a strategické otázky a upozorňuje na potenciální i potenciální rizika.

Fotografie: Situační uvědomění

Etické a kulturní důsledky produkování bytostí s intelektem srovnatelným nebo vyšším než lidé jsou hluboce zvednuty rozvojem umělé obecné inteligence (AGI). Dalšími obavami jsou práva systémů umělé inteligence, dopad na pracovní místa a ekonomiku a možnost eskalace již existujících nespravedlností. Aby bylo možné plně řešit tyto složité výzvy, Leopold obhajuje zapojení zúčastněných stran do procesu vývoje AI.

Možnost neočekávaných důsledků – kdy by systémy umělé inteligence mohly sledovat své cíle způsoby, které jsou škodlivé nebo jsou v rozporu s lidskými záměry – je dalším problémem, kterému se autor věnuje. Situace, kdy AGI nesprávně interpretuje své cíle nebo maximalizuje pro cíle neočekávaným a škodlivým způsobem, jsou dva příklady. Aschenbrenner zdůrazňuje, jak zásadní je důkladné testování, ověřování a sledování systémů AGI.

Hovoří také o tom, jak důležitá je mezinárodní spolupráce a správa věcí veřejných. Vzhledem k tomu, že výzkum umělé inteligence je mezinárodním úsilím, žádná země ani instituce nemůže sama efektivně řešit problémy, které AGI přináší.

Příchod vládou vedeného projektu AGI (2027/2028)

Aschenbrenner věří, že s pokrokem umělé obecné inteligence (AGI) budou mít národní bezpečnostní agentury – zejména ty v USA – větší roli při vytváření a správě těchto technologií.

Leopold srovnává strategický význam umělé obecné inteligence (AGI) s minulými technickými úspěchy, jako je atomová bomba a průzkum vesmíru. Národní bezpečnostní služby by měly upřednostňovat rozvoj AGI jako věc národního zájmu, protože potenciální výhody získání AGI jako první by mohly poskytnout obrovský geopolitický vliv. Podle něj to povede k vytvoření projektu AGI pod vládní kontrolou, který bude rozsahem a aspiracemi srovnatelný s Program Apollo nebo Projekt Manhattan.

Navrhovaný projekt AGI by byl umístěn na bezpečném, tajném místě a může zahrnovat korporace ze soukromého sektoru, vládní agentury a významné akademické instituce spolupracující společně. Aby bylo možné řešit složité problémy vývoje AGI, Aschenbrenner nastiňuje nutnost multidisciplinární strategie, která spojuje specialisty na kybernetickou bezpečnost, etiku, výzkum AI a další vědecké oblasti.

Cílem projektu by bylo kromě jeho rozvoje zajistit, aby AGI bylo v souladu s lidskými hodnotami a zájmy. Leopold zdůrazňuje, jak zásadní je mít přísné testovací a validační postupy, aby bylo zaručeno, že systémy AGI fungují bezpečným a předvídatelným způsobem. 

Velký prostor věnuje autor možným dopadům tohoto druhu snažení na dynamiku globální moci. Podle Aschenbrennera, pokud bude AGI úspěšně vyvinut, může se poměr sil změnit a dominantní země bude mít značné výhody z hlediska technologie, ekonomiky a vojenské síly.

Za účelem kontroly rizik souvisejících s AGI se autor zabývá také možností mezinárodní spolupráce a vytvářením globálních rámců vládnutí. Aby mohl dohlížet na růst AGI, podporovat otevřenost a zaručit spravedlivé sdílení výhod AGI, je Leopold zastáncem ustavení mezinárodních dohod a regulačních agentur.

Závěrečné myšlenky Leopolda Aschenbrennera

Aschenbrenner zdůrazňuje významné důsledky AGI a superinteligence pro budoucnost lidstva, když shrnuje objevy a předpovědi obsažené v předchozích kapitolách. Zúčastněné strany jsou vyzývány, aby podnikly požadované kroky, aby se připravily na revoluční účinky sofistikované umělé inteligence.

Aschenbrenner začíná poukazem na to, že prognózy uvedené v tomto dokumentu jsou hypotetické. Základní vzorce růstu umělé inteligence naznačují, že nástup AGI a superinteligence je v příštích několika desetiletích proveditelný, i když časový harmonogram a přesný vývoj nejsou známy. Leopold zdůrazňuje, že je důležité pečlivě zvážit tyto možnosti a být připraven na různé možnosti.

Hlavním tématem této kapitoly je potřeba proaktivní přípravy a promyšlenosti. Podle Aschenbrennera je vzhledem k rychlosti, jakou se AI vyvíjí, málo prostoru pro sebeuspokojení. Pro tvůrce politik, výzkumné pracovníky a vedoucí pracovníky je nezbytně nutné, aby předvídali a proaktivně řešili obtíže a možnosti, které představuje umělá inteligence (AGI) a superinteligence. Například financování výzkumu bezpečnosti umělé inteligence, vytváření silných struktur řízení a podpora globální spolupráce.

Leopold také uvažuje o morálních a kulturních důsledcích umělé inteligence. Zásadní problémy týkající se povahy vědomí, inteligence a práv entit umělé inteligence přináší vznik systémů s inteligencí srovnatelnou nebo vyšší než je inteligence lidí. Aschenbrenner vyzývá etické odborníky, filozofy a širokou veřejnost, aby se zapojili do široké a inkluzivní konverzace s cílem vyřešit tyto problémy a vytvořit společné chápání budoucnosti AI.

Možnost, že by AGI zhoršila již existující sociální a ekonomické rozdíly, je významným dalším tématem diskuse. Leopold varuje, že pokud AGI není pečlivě řízeno, jeho výhody se mohou soustředit v rukou malého počtu lidí, což způsobí společenskou nespokojenost a větší nerovnost.

Při uzavírání této kapitoly vydává výzvu pro globální spolupráci. Jedna země nemůže zvládnout výhody a potíže související s AGI kvůli globální povaze vývoje AI. Aschenbrenner vyzývá státy, aby spolupracovaly s cílem vytvořit mezinárodní dohody a úmluvy, které podporují rozvoj AGI způsobem, který je etický a bezpečný. To znamená výměnu informací, organizování studií a vytváření systémů pro řešení případných sporů a zajištění mezinárodní bezpečnosti.

Odmítnutí odpovědnosti

V souladu s Pokyny k projektu Trust, prosím vezměte na vědomí, že informace uvedené na této stránce nejsou určeny a neměly by být vykládány jako právní, daňové, investiční, finanční nebo jakékoli jiné formy poradenství. Je důležité investovat jen to, co si můžete dovolit ztratit, a v případě pochybností vyhledat nezávislé finanční poradenství. Pro další informace doporučujeme nahlédnout do smluvních podmínek a také na stránky nápovědy a podpory poskytnuté vydavatelem nebo inzerentem. MetaversePost se zavázala poskytovat přesné a nezaujaté zprávy, ale podmínky na trhu se mohou bez upozornění změnit.

O autorovi

Viktoriia je spisovatelkou o různých technologických tématech, včetně Web30, AI a kryptoměny. Její rozsáhlé zkušenosti jí umožňují psát zajímavé články pro širší publikum.

Další články
Viktorie Palčiková
Viktorie Palčiková

Viktoriia je spisovatelkou o různých technologických tématech, včetně Web30, AI a kryptoměny. Její rozsáhlé zkušenosti jí umožňují psát zajímavé články pro širší publikum.

Hot Stories

Karak Network představuje nativní restaking pro token MKR

by Alisa Davidsonová
Července 24, 2024

Vrstva 2 a AI: DFG's Focus in Crypto Landscape

by Viktorie Palčiková
Července 23, 2024
Připojte se k našemu zpravodaji.
Novinky

Karak Network představuje nativní restaking pro token MKR

by Alisa Davidsonová
Července 24, 2024

Od zvlnění k velké zelené DAO: Jak kryptoměnové projekty přispívají k charitě

Pojďme prozkoumat iniciativy využívající potenciál digitálních měn pro charitativní účely.

Vědět více

AlphaFold 3, Med-Gemini a další: The Way AI Transforms Healthcare in 2024

Umělá inteligence se ve zdravotnictví projevuje různými způsoby, od odhalování nových genetických korelací až po posílení robotických chirurgických systémů...

Vědět více
Připojte se k naší komunitě inovativních technologií
Více
Více informací
Karak Network představuje nativní restaking pro token MKR
Novinky Technika
Karak Network představuje nativní restaking pro token MKR
Července 24, 2024
Etické obchodování v turbulentních časech: odhalení přístupu Kairon Labs
Rozhovor businessu Trhy Vývoj Technika
Etické obchodování v turbulentních časech: odhalení přístupu Kairon Labs
Července 23, 2024
Komunita na prvním místě: Recept Satoshi Universe na úspěch při hraní blockchainu
Rozhovor businessu Životní styl Trhy Vývoj Technika
Komunita na prvním místě: Recept Satoshi Universe na úspěch při hraní blockchainu
Července 23, 2024
Vrstva 2 a AI: DFG's Focus in Crypto Landscape
Rozhovor businessu Trhy Vývoj Technika
Vrstva 2 a AI: DFG's Focus in Crypto Landscape
Července 23, 2024
CRYPTOMERIA LABS PTE. LTD.