Odborníci na AI obhajují potřebu zvýšených investic do bezpečnosti AI ze strany vlád a podniků
Stručně
Skupina výzkumníků umělé inteligence vydala společný dopis, v němž vyzvala společnosti a vlády zabývající se umělou inteligencí, aby přidělily více finančních prostředků na upřednostnění bezpečného a etického používání systémů umělé inteligence.
Odborníci vyjadřují obavy z rychlého pokroku technologie AI a jejího potenciálu zhoršovat sociální nespravedlnost, destabilizovat společnost a představovat globální bezpečnostní hrozby.
Přední výzkumníci AI, včetně vítězů Turingovy ceny a laureátů Nobelovy ceny, naléhají na společnosti a vlády zabývající se umělou inteligencí, aby vyčlenily minimálně jednu třetinu svých finančních prostředků na výzkum a vývoj AI na zajištění bezpečného a etického používání systémů AI.
V společný dopis odborníci zveřejnění těsně před mezinárodním summitem o AI Safety Summit v Londýně nastínili opatření k řešení rizik souvisejících s AI. Zasazují se také o to, aby vlády právně vedly společnosti k odpovědnosti za předvídatelné škody způsobené jejich pokročilými systémy umělé inteligence.
„Systémy umělé inteligence by mohly rychle překonat lidi ve stále větším počtu úkolů... Hrozí, že zesílí sociální nespravedlnost, naruší sociální stabilitu a oslabí naše sdílené chápání reality, která je pro společnost základem,“ uvedli prominentní osobnosti na poli umělé inteligence, jako např. Geoffrey Hinton, Andrew Yao, Daniel Kahneman, Dawn Song a Yuval Noah Harari, napsali v dopise.
„Mohli by také umožnit rozsáhlé kriminální nebo teroristické aktivity. Zejména v rukou několika mocných aktérů by umělá inteligence mohla upevnit nebo prohloubit globální nerovnosti nebo usnadnit automatizované válčení, přizpůsobenou masovou manipulaci a všudypřítomný dohled.“
Bezpečný a etický vývoj umělé inteligence vyžaduje naléhavá opatření
Naléhavost tohoto důvodu vyplývá z přesvědčení, že současné předpisy dostatečně neřeší rychlý pokrok technologie AI.
Při vývoji AI odborníci uznávají naléhavou potřebu čelit složitým výzvám. Argumentují tím, že pouhé posílení schopností umělé inteligence nedosáhne cíle. Tyto výzvy zahrnují dohled a poctivost, kdy pokročilá umělá inteligence může využívat zranitelnosti testování, stejně jako problémy související s robustností, interpretovatelností, hodnocením rizik a novými výzvami.
Budoucí systémy umělé inteligence mohou vykazovat neočekávané způsoby selhání, což podtrhuje význam velkých technologických společností a veřejných financujících pracovníků, kteří přidělují významnou část svého rozpočtu na výzkum a vývoj umělé inteligence na upřednostňování bezpečnosti a etiky spolu se zlepšováním schopností umělé inteligence.
Podle dopisu může absence řízení AI svádět společnosti a státy k tomu, aby upřednostňovaly schopnosti před bezpečností nebo delegovaly důležité společenské funkce na systémy AI s omezeným lidským dohledem.
Pro účinnou regulaci vlády naléhavě potřebují komplexní pohled na vývoj AI. Kromě toho jsou pro vysoce výkonné systémy umělé inteligence nezbytná další opatření, včetně licencování jejich vývoje, dočasných zastavení v reakci na související schopnosti, kontroly přístupu a robustní zabezpečení informací.
Navzdory určitým obavám společností AI ohledně nákladů na dodržování předpisů a rizik souvisejících s odpovědností zastánci tvrdí, že pro zmírnění potenciálních rizik spojených s nekontrolovaným vývojem AI jsou nezbytné robustní předpisy.
„AI může být technologií, která utváří toto století. Zatímco schopnosti umělé inteligence se rychle rozvíjejí, pokrok v oblasti bezpečnosti a řízení zaostává. Abychom umělou inteligenci nasměrovali k pozitivním výsledkům a odvrátili se od katastrofy, musíme se přeorientovat. Existuje zodpovědná cesta, pokud máme moudrost se po ní vydat,“ uzavřel dopis.
Čtěte více:
- Co tech lídři hledají v umělé inteligenci? Techničtí vizionáři sdílejí statistiky
- OpenAI: Umělá inteligence by mohla lidem potenciálně ublížit, ale pokusit se zastavit pokrok není řešením
- Podle Sequoia AI přechází k operačním systémům
- Nositel Nobelovy ceny Paul Krugman říká, že krypto boom vypadá jako bublina na trhu s nemovitostmi
Odmítnutí odpovědnosti
V souladu s Pokyny k projektu Trust, prosím vezměte na vědomí, že informace uvedené na této stránce nejsou určeny a neměly by být vykládány jako právní, daňové, investiční, finanční nebo jakékoli jiné formy poradenství. Je důležité investovat jen to, co si můžete dovolit ztratit, a v případě pochybností vyhledat nezávislé finanční poradenství. Pro další informace doporučujeme nahlédnout do smluvních podmínek a také na stránky nápovědy a podpory poskytnuté vydavatelem nebo inzerentem. MetaversePost se zavázala poskytovat přesné a nezaujaté zprávy, ale podmínky na trhu se mohou bez upozornění změnit.
O autorovi
Agne je novinářka, která se zabývá nejnovějšími trendy a vývojem v metaverse, AI a Web3 průmysl pro Metaverse Post. Její vášeň pro vyprávění ji přivedla k četným rozhovorům s odborníky v těchto oblastech, ve kterých se vždy snažila odhalit vzrušující a poutavé příběhy. Agne má bakalářský titul z literatury a má rozsáhlé zkušenosti s psaním o široké škále témat, včetně cestování, umění a kultury. Přihlásila se také jako redaktorka do organizace pro práva zvířat, kde pomáhala zvyšovat povědomí o otázkách dobrých životních podmínek zvířat. Kontaktujte ji [chráněno e-mailem].
Další články
Agne je novinářka, která se zabývá nejnovějšími trendy a vývojem v metaverse, AI a Web3 průmysl pro Metaverse Post. Její vášeň pro vyprávění ji přivedla k četným rozhovorům s odborníky v těchto oblastech, ve kterých se vždy snažila odhalit vzrušující a poutavé příběhy. Agne má bakalářský titul z literatury a má rozsáhlé zkušenosti s psaním o široké škále témat, včetně cestování, umění a kultury. Přihlásila se také jako redaktorka do organizace pro práva zvířat, kde pomáhala zvyšovat povědomí o otázkách dobrých životních podmínek zvířat. Kontaktujte ji [chráněno e-mailem].