Novinky SMW Technika
17

OpenAIAltman v americkém Senátu, aby diskutoval o rizicích umělé inteligence

Stručně

Sam Altman hovořil v americkém Senátu o rizicích a regulaci AI a podpořil spolupráci se státem při vzdělávání politiků a rozvíjení nápadů, jak by měla být AI regulována.

EU a USA to mají jinak přístupy k regulaci AI, přičemž EU se více zajímá o bezpečnost a USA se více zajímají o ekonomiku.

Sam Altman, generální ředitel společnosti OpenAI, oslovil Senát Spojených států, aby projednal rizika a předpisy spojené s umělou inteligencí (AI). Během diskuse Altman vyjádřil své myšlenky o budoucnosti umělé inteligence a jejích potenciálních důsledcích. V Senátu se k němu připojila řada odborníků, kteří byli rovněž vyzváni, aby nabídli svůj pohled na dané téma.

OpenAIAltman v americkém Senátu, aby diskutoval o rizicích umělé inteligence
OpenAI Generální ředitel Sam Altman svědčí během slyšení v Senátu o dohledu nad umělou inteligencí — 05

Altman ve svém projevu zdůraznil debaty o využití AI jako potenciální riziko pro lidstvo a uznal potřebu pečlivé regulace. Poté navrhl OpenAIvize budoucnosti AI a souvisejících rizik, jak je nastíněno v nedávno zveřejněném textu „Plánování pro AGI a další“.

Text vyzývá ke globální spolupráci mezi hlavními hráči AI, transparentnímu ověřování pro všechny vydané modely a lepší spolupráci mezi průmyslem a vládami. To naznačuje, že Altman a OpenAI berou vážně potenciální rizika AI a jsou odhodláni nacházet správná řešení, jak se s nimi vypořádat.

Diskuse v Senátu dále zdůrazňuje důležitost řešení rizik spojených s AI a nutnost globálního sdílení znalostí a strategií, jak je snížit. OpenAINávrh spolupráce, transparentnosti a řádné regulace poskytuje jedinečnou příležitost vybudovat bezpečnou a odpovědnou budoucnost umělé inteligence.

Sam Altman, spoluzakladatel OpenAI a prezident Y Combinator, navštívil americký Senát, aby diskutoval o rizicích umělé inteligence (AI) a OpenAIpříspěvek do veřejné diskuse.

Přednáška zdůraznila rizika používání systémů umělé inteligence a také povinnosti, které řídí používání technologií souvisejících s umělou inteligencí. Diskuse se zaměřila na OpenAIna práci hluboké učení a potenciální aplikace umělé inteligence v oblastech, jako je drogová toxikologie a autonomní vozidla. Altman představil OpenAIpříspěvky k hlubokému učení a jeho různé iniciativy s univerzitami a výzkumných institucí.

Altman dále diskutoval o důležitosti zásad a předpisů pro zajištění odpovědnosti při jednání s AI. Varoval, že je nutné urychleně použít předpisy, aby AI nezpůsobila lidstvu nepředvídatelné škody. Ačkoli Senát doufal, že získá přehled o tom, jak AI rizika lze zmírnitAltman objasnil, že kvůli rychlému tempu technologie je třeba navrhnout přesné a přísné předpisy, aby se zmírnil jakýkoli potenciální problém.

Altmanův projev rezonoval s nedávným představením AI Act v Evropě. Tato legislativa navrhuje uvalit nařízení na všechny modely umělé inteligence používané v EU a mnoho odborníků se vyjádřilo, že schválení tohoto zákona by negativně bránilo iniciativám s otevřeným zdrojovým kódem v rámci EU a bránilo by používání produktů souvisejících s umělou inteligencí. Altman tomuto názoru odporuje a uvádí, že tato událost je dalším příkladem, který ukazuje, proč je důležitá pro společnosti jako např OpenAI zapojit se do veřejného dialogu s politiky a pomoci jim pochopit důsledky jejich rozhodnutí.

Altman zdůraznil, jak AI rychle postupuje a vytváří příležitosti i rizika. Vysvětlil, jak může být umělá inteligence, je-li používána zodpovědně a opatrně, využívána ve prospěch společnosti mnoha způsoby. Umělá inteligence by například mohla pomoci automatizovat všední úkoly a umožnit lidem pracovat kreativnějším a smysluplnějším způsobem. Poznamenal také, jak by jej mohly společnosti využít k personalizaci služeb a lepšímu naplňování potřeb zákazníků.

Altman zároveň varoval před některými možnými riziky AI, jako je potenciál AI neúmyslně vytvářet zaujaté procesy proti určitým skupinám nebo mít nezamýšlené důsledky. Poznamenal také, že regulace je nezbytná k zajištění odpovědného a bezpečného vývoje umělé inteligence. Například navrhl, aby organizace vyvíjely řešení s otevřeným zdrojovým kódem k zajištění kontroly a odpovědnosti, spíše než aby umožňovaly společnostem vyvíjet a řídit svá vlastní proprietární řešení, která postrádají transparentnost.

Altmanovy návrhy přicházejí v obzvláště důležité době, kdy mnoho organizací a vlád zvažuje, jak na to regulovat vývoj AI. Potenciál AI pro oba výhody a poškození společnost znamená, že je zapotřebí promyšlený a dobře informovaný přístup k regulaci umělé inteligence. Altmanovy postřehy nám poskytují důležitý pohled na to, jak by mohla být umělá inteligence pečlivě vyvíjena a řízena etickým a odpovědným způsobem. Jeho vystoupení před Senátem bylo zásadním krokem správným směrem k zajištění bezpečné a odpovědné cesty vpřed pro vývoj a používání AI.

Altman zahájil své svědectví poznámkou, jak rychle inteligentní stroje mohou rychle zlepšit svůj výkon. Připomněl Senátu, jak herní AI AlphaGo pokročilo od porážení profesionálních hráčů v roce 2016 až po současnost porážení nejlepších strojů na světě. Tento pokrok „je příkladem toho, jak rychle se může umělá inteligence zlepšit,“ řekl Altman.

Pokračoval, aby varoval Senát před tím potenciální nebezpečí dát AI příliš mnoho síly příliš brzy. "Zatím neumíme ovládat AI a neměli bychom jí dávat příliš mnoho energie," řekl Altman. Zmínil pojem „algoritmické zkreslení“ a jak se umělá inteligence může naučit chybné datové sady nebo předsudky svých lidských tvůrců. „Musíme zajistit, aby umělá inteligence byla vytvořena s důrazem na spravedlnost a bezpečnost,“ poznamenal Altman.

Generální ředitel pokračoval v diskusi o potenciálních předpisech pro aplikace AI. Poznamenal, že jakýkoli pokus o to se musí chránit před „doháněním technologie“. Místo toho musí být vláda aktivní defia prováděcích předpisů. Poukázal také na to, jak OpenAI se obrací na CFOA (Congresal FinTech Association) o radu v těchto záležitostech.

Nakonec Altman diskutoval o sociálním dopadu umělé inteligence. Vyjádřil optimismus ohledně jeho potenciálu učinit svět lepším místem. Poznamenal úžasné způsoby, jak může umělá inteligence pomoci podnikům, zdravotnictví a dalším sektorům. Připomněl Senátu, že je třeba přijmout zodpovědná opatření, aby bylo zajištěno, že umělá inteligence bude využívána pro dobro, nikoli pro zlo.

Přečtěte si více o AI:

Odmítnutí odpovědnosti

V souladu s Pokyny k projektu Trust, prosím vezměte na vědomí, že informace uvedené na této stránce nejsou určeny a neměly by být vykládány jako právní, daňové, investiční, finanční nebo jakékoli jiné formy poradenství. Je důležité investovat jen to, co si můžete dovolit ztratit, a v případě pochybností vyhledat nezávislé finanční poradenství. Pro další informace doporučujeme nahlédnout do smluvních podmínek a také na stránky nápovědy a podpory poskytnuté vydavatelem nebo inzerentem. MetaversePost se zavázala poskytovat přesné a nezaujaté zprávy, ale podmínky na trhu se mohou bez upozornění změnit.

O autorovi

Damir je vedoucí týmu, produktový manažer a editor ve společnosti Metaverse Post, pokrývající témata jako AI/ML, AGI, LLM, Metaverse a Web3- související obory. Jeho články přitahují každý měsíc masivní publikum čítající více než milion uživatelů. Jeví se jako odborník s 10 lety zkušeností v oblasti SEO a digitálního marketingu. Damir byl zmíněn v Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto a další publikace. Jako digitální nomád cestuje mezi SAE, Tureckem, Ruskem a SNS. Damir získal bakalářský titul z fyziky, o kterém se domnívá, že mu dal dovednosti kritického myšlení potřebné k úspěchu v neustále se měnícím prostředí internetu. 

Další články
Damir Yalalov
Damir Yalalov

Damir je vedoucí týmu, produktový manažer a editor ve společnosti Metaverse Post, pokrývající témata jako AI/ML, AGI, LLM, Metaverse a Web3- související obory. Jeho články přitahují každý měsíc masivní publikum čítající více než milion uživatelů. Jeví se jako odborník s 10 lety zkušeností v oblasti SEO a digitálního marketingu. Damir byl zmíněn v Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto a další publikace. Jako digitální nomád cestuje mezi SAE, Tureckem, Ruskem a SNS. Damir získal bakalářský titul z fyziky, o kterém se domnívá, že mu dal dovednosti kritického myšlení potřebné k úspěchu v neustále se měnícím prostředí internetu. 

Hot Stories
Připojte se k našemu zpravodaji.
Novinky

Od zvlnění k velké zelené DAO: Jak kryptoměnové projekty přispívají k charitě

Pojďme prozkoumat iniciativy využívající potenciál digitálních měn pro charitativní účely.

Vědět více

AlphaFold 3, Med-Gemini a další: The Way AI Transforms Healthcare in 2024

Umělá inteligence se ve zdravotnictví projevuje různými způsoby, od odhalování nových genetických korelací až po posílení robotických chirurgických systémů...

Vědět více
Připojte se k naší komunitě inovativních technologií
Více
Dozvědět se více
Laniakea se připravuje na nasazení na Monad a spuštění nové testovací verze, odhaluje Discord 'Lala-Nads' Role Giveaway
Novinky Technika
Laniakea se připravuje na nasazení na Monad a spuštění nové testovací verze, odhaluje Discord 'Lala-Nads' Role Giveaway
Června 14, 2024
Nejlepší investiční nabídky v AI, Web3a Crypto: Intelion, Nexus, Zyfi, NEAR Foundation a Binance Labs vedou týden
Strávit Nejlepší seznamy Business Životní styl Trhy Vývoj Technika
Nejlepší investiční nabídky v AI, Web3a Crypto: Intelion, Nexus, Zyfi, NEAR Foundation a Binance Labs vedou týden
Června 14, 2024
Manta CeDeFi Integruje se s Ethena Labs a nabízí zvýšený počet Ethena bodů pro vytyčování
Novinky Technika
Manta CeDeFi Integruje se s Ethena Labs a nabízí zvýšený počet Ethena bodů pro vytyčování
Června 14, 2024
QCP Capital: Bitcoin se snaží zotavit po zasedání FOMC a těžaři po snížení výprodejových limitů na polovinu
Trhy Novinky
QCP Capital: Bitcoin se snaží zotavit po zasedání FOMC a těžaři po snížení výprodejových limitů na polovinu
Června 14, 2024
CRYPTOMERIA LABS PTE. LTD.