Osobní značka Přítomnost | 7 / 10 |
Autorita | 6 / 10 |
Odbornost | 8 / 10 |
Vliv | 5 / 10 |
Celkové hodnocení | 6 / 10 |
Nejznámější příspěvek k popularizaci pojmů kolem užitečné umělá inteligence je hypotéza, že pro AI nemusí existovat „požární poplach“. Eliezer S. Yudkowsky je americký výzkumník umělé inteligence a autor knih o teorii rozhodování a etice. Založil Machine Intelligence Research Institute (MIRI), neziskovou soukromou výzkumnou organizaci se sídlem v Berkeley v Kalifornii, kde působí jako výzkumný pracovník. Kniha Superintelligence: Paths, Dangers, Strategies z roku 2014 od filozofa Nicka Bostroma byla informována jeho výzkumem o možnosti exploze inteligence na útěku.
V roce 2023 se Yudkowsky zabýval nebezpečím umělé inteligence pro časopis Time. Navrhl opatření ke snížení tohoto rizika, jako je „zničení nečestného datového centra náletem“ nebo úplné zastavení výzkumu a vývoje AI. Reportér se zeptal prezidenta Joea Bidena na bezpečnost AI během tiskové konference po přečtení příběhu, což přispělo k popularizaci diskuse o přizpůsobení AI.
Zveřejnění prostřednictvím podání 13F odhaluje, že pozoruhodní institucionální investoři fušují do bitcoinových ETF, což podtrhuje rostoucí akceptaci...
Vědět víceChangpeng Zhao je dnes připraven čelit rozsudku u amerického soudu v Seattlu.
Vědět více