AI Wiki Technika
18

Top 10 AI a ChatGPT Rizika a nebezpečí v roce 2023

S pokrokem umělé inteligence (AI) a technologie chatbotů stále více společností využívá automatizovaná řešení zákaznických služeb jako prostředek ke zlepšení zákaznické zkušenosti a snížení režijních nákladů. I když využití modelů umělé inteligence a řešení chatbotů přináší mnoho výhod, s touto technologií jsou spojena také různá rizika a nebezpečí, zejména když se v nadcházejícím desetiletí stanou pronikavějšími a integrovanějšími do našeho každodenního života.

Tento týden všichni v americkém Senátu poslouchali, jak Sam Altman mluví o regulaci a rizicích modelů umělé inteligence. Zde je základní přehled:

Biologické zbraně

Biologické zbraně
@Midjourney

Využití umělé inteligence (AI) ve vývoji biologických zbraní představuje nebezpečně metodický a účinný způsob vytváření silných a smrtících zbraní hromadného ničení. ChatGPT roboty jsou konverzační asistenti řízení umělou inteligencí, kteří jsou schopni vést živé rozhovory s lidmi. Starost s ChatGPT botů spočívá v tom, že mají potenciál být použity k šíření nepravdivých informací a manipulovat s myslí za účelem ovlivnění veřejný názor.

Varoval jsem před možným zneužitím umělé inteligence při vytváření biologických zbraní a zdůraznil potřebu regulace, která by takovým scénářům zabránila.

Sam Altman

Regulace je klíčovou součástí prevence zneužívání AI a ChatGPT robotů při vývoji a nasazení biologických zbraní. Vlády musí vypracovat národní akční plány pro řešení potenciálního zneužití technologie a společnosti by měly nést odpovědnost za jakékoli potenciální zneužití jejich technologie. AI a ChatGPT roboty. Mezinárodní organizace by měly investovat do iniciativ, které se zaměřují na školení, monitorování a vzdělávání AI a ChatGPT bots.

Ztráta zaměstnání

Ztráta zaměstnání
@Midjourney

Potenciál ztráty zaměstnání v důsledku AI a ChatGPT v roce 2023 se předpokládá, že to bude třikrát více, než tomu bylo v roce 2020. AI a ChatGPT může vést ke zvýšené nejistotě na pracovišti, k etickým úvahám a psychologickému dopadu na pracovníky. AI a ChatGPT lze použít k monitorování chování a aktivit zaměstnanců, což umožňuje zaměstnavatelům činit rozhodnutí rychle a bez nutnosti zapojení lidského personálu. Kromě toho AI a ChatGPT může způsobit nespravedlivá a zaujatá rozhodnutí, která mohou vést k finanční, sociální a emocionální nejistotě na pracovišti.

Zdůraznil jsem, že rozvoj umělé inteligence by mohl vést ke značné ztrátě pracovních míst a zvýšení nerovnosti.

Sam Altman

Nařízení AI

Nařízení AI
@Midjourney

Tento článek zkoumá potenciální rizika a nebezpečí kolem AI a ChatGPT regulace v roce 2023. AI a ChatGPT techniky lze použít k provádění potenciálně škodlivých činností, jako je profilování lidí na základě jejich chování a činností. Nedostatek pořádného regulace AI může vést k nezamýšleným důsledkům, jako je porušení údajů nebo diskriminace. Regulace AI může pomoci zmírnit toto riziko stanovením přísných pokynů, které to zajistí ChatGPT systémy nejsou používány škodlivým způsobem. Nakonec AI a ChatGPT by se mohly stát řídícím faktorem v našich životech, ovládat věci, jako je dopravní tok a finanční trhy, a dokonce být použity k ovlivňování našich politických a společenských životů. Aby se zabránilo tomuto druhu nerovnováhy energie, musí být zavedeny přísné předpisy.

Navrhli jsme vytvoření nové agentury pro licencování a regulovat AI činnosti, pokud jejich schopnosti překročí určitou hranici.

Sam Altman

Bezpečnostní standardy

Bezpečnostní standardy
@Midjourney

Technologie AI a chatbotů způsobují pokrok ve způsobu, jakým řídíme svůj každodenní život. Jak se tyto technologie stávají vyspělejšími, mají potenciál stát se autonomními a samostatně se rozhodovat. Chcete-li tomu zabránit, bezpečnostní standardy musí být stanoveno, že tyto modely musí splňovat, než budou moci být nasazeny. Jedním z hlavních bezpečnostních standardů navržených Altmanem v roce 2023 je test sebereplikace, který by zajistil, že model umělé inteligence se nebude moci replikovat bez autorizace. Druhým bezpečnostním standardem navrženým Altmanem v roce 2023 je test pro exfiltraci dat, který by zajistil, že modely umělé inteligence nebudou schopny exfiltrovat data ze systému bez oprávnění. Vlády po celém světě začaly jednat, aby chránily občany před potenciálními riziky.

Musíme implementovat bezpečnostní standardy, které musí modely umělé inteligence splňovat před nasazením, včetně testů vlastní replikace a exfiltrace dat.

Sam Altman

Nezávislé audity

Nezávislé audity
@Midjourney

V roce 2023 je potřeba nezávislých auditů technologií AI a LLM stále důležitější. Umělá inteligence představuje řadu rizik, jako jsou algoritmy strojového učení bez dozoru, které mohou nedobrovolně měnit a dokonce smazat data, a kybernetické útoky se stále více zaměřují na umělou inteligenci a ChatGPT. Modely vytvořené umělou inteligencí obsahují zaujatost, která může vést k diskriminačním praktikám. Nezávislý audit by měl zahrnovat přezkoumání modeluje AI je trénován na, návrh algoritmu a výstup modelu, aby se zajistilo, že nezobrazuje zkreslené kódování nebo výsledky. Kromě toho by audit měl zahrnovat přezkoumání bezpečnostních zásad a postupů používaných k ochraně uživatelská data a zajistit bezpečné prostředí.

Aby bylo zajištěno, že modely umělé inteligence splňují zavedené bezpečnostní standardy, provádějí se nezávislé audity.

Sam Altman

Bez nezávislého auditu jsou podniky a uživatelé vystaveni potenciálně nebezpečný a nákladná rizika, kterým se dalo předejít. Je důležité, aby všechny podniky využívající tuto technologii prošly před nasazením nezávislým auditem, aby se zajistilo, že je technologie bezpečná a etická.

AI jako nástroj

AI jako nástroj
@Midjourney

AI se vyvíjela exponenciálně a pokroky jako GPT-4 vedly k realističtějším a sofistikovanějším interakcím s počítači. Altman však zdůraznil, že AI by měla být vnímána jako nástroje, nikoli vnímající stvoření. GPT-4 je model zpracování přirozeného jazyka, který dokáže generovat obsah téměř k nerozeznání od obsahu psaného lidmi, čímž ubírá část práce autorům a umožňuje uživatelům mít s technologií více lidské zkušenosti.

AI, zejména pokročilé modely jako např GPT-4, by měly být chápány jako nástroje, nikoli cítící bytosti.

Sam Altman

Sam Altman však varuje, že přílišný důraz na AI jako na více než na nástroj může vést k nerealistickým očekáváním a falešným přesvědčením o jejích schopnostech. Poukazuje také na to, že umělá inteligence není bez etických důsledků, a že i když lze pokročilé úrovně umělé inteligence použít k dobrému, stále by se dala použít ke špatnému, což vede k nebezpečnému rasovému profilování. porušování soukromía dokonce i bezpečnostní hrozby. Altman zdůrazňuje, že je důležité pochopit, že umělá inteligence je pouze nástroj a že by měla být vnímána jako nástroj k urychlení lidského pokroku, nikoli k nahrazení lidí.

Vědomí AI

Vědomí AI
@Midjourney

Debata o AI a o tom, zda může dosáhnout vědomého povědomí, roste. Mnoho výzkumníků tvrdí, že stroje nejsou schopny zažívat emocionální, mentální nebo vědomé stavy, navzdory jejich složité výpočetní architektuře. Někteří výzkumníci připouštějí možnost, že AI dosáhne vědomého vědomí. Hlavním argumentem pro tuto možnost je, že AI je postavena na programech, které ji umožňují replikace určité fyzické a duševní procesy nacházející se v lidském mozku. Hlavním protiargumentem však je, že AI nemá žádnou skutečnou emoční inteligenci.

I když by umělá inteligence měla být vnímána jako nástroj, uznávám pokračující debatu ve vědecké komunitě o potenciálním vědomí umělé inteligence.

Sam Altman

Mnoho výzkumníků umělé inteligence souhlasí s tím, že neexistuje žádný vědecký důkaz, který by naznačoval, že umělá inteligence je schopna dosáhnout vědomého uvědomění stejným způsobem, jako to dokáže lidská bytost. Elon Musk, jeden z nejhlasitějších zastánců tohoto pohledu, věří, že schopnost umělé inteligence napodobovat biologické formy života je extrémně omezená a větší důraz by měl být kladen na výuku etických hodnot strojů.

Vojenské aplikace

Vojenské aplikace
@Midjourney

Umělá inteligence ve vojenském kontextu rychle postupuje a má potenciál zlepšit způsob, jakým armády vedou válku. Vědci se obávají, že umělá inteligence v armádě může představovat řadu etických a rizikových problémů, jako je nepředvídatelnost, nevypočitatelnost a nedostatek transparentnosti.

Uvědomuji si potenciál využití umělé inteligence ve vojenských aplikacích, jako jsou autonomní drony, a volám po něm předpisy řídit takové použití.

Sam Altman

Systémy umělé inteligence jsou zranitelné vůči zlomyslným aktérům, kteří by mohli systémy buď přeprogramovat, nebo do nich infiltrovat, což by mohlo vést ke zničujícímu výsledku. K řešení těchto se týkáMezinárodní společenství učinilo první krok v podobě své Mezinárodní úmluvy o některých konvenčních zbraních z roku 1980, která zavádí určité zákazy použití určitých zbraní. Odborníci na umělou inteligenci se zasadili o vytvoření mezinárodního výboru, který by dohlížel na procesy, jako je hodnocení, výcvik a nasazení umělé inteligence ve vojenských aplikacích.

AGI

AGI
@Midjourney

Technologie AI je stále pokročilejší a všudypřítomnější, a proto je důležité porozumět potenciálním rizikům, která představují agenti a systémy AI. Prvním a nejzřejmějším rizikem spojeným s agenty AI je nebezpečí, že stroje přechytračí lidi. Agenti AI mohou snadno překonat své tvůrce tím, že převezmou rozhodování, automatizační procesy a další pokročilé úkoly. Automatizace poháněná umělou inteligencí by navíc mohla zvýšit nerovnost, protože v ní nahrazuje lidi trh práce.

Varuji, že výkonnější a složitější systémy umělé inteligence mohou být blíže realitě, než si mnozí myslí, a zdůrazňoval jsem potřebu připravenosti a preventivních opatření.

Sam Altman

Algoritmy umělé inteligence a jejich použití při komplexním rozhodování vzbuzují obavy z nedostatku transparentnosti. Organizace mohou zmírnit rizika spojena s agenty AI proaktivním zajištěním etického vývoje AI, používáním dat, která jsou v souladu s etickými standardy, a podrobováním algoritmů rutinním testům, aby bylo zajištěno, že nejsou zaujaté a nesou odpovědnost za uživatele a data.

Proč investovat do čističky vzduchu?

Altman také uvedl, že i když možná nebudeme schopni řídit Čínu, musíme s ní vyjednávat. Navrhovaná kritéria pro hodnocení a regulační modely AI zahrnují schopnost syntetizovat biologické vzorky, manipulace s přesvědčením lidí, množství vynaloženého výpočetního výkonu a tak dále.

Významným tématem je, že Sam by měl mít „vztahy“ se státem. Doufáme, že nebudou následovat příklad Evropy, jak jsme již zmínili.

Nejčastější dotazy

Rizika umělé inteligence zahrnují možnost, že systémy umělé inteligence budou vykazovat neobjektivní nebo diskriminační chování, mohou být použity se zlým úmyslem nebo nevhodně nebo selhat způsobem, který způsobí škodu. Vývoj a zavádění technologií umělé inteligence může představovat rizika pro soukromí a zabezpečení dat, stejně jako pro bezpečnost a zabezpečení lidí a systémů.

Pět hlavních rizik spojených s umělou inteligencí jsou: ztráta zaměstnání, Bezpečnostní rizika, Předsudky nebo diskriminace, Biozbraně a AGI.

Nejnebezpečnějším aspektem AI je její potenciál způsobit masovou nezaměstnanost.

Odmítnutí odpovědnosti

V souladu s Pokyny k projektu Trust, prosím vezměte na vědomí, že informace uvedené na této stránce nejsou určeny a neměly by být vykládány jako právní, daňové, investiční, finanční nebo jakékoli jiné formy poradenství. Je důležité investovat jen to, co si můžete dovolit ztratit, a v případě pochybností vyhledat nezávislé finanční poradenství. Pro další informace doporučujeme nahlédnout do smluvních podmínek a také na stránky nápovědy a podpory poskytnuté vydavatelem nebo inzerentem. MetaversePost se zavázala poskytovat přesné a nezaujaté zprávy, ale podmínky na trhu se mohou bez upozornění změnit.

O autorovi

Damir je vedoucí týmu, produktový manažer a editor ve společnosti Metaverse Post, pokrývající témata jako AI/ML, AGI, LLM, Metaverse a Web3- související obory. Jeho články přitahují každý měsíc masivní publikum čítající více než milion uživatelů. Jeví se jako odborník s 10 lety zkušeností v oblasti SEO a digitálního marketingu. Damir byl zmíněn v Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto a další publikace. Jako digitální nomád cestuje mezi SAE, Tureckem, Ruskem a SNS. Damir získal bakalářský titul z fyziky, o kterém se domnívá, že mu dal dovednosti kritického myšlení potřebné k úspěchu v neustále se měnícím prostředí internetu. 

Další články
Damir Yalalov
Damir Yalalov

Damir je vedoucí týmu, produktový manažer a editor ve společnosti Metaverse Post, pokrývající témata jako AI/ML, AGI, LLM, Metaverse a Web3- související obory. Jeho články přitahují každý měsíc masivní publikum čítající více než milion uživatelů. Jeví se jako odborník s 10 lety zkušeností v oblasti SEO a digitálního marketingu. Damir byl zmíněn v Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto a další publikace. Jako digitální nomád cestuje mezi SAE, Tureckem, Ruskem a SNS. Damir získal bakalářský titul z fyziky, o kterém se domnívá, že mu dal dovednosti kritického myšlení potřebné k úspěchu v neustále se měnícím prostředí internetu. 

Institucionální apetit roste směrem k bitcoinovým ETF uprostřed volatility

Zveřejnění prostřednictvím podání 13F odhaluje, že pozoruhodní institucionální investoři fušují do bitcoinových ETF, což podtrhuje rostoucí akceptaci...

Vědět více

Přichází den odsouzení: Osud CZ visí v rovnováze, protože americký soud zvažuje žalobu ministerstva spravedlnosti

Changpeng Zhao je dnes připraven čelit rozsudku u amerického soudu v Seattlu.

Vědět více
Připojte se k naší komunitě inovativních technologií
Více
Dozvědět se více
Injective spojuje síly s AltLayer, aby přineslo zabezpečení při opětovném skládání do inEVM
Business Novinky Technika
Injective spojuje síly s AltLayer, aby přineslo zabezpečení při opětovném skládání do inEVM
3
Masa se spojila s Tellerem, aby zavedla MASA Půjčovací fond, umožní USDC půjčování na základně
Trhy Novinky Technika
Masa se spojila s Tellerem, aby zavedla MASA Půjčovací fond, umožní USDC půjčování na základně
3
Velodrome spouští v nadcházejících týdnech beta verzi Superchain a rozšiřuje se o blockchainy OP Stack Layer 2
Trhy Novinky Technika
Velodrome spouští v nadcházejících týdnech beta verzi Superchain a rozšiřuje se o blockchainy OP Stack Layer 2
3
CARV oznamuje partnerství se společností Aethir za účelem decentralizace její datové vrstvy a distribuce odměn
Business Novinky Technika
CARV oznamuje partnerství se společností Aethir za účelem decentralizace její datové vrstvy a distribuce odměn
3
CRYPTOMERIA LABS PTE. LTD.