AI Wiki Technológia
Môže 18, 2023

Top 10 AI a ChatGPT Riziká a nebezpečenstvá v roku 2023

S pokrokom v oblasti umelej inteligencie (AI) a technológie chatbotov čoraz viac spoločností využíva automatizované riešenia služieb zákazníkom ako prostriedok na zlepšenie ich zákazníckej skúsenosti a zníženie režijných nákladov. Aj keď využívanie modelov umelej inteligencie a riešení chatbotov prináša mnoho výhod, s touto technológiou sú spojené aj rôzne riziká a nebezpečenstvá, najmä keď sa v nadchádzajúcom desaťročí stanú všadeprítomnejšími a integrovanejšími do nášho každodenného života.

Tento týždeň každý v americkom Senáte počúval Sama Altmana, ktorý hovoril o regulácii a rizikách modelov AI. Tu je základný prehľad:

Biologické zbrane

Biologické zbrane
@Midjourney

Používanie umelej inteligencie (AI) vo vývoji biologických zbraní predstavuje nebezpečne metodický a účinný spôsob vytvárania silných a smrtiacich zbraní hromadného ničenia. ChatGPT roboty sú konverzační asistenti riadení AI, ktorí sú schopní viesť živé rozhovory s ľuďmi. Obavy s ChatGPT robotov je, že majú potenciál byť použité na šírenie nepravdivých informácií a manipuláciu mysle s cieľom ovplyvniť verejný názor.

Varoval som pred možným zneužitím AI pri vytváraní biologických zbraní a zdôraznil potrebu regulácie na predchádzanie takýmto scenárom.

Sam Altman

Regulácia je kľúčovým prvkom na predchádzanie zneužívaniu AI a ChatGPT robotov pri vývoji a nasadzovaní biologických zbraní. Vlády musia vypracovať národné akčné plány na riešenie potenciálneho zneužitia technológie a spoločnosti by mali niesť zodpovednosť za akékoľvek potenciálne zneužitie ich technológie. AI a ChatGPT roboty. Medzinárodné organizácie by mali investovať do iniciatív, ktoré sa zameriavajú na školenia, monitorovanie a vzdelávanie AI a ChatGPT roboty.

Strata zamestnania

Strata zamestnania
@Midjourney

Potenciál straty zamestnania v dôsledku AI a ChatGPT v roku 2023 sa predpokladá, že to bude trikrát viac ako v roku 2020. AI a ChatGPT môže viesť k zvýšenej neistote na pracovisku, k etickým úvahám a psychologickému vplyvu na pracovníkov. AI a ChatGPT môžu byť použité na monitorovanie správania a aktivít zamestnancov, čo umožňuje zamestnávateľom robiť rozhodnutia rýchlo a bez toho, aby bol potrebný ľudský personál. Okrem toho AI a ChatGPT môže spôsobiť nespravodlivé a zaujaté rozhodnutia, ktoré môžu viesť k finančnej, sociálnej a emocionálnej neistote na pracovisku.

Zdôraznil som, že rozvoj AI by mohol viesť k výrazným stratám pracovných miest a zvýšeniu nerovnosti.

Sam Altman

nariadenia o AI

nariadenia o AI
@Midjourney

Tento článok skúma potenciálne riziká a nebezpečenstvá okolo AI a ChatGPT regulácia v roku 2023. AI a ChatGPT techniky možno použiť na vykonávanie potenciálne škodlivých činností, ako je profilovanie ľudí na základe ich správania a činností. Nedostatok správneho regulácia AI môže viesť k neúmyselným následkom, ako je porušenie ochrany údajov alebo diskriminácia. Regulácia AI môže pomôcť zmierniť toto riziko stanovením prísnych usmernení, ktoré to zabezpečia ChatGPT systémy sa nepoužívajú škodlivým spôsobom. Nakoniec AI a ChatGPT by sa mohli stať kontrolným faktorom v našich životoch, kontrolovať veci, ako je dopravný tok a finančné trhy, a dokonca byť použité na ovplyvňovanie našich politických a spoločenských životov. Aby sa predišlo takémuto druhu nerovnováhy energie, je potrebné zaviesť prísne predpisy.

Navrhli sme vytvorenie novej agentúry na získanie licencie a regulovať AI činnosti, ak ich schopnosti presahujú určitú hranicu.

Sam Altman

Bezpečnostné štandardy

Bezpečnostné štandardy
@Midjourney

Technológie AI a chatbotov spôsobujú pokrok v spôsobe, akým riadime svoj každodenný život. Ako sa tieto technológie stávajú vyspelejšími, majú potenciál stať sa autonómnymi a samostatne sa rozhodovať. Aby sa tomu zabránilo, bezpečnostných noriem musí byť stanovené, že tieto modely musia spĺňať pred ich nasadením. Jedným z hlavných bezpečnostných štandardov navrhnutých Altmanom v roku 2023 je test samoreplikácie, ktorý by zabezpečil, že model AI sa nebude môcť replikovať bez autorizácie. Druhým bezpečnostným štandardom, ktorý navrhol Altman v roku 2023, je test na exfiltráciu dát, ktorý by zabezpečil, že modely AI nebudú schopné exfiltrovať dáta zo systému bez autorizácie. Vlády na celom svete začali konať, aby chránili občanov pred potenciálnymi rizikami.

Musíme implementovať bezpečnostné štandardy, ktoré musia modely AI spĺňať pred nasadením, vrátane testov samoreplikácie a exfiltrácie údajov.

Sam Altman

Nezávislé audity

Nezávislé audity
@Midjourney

V roku 2023 sa potreba nezávislých auditov technológií AI a LLM stáva čoraz dôležitejšou. Umelá inteligencia predstavuje rôzne riziká, ako sú napríklad algoritmy strojového učenia bez dozoru, ktoré môžu nedobrovoľne zmeniť a dokonca vymazať údaje, a kybernetické útoky sa čoraz viac zameriavajú na AI a ChatGPT. Modely vytvorené AI obsahujú zaujatosť, ktorá môže viesť k diskriminačným praktikám. Nezávislý audit by mal zahŕňať preskúmanie modeluje AI je trénovaný na, návrh algoritmu a výstup modelu, aby sa zabezpečilo, že nezobrazuje neobjektívne kódovanie alebo výsledky. Okrem toho by audit mal zahŕňať preskúmanie bezpečnostných zásad a postupov používaných na ochranu používateľské dáta a zabezpečiť bezpečné prostredie.

Vykonajú sa nezávislé audity, aby sa zabezpečilo, že modely AI spĺňajú stanovené bezpečnostné štandardy.

Sam Altman

Bez nezávislého auditu sú podniky a používatelia vystavení potenciálne nebezpečné a nákladné riziká, ktorým sa dalo predísť. Je dôležité, aby všetky podniky používajúce túto technológiu absolvovali pred nasadením nezávislý audit, aby sa zaistilo, že technológia je bezpečná a etická.

AI ako nástroj

AI ako nástroj
@Midjourney

AI sa vyvíjala exponenciálne a pokroky ako GPT-4 viedli k realistickejším a sofistikovanejším interakciám s počítačmi. Altman však zdôraznil, že AI by sa mala vnímať ako nástroje, nie vnímajúce bytosti. GPT-4 je model na spracovanie prirodzeného jazyka, ktorý dokáže generovať obsah takmer na nerozoznanie od obsahu napísaného ľuďmi, čím uberá časť práce autorom a umožňuje používateľom mať s technológiou ľudskejšie skúsenosti.

AI, najmä pokročilé modely ako napr GPT-4, treba vnímať ako nástroje, nie vnímajúce bytosti.

Sam Altman

Sam Altman však varuje, že prílišný dôraz na AI ako na viac než na nástroj môže viesť k nerealistickým očakávaniam a falošným presvedčeniam o jej schopnostiach. Poukazuje tiež na to, že umelá inteligencia nie je bez etických dôsledkov a že aj keď možno pokročilé úrovne umelej inteligencie použiť na dobro, stále sa dá použiť na zlé, čo vedie k nebezpečnému rasovému profilovaniu, porušenie súkromiaa dokonca aj bezpečnostné hrozby. Altman zdôrazňuje, že je dôležité pochopiť, že AI je iba nástroj a že by sa mala považovať za nástroj na urýchlenie ľudského pokroku, nie ako na nahradenie ľudí.

Vedomie AI

Vedomie AI
@Midjourney

Diskusia o AI a o tom, či môže alebo nemôže dosiahnuť vedomé povedomie, narastá. Mnohí výskumníci tvrdia, že stroje nie sú schopné prežívať emocionálne, mentálne alebo vedomé stavy, napriek ich zložitej výpočtovej architektúre. Niektorí výskumníci akceptujú možnosť, že AI dosiahne vedomé vedomie. Hlavným argumentom pre túto možnosť je, že AI je postavená na programoch, ktoré ju umožňujú replikovanie určité fyzické a duševné procesy nachádzajúce sa v ľudskom mozgu. Hlavným protiargumentom však je, že AI nemá žiadnu skutočnú emocionálnu inteligenciu.

Zatiaľ čo AI by sa mala považovať za nástroj, uznávam prebiehajúcu diskusiu vo vedeckej komunite o potenciálnom vedomí AI.

Sam Altman

Mnoho výskumníkov AI súhlasí s tým, že neexistuje žiadny vedecký dôkaz, ktorý by naznačoval, že AI je schopná dosiahnuť vedomé uvedomenie rovnakým spôsobom, ako to dokáže ľudská bytosť. Elon Musk, jeden z najhlasnejších zástancov tohto pohľadu, je presvedčený, že schopnosť AI napodobňovať biologické formy života je extrémne obmedzená a väčší dôraz by sa mal klásť na výučbu etických hodnôt strojov.

Vojenské aplikácie

Vojenské aplikácie
@Midjourney

AI vo vojenskom kontexte rýchlo napreduje a má potenciál zlepšiť spôsob, akým armády vedú vojnu. Vedci sa obávajú, že AI v armáde môže predstavovať celý rad etických problémov a problémov súvisiacich s rizikom, ako je nepredvídateľnosť, nevypočítateľnosť a nedostatok transparentnosti.

Uvedomujem si potenciál využitia AI vo vojenských aplikáciách, ako sú autonómne drony, a žiadam regulovať takéto použitie.

Sam Altman

Systémy AI sú zraniteľné voči škodlivým aktérom, ktorí by mohli buď preprogramovať systémy, alebo infiltrovať systémy, čo by mohlo viesť k ničivému výsledku. Na riešenie týchto obavy, medzinárodné spoločenstvo urobilo prvý krok v podobe svojho Medzinárodného dohovoru o určitých konvenčných zbraniach z roku 1980, ktorý ukladá určité zákazy používania určitých zbraní. Odborníci na AI sa zasadzovali za medzinárodný výbor, ktorý by dohliadal na procesy, ako je hodnotenie, výcvik a nasadenie AI vo vojenských aplikáciách.

AGI

AGI
@Midjourney

Technológia AI je čoraz pokročilejšia a všadeprítomnejšia, preto je dôležité pochopiť potenciálne riziká, ktoré predstavujú agenti a systémy AI. Prvým a najzrejmejším rizikom spojeným s agentmi AI je nebezpečenstvo, že stroje prekabátia ľudí. Agenti AI môžu ľahko prekonať svojich tvorcov tým, že prevezmú rozhodovanie, procesy automatizácie a ďalšie pokročilé úlohy. Automatizácia poháňaná AI by navyše mohla zvýšiť nerovnosť, pretože nahrádza ľudí v trh práce.

Varujem, že výkonnejšie a komplexnejšie systémy AI môžu byť bližšie realite, ako si mnohí myslia, a zdôraznil potrebu pripravenosti a preventívnych opatrení.

Sam Altman

Algoritmy AI a ich použitie pri komplexnom rozhodovaní vyvolávajú obavy z nedostatku transparentnosti. Organizácie môžu zmierniť riziká spájaný s agentmi AI proaktívne zaisťovaním etického vývoja AI, využívaním údajov, ktoré sú v súlade s etickými normami, a podrobovaním algoritmov rutinným testom, aby sa zaistilo, že nebudú zaujaté a nesú zodpovednosť za používateľov a údaje.

záver

Altman tiež uviedol, že aj keď možno nebudeme schopní riadiť Čínu, musíme s ňou rokovať. Navrhované kritériá hodnotenia a regulačné modely AI zahŕňajú schopnosť syntetizovať biologické vzorky, manipulácia s presvedčením ľudí, množstvo vynaloženej sily na spracovanie atď.

Významnou témou je, že Sam by mal mať „vzťahy“ so štátom. Dúfame, že nebudú nasledovať príklad Európy, ako sme už spomenuli.

Často kladené otázky

Riziká umelej inteligencie zahŕňajú možnosť, že systémy umelej inteligencie budú vykazovať zaujaté alebo diskriminačné správanie, môžu byť použité zlomyseľne alebo nevhodne alebo nesprávne fungovať spôsobmi, ktoré spôsobujú škodu. Vývoj a nasadenie technológií AI môže predstavovať riziká pre súkromie a bezpečnosť údajov, ako aj pre bezpečnosť a ochranu ľudí a systémov.

Päť hlavných rizík spojených s AI sú: strata zamestnania, Bezpečnostné riziká, Predsudky alebo diskriminácia, Biologické zbrane a AGI.

Najnebezpečnejším aspektom AI je jej potenciál spôsobiť masovú nezamestnanosť.

Vylúčenie zodpovednosti

V súlade s Pokyny k projektu Trust, uvedomte si, že informácie uvedené na tejto stránke nie sú zamýšľané a nemali by byť interpretované ako právne, daňové, investičné, finančné alebo iné formy poradenstva. Je dôležité investovať len toľko, koľko si môžete dovoliť stratiť a v prípade akýchkoľvek pochybností vyhľadať nezávislé finančné poradenstvo. Ak chcete získať ďalšie informácie, odporúčame vám pozrieť si zmluvné podmienky, ako aj stránky pomoci a podpory poskytnuté vydavateľom alebo inzerentom. MetaversePost sa zaviazala poskytovať presné a nezaujaté správy, ale podmienky na trhu sa môžu zmeniť bez upozornenia.

O autorovi

Damir je vedúci tímu, produktový manažér a redaktor v Metaverse Post, pokrývajúce témy ako AI/ML, AGI, LLM, Metaverse a Web3- súvisiace oblasti. Jeho články priťahujú každý mesiac obrovské publikum s viac ako miliónom používateľov. Zdá sa, že je odborníkom s 10-ročnými skúsenosťami v oblasti SEO a digitálneho marketingu. Damir bol spomenutý v Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto a ďalšie publikácie. Ako digitálny nomád cestuje medzi SAE, Tureckom, Ruskom a SNŠ. Damir získal bakalársky titul z fyziky, o ktorom sa domnieva, že mu dal schopnosti kritického myslenia potrebné na to, aby bol úspešný v neustále sa meniacom prostredí internetu. 

Ďalšie články
Damir Yalalov
Damir Yalalov

Damir je vedúci tímu, produktový manažér a redaktor v Metaverse Post, pokrývajúce témy ako AI/ML, AGI, LLM, Metaverse a Web3- súvisiace oblasti. Jeho články priťahujú každý mesiac obrovské publikum s viac ako miliónom používateľov. Zdá sa, že je odborníkom s 10-ročnými skúsenosťami v oblasti SEO a digitálneho marketingu. Damir bol spomenutý v Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto a ďalšie publikácie. Ako digitálny nomád cestuje medzi SAE, Tureckom, Ruskom a SNŠ. Damir získal bakalársky titul z fyziky, o ktorom sa domnieva, že mu dal schopnosti kritického myslenia potrebné na to, aby bol úspešný v neustále sa meniacom prostredí internetu. 

Hot Stories
Pridajte sa k nášmu newsletteru.
Novinky

Inštitucionálny apetít rastie smerom k bitcoinovým ETF uprostred volatility

Zverejnenia prostredníctvom podaní 13F odhaľujú pozoruhodných inštitucionálnych investorov, ktorí sa venujú bitcoinovým ETF, čo podčiarkuje rastúcu akceptáciu ...

vedieť viac

Prichádza deň odsúdenia: Osud CZ visí v rovnováhe, pretože americký súd zvažuje žalobu ministerstva spravodlivosti

Changpeng Zhao dnes čaká na americkom súde v Seattli odsúdenie.

vedieť viac
Pripojte sa k našej komunite inovatívnych technológií
Čítaj viac
Čítaj viac
Crypto Exchange Bybit integruje USDe spoločnosti Ethena Labs ako kolaterál, umožňuje obchodné páry BTC-USDe a ETH-USDe
trhy Novinová správa Technológia
Crypto Exchange Bybit integruje USDe spoločnosti Ethena Labs ako kolaterál, umožňuje obchodné páry BTC-USDe a ETH-USDe
Môže 7, 2024
Bitget Wallet predstavuje GetDrop Airdrop Platforma a spúšťa prvé podujatie s meme mincami s cenovým fondom 130,000 XNUMX dolárov
trhy Novinová správa Technológia
Bitget Wallet predstavuje GetDrop Airdrop Platforma a spúšťa prvé podujatie s meme mincami s cenovým fondom 130,000 XNUMX dolárov
Môže 7, 2024
Od jednoduchého reflexu k učiacim sa agentom: Pozrite si rôzne typy agentov AI a ich úlohy v moderných aplikáciách
Životný štýl Softvér Príbehy a recenzie Technológia
Od jednoduchého reflexu k učiacim sa agentom: Pozrite si rôzne typy agentov AI a ich úlohy v moderných aplikáciách
Môže 7, 2024
Meson Network umožňuje krypto baníkom získavať tokeny prostredníctvom ťažby. AirdropPrichádzajú programy spätného odkúpenia
trhy Novinová správa Technológia
Meson Network umožňuje krypto baníkom získavať tokeny prostredníctvom ťažby. AirdropPrichádzajú programy spätného odkúpenia
Môže 7, 2024
CRYPTOMERIA LABS PTE. LTD.