AI Wiki Technológia
May 18, 2023

Top 10 AI és ChatGPT Kockázatok és veszélyek 2023-ban

A mesterséges intelligencia (AI) és a chatbot-technológia fejlődésével egyre több vállalat alkalmaz automatizált ügyfélszolgálati megoldásokat az ügyfélélmény javítása és a rezsiköltségek csökkentése érdekében. Noha számos előnnyel jár az AI-modellek és chatbot-megoldások kihasználása, a technológiához számos kockázat és veszély is társul, különösen, mivel az elkövetkező évtizedben egyre jobban beépülnek mindennapi életünkbe.

Ezen a héten az Egyesült Államok Szenátusában mindenki meghallgatta Sam Altman előadását az AI-modellek szabályozásáról és kockázatairól. Íme egy alapvető összefoglaló:

bioweapons

bioweapons
@Midjourney

A mesterséges intelligencia használata (AI) a biofegyverek fejlesztésében veszélyesen módszeres és hatékony módszert jelent az erőteljes és halálos tömegpusztító fegyverek létrehozására. ChatGPT botok AI által vezérelt társalgási asszisztensek, amelyek képesek élethű beszélgetéseket folytatni az emberekkel. Az aggodalom vele ChatGPT A botok az, hogy felhasználhatók hamis információk terjesztésére és az elmék manipulálására a befolyásolás érdekében közvélemény.

Figyelmeztettem a mesterséges intelligencia lehetséges visszaéléseire a biológiai fegyverek létrehozása során, és hangsúlyoztam, hogy szabályozásra van szükség az ilyen forgatókönyvek megelőzésére.

Sam Altman

A szabályozás kulcsfontosságú eleme a mesterséges intelligenciával való visszaélés megelőzésének és ChatGPT botok a biofegyverek fejlesztésében és telepítésében. A kormányoknak nemzeti cselekvési terveket kell kidolgozniuk a technológiával való esetleges visszaélések kezelésére, és a vállalatokat felelősségre kell vonni minden, a technológiával való visszaélésért. AI és ChatGPT botok. A nemzetközi szervezeteknek be kell fektetniük olyan kezdeményezésekbe, amelyek a mesterséges intelligencia képzésére, nyomon követésére és oktatására összpontosítanak ChatGPT botok.

Állásvesztés

Állásvesztés
@Midjourney

Az AI miatti munkahely elvesztésének lehetősége és ChatGPT 2023-ban az előrejelzések szerint háromszorosa lesz, mint 2020-ban volt. AI és ChatGPT fokozott bizonytalansághoz vezethet a munkahelyen, etikai megfontolásokhoz és pszichológiai hatásokhoz vezethet a munkavállalókra. AI és ChatGPT használható az alkalmazottak viselkedésének és tevékenységeinek nyomon követésére, lehetővé téve a munkáltatók számára, hogy gyorsan és emberi személyzet bevonása nélkül hozzanak döntéseket. Ezenkívül az AI és ChatGPT tisztességtelen és elfogult döntéseket eredményezhet, amelyek pénzügyi, szociális és érzelmi bizonytalansághoz vezethetnek a munkahelyen.

Hangsúlyoztam, hogy a mesterséges intelligencia fejlődése jelentős munkahelyek elvesztéséhez és az egyenlőtlenségek növekedéséhez vezethet.

Sam Altman

AI rendelet

AI rendelet
@Midjourney

Ez a cikk a potenciális kockázatok és az AI körüli veszélyek és ChatGPT rendelet 2023. AI és ChatGPT technikák felhasználható potenciálisan rosszindulatú tevékenységek végrehajtására, például emberek profilalkotására viselkedésük és tevékenységeik alapján. A megfelelő hiánya AI szabályozás nem kívánt következményekkel járhat, mint például adatszivárgás vagy diszkrimináció. A mesterséges intelligencia szabályozása segíthet csökkenteni ezt a kockázatot azáltal, hogy szigorú irányelveket határoz meg ennek biztosítására ChatGPT rendszerek nem használják rosszindulatú módon. Végül az AI és ChatGPT irányító tényezővé válhat az életünkben, olyan dolgokat irányítva, mint a forgalom és a pénzügyi piacok, és még politikai és társadalmi életünk befolyásolására is felhasználható. Az ilyen jellegű energiakiegyensúlyozatlanság megelőzése érdekében szigorú szabályokat kell bevezetni.

Javasoltuk egy új ügynökség létrehozását a licenc és szabályozza az AI-t tevékenységeket, ha képességeik meghaladnak egy bizonyos küszöböt.

Sam Altman

Biztonsági előírások

Biztonsági előírások
@Midjourney

A mesterséges intelligencia és a chatbot technológiák előrelépést jelentenek mindennapi életünk kezelésében. Ahogy ezek a technológiák egyre fejlettebbek, megvan a lehetőségük arra, hogy önállóakká váljanak, és önálló döntéseket hozzanak. Ennek megakadályozására biztonsági szabványok meg kell állapítani, hogy ezeknek a modelleknek meg kell felelniük a bevezetésük előtt. Az Altman által 2023-ban javasolt egyik fő biztonsági szabvány az önreplikáció tesztje, amely biztosítaná, hogy az AI-modell ne legyen képes önreplikációra engedély nélkül. Az Altman által 2023-ban javasolt második biztonsági szabvány egy adatkiszűrési teszt, amely biztosítaná, hogy az AI-modellek ne legyenek képesek engedély nélkül kiszűrni az adatokat a rendszerből. A kormányok szerte a világon lépéseket tettek annak érdekében, hogy megvédjék a polgárokat a lehetséges kockázatoktól.

Meg kell valósítanunk a biztonsági szabványokat, amelyeknek az AI-modelleknek meg kell felelniük a telepítés előtt, beleértve az önreplikációt és az adatok kiszűrését is.

Sam Altman

Független auditok

Független auditok
@Midjourney

2023-ban egyre fontosabbá válik az AI és az LLM-technológiák független auditálása. A mesterséges intelligencia számos kockázatot rejt magában, például a felügyelt gépi tanulási algoritmusokat, amelyek önkéntelenül módosíthatják, sőt törölhetik az adatokat, és a kibertámadások egyre inkább az MI-t és ChatGPT. A mesterséges intelligencia által létrehozott modellek torzítást tartalmaznak, ami diszkriminatív gyakorlatokhoz vezethet. A független auditnak tartalmaznia kell a modellezi az AI-t az algoritmus tervezése és a modell kimenete, hogy megbizonyosodjon arról, hogy nem jelenít meg elfogult kódolást vagy eredményeket. Ezenkívül az auditnak tartalmaznia kell a védelemre használt biztonsági szabályzatok és eljárások áttekintését felhasználói adat és biztonságos környezetet biztosítanak.

A független auditokat annak biztosítására kell végezni, hogy az AI-modellek megfeleljenek a megállapított biztonsági szabványoknak.

Sam Altman

Független audit nélkül a vállalkozások és a felhasználók ki vannak téve potenciálisan veszélyes és költséges kockázatok, amelyek elkerülhetők lettek volna. Létfontosságú, hogy az ezt a technológiát használó valamennyi vállalkozás független auditot végezzen a bevezetés előtt, hogy megbizonyosodjon arról, hogy a technológia biztonságos és etikus.

AI mint eszköz

AI mint eszköz
@Midjourney

Az AI exponenciálisan fejlődött, és előrelépések, mint GPT-4 valósághűbb és kifinomultabb interakciókhoz vezettek a számítógépekkel. Altman azonban hangsúlyozta, hogy az AI-t eszközöknek kell tekinteni, nem érző lényeknek. GPT-4 egy természetes nyelvi feldolgozási modell, amely szinte megkülönböztethetetlen tartalmat tud előállítani az ember által írt tartalomtól, elveszi a munka egy részét az íróktól, és lehetővé teszi a felhasználók számára, hogy emberibb tapasztalatokat szerezzenek a technológiával kapcsolatban.

AI, különösen a fejlett modellek, mint pl GPT-4, eszközöknek kell tekinteni, nem érző lényeknek.

Sam Altman

Sam Altman azonban arra figyelmeztet, hogy a mesterséges intelligencia túlzott hangsúlyozása több mint eszköz irreális elvárásokhoz és téves hiedelmek kialakulásához vezethet a képességeivel kapcsolatban. Arra is felhívja a figyelmet, hogy a mesterséges intelligencia nem mentes etikai vonatkozásaitól, és még ha a fejlett mesterséges intelligencia szintjei jóra is használhatók, akkor is felhasználhatók rosszra, ami veszélyes faji profilalkotáshoz vezet. magánélet megsértéseés még biztonsági fenyegetéseket is. Altman kiemeli annak fontosságát, hogy megértsük, hogy az AI csak egy eszköz, és az emberi fejlődés felgyorsítására szolgáló eszköznek kell tekinteni, nem pedig az emberek helyettesítésére.

AI-tudat

AI-tudat
@Midjourney

A vita a mesterséges intelligenciáról, és arról, hogy képes-e tudatosan tudatosítani vagy sem. Sok kutató azzal érvel, hogy a gépek nem képesek érzelmi, mentális vagy tudati állapotokat átélni, annak ellenére, hogy bonyolult számítási felépítésük. Egyes kutatók elfogadják a mesterséges intelligencia tudatos tudatosításának lehetőségét. Ennek a lehetőségnek a fő érve az, hogy az AI olyan programokra épül, amelyek alkalmassá teszik replikálva bizonyos fizikai és mentális folyamatok, amelyek az emberi agyban találhatók. A fő ellenérv azonban az, hogy a mesterséges intelligencia nem rendelkezik valódi érzelmi intelligenciával.

Bár az AI-t eszköznek kell tekinteni, elismerem a tudományos közösségben a lehetséges mesterséges intelligencia tudatosságról folyó vitát.

Sam Altman

Sok mesterséges intelligenciakutató egyetért abban, hogy nincs tudományos bizonyíték arra, hogy a mesterséges intelligencia ugyanúgy képes a tudatos tudatosság elérésére, mint az emberi lény. Elon Musk, ennek a nézőpontnak az egyik leghangosabb képviselője, úgy véli, hogy az AI képessége a biológiai életformák utánzására rendkívül korlátozott, és nagyobb hangsúlyt kell fektetni a gépek etikai értékeinek megtanítására.

Katonai alkalmazások

Katonai alkalmazások
@Midjourney

A katonai környezetben használt mesterséges intelligencia gyorsan fejlődik, és képes javítani a hadseregek hadviselési módját. A tudósok attól tartanak, hogy a katonai mesterséges intelligencia számos etikai és kockázati problémát jelenthet, mint például a kiszámíthatatlanság, a kiszámíthatatlanság és az átláthatóság hiánya.

Elismerem a mesterséges intelligencia katonai alkalmazásokban, például autonóm drónokban való felhasználásában rejlő lehetőségeket, és ezt kérem szabályozni kell ilyen használat.

Sam Altman

A mesterséges intelligencia rendszerek sebezhetőek a rosszindulatú szereplőkkel szemben, akik vagy átprogramozhatják a rendszereket, vagy beszivároghatnak a rendszerekbe, ami pusztító kimenetelhez vezethet. Ezek megoldására aggodalmak, a nemzetközi közösség megtette az első lépést az egyes hagyományos fegyverekről szóló 1980. évi nemzetközi egyezmény formájában, amely bizonyos fegyverek használatát tiltja. A mesterséges intelligencia szakértői egy nemzetközi bizottság létrehozását szorgalmazták, amely felügyelné az olyan folyamatokat, mint az MI értékelése, képzése és katonai alkalmazásokban való alkalmazása.

AGI

AGI
@Midjourney

A mesterséges intelligencia technológia egyre fejlettebb és elterjedtebb, ezért fontos megérteni az AI-ügynökök és -rendszerek által jelentett lehetséges kockázatokat. Az AI-ügynökökhöz kapcsolódó első és legnyilvánvalóbb kockázat az a veszély, hogy a gépek túljárják az ember eszét. Az AI-ügynökök könnyedén felülmúlhatják alkotóikat azáltal, hogy átveszik a döntéshozatali, automatizálási folyamatokat és egyéb speciális feladatokat. Ezenkívül a mesterséges intelligencia által hajtott automatizálás növelheti az egyenlőtlenséget, mivel helyettesíti az embereket munkaerőpiac.

Figyelmeztetem, hogy a nagyobb teljesítményű és összetettebb mesterséges intelligencia rendszerek közelebb állnak a valósághoz, mint azt sokan gondolják, és hangsúlyozták a felkészültség és a megelőző intézkedések szükségességét.

Sam Altman

A mesterséges intelligencia algoritmusai és használata az összetett döntéshozatalban aggodalomra ad okot az átláthatóság hiánya miatt. A szervezetek képesek mérsékelje a kockázatokat A mesterséges intelligencia ügynökeivel kapcsolatban proaktívan biztosítják, hogy a mesterséges intelligencia fejlesztése etikusan történjen, az etikai normáknak megfelelő adatok felhasználásával, valamint az algoritmusok rutintesztjének alávetésével biztosítva, hogy ne legyenek elfogultak, és felelősek legyenek a felhasználókért és az adatokért.

Következtetés

Altman azt is kijelentette, hogy bár lehet, hogy nem tudjuk kezelni Kínát, tárgyalnunk kell vele. A javasolt értékelési kritériumok és szabályozó AI modellek közé tartozik a biológiai minták szintetizálásának képessége, az emberek hiedelmeinek manipulálása, a felhasznált feldolgozási teljesítmény mennyisége stb.

Jelentős téma, hogy Samnek „kapcsolatban kell lennie” az állammal. Reméljük, hogy nem követik Európa példáját, ahogy azt korábban említettük.

GYIK

A mesterséges intelligencia kockázatai közé tartozik az a lehetőség, hogy a mesterséges intelligencia rendszerek elfogult vagy diszkriminatív viselkedést tanúsítanak, rosszindulatú vagy nem megfelelő módon használják fel őket, vagy olyan módon hibásan működjenek, amely kárt okoz. Az AI-technológiák fejlesztése és bevezetése kockázatot jelenthet a magánélet és az adatbiztonság, valamint az emberek és rendszerek biztonsága és biztonsága szempontjából.

A mesterséges intelligencia öt fő kockázata a következő: Munkahelyek elvesztése, Biztonsági kockázatok, Elfogultságok vagy diszkrimináció, Biofegyverek és AGI.

A mesterséges intelligencia legveszélyesebb aspektusa az, hogy tömeges munkanélküliséget okozhat.

A felelősség megtagadása

Összhangban a A Trust Project irányelvei, kérjük, vegye figyelembe, hogy az ezen az oldalon közölt információk nem minősülnek jogi, adózási, befektetési, pénzügyi vagy bármilyen más formájú tanácsnak, és nem is értelmezhetők. Fontos, hogy csak annyit fektessen be, amennyit megengedhet magának, hogy elveszítsen, és kérjen független pénzügyi tanácsot, ha kétségei vannak. További információkért javasoljuk, hogy tekintse meg a szerződési feltételeket, valamint a kibocsátó vagy hirdető által biztosított súgó- és támogatási oldalakat. MetaversePost elkötelezett a pontos, elfogulatlan jelentéstétel mellett, de a piaci feltételek előzetes értesítés nélkül változhatnak.

A szerzőről

Damir a csapat vezetője, termékmenedzsere és szerkesztője Metaverse Post, olyan témákkal foglalkozik, mint az AI/ML, AGI, LLMs, Metaverse és Web3- kapcsolódó mezők. Cikkei havonta több mint egymillió felhasználót vonzanak. Úgy tűnik, szakértő, aki 10 éves tapasztalattal rendelkezik a SEO és a digitális marketing területén. Damirt a Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto és más kiadványok. Digitális nomádként utazik az Egyesült Arab Emírségek, Törökország, Oroszország és a FÁK között. Damir fizikából szerzett bachelor-diplomát, és úgy gondolja, hogy ez megadta neki azokat a kritikus gondolkodási készségeket, amelyek szükségesek ahhoz, hogy sikeres legyen az internet folyamatosan változó táján. 

További cikkek
Damir Jalalov
Damir Jalalov

Damir a csapat vezetője, termékmenedzsere és szerkesztője Metaverse Post, olyan témákkal foglalkozik, mint az AI/ML, AGI, LLMs, Metaverse és Web3- kapcsolódó mezők. Cikkei havonta több mint egymillió felhasználót vonzanak. Úgy tűnik, szakértő, aki 10 éves tapasztalattal rendelkezik a SEO és a digitális marketing területén. Damirt a Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto és más kiadványok. Digitális nomádként utazik az Egyesült Arab Emírségek, Törökország, Oroszország és a FÁK között. Damir fizikából szerzett bachelor-diplomát, és úgy gondolja, hogy ez megadta neki azokat a kritikus gondolkodási készségeket, amelyek szükségesek ahhoz, hogy sikeres legyen az internet folyamatosan változó táján. 

Hot Stories
Csatlakozzon hírlevelünkhöz.
Legfrissebb hírek

A volatilitás közepette nő az intézményi étvágy a Bitcoin ETF-ek felé

A 13F bejelentéseken keresztül közzétett információk jelentős intézményi befektetőket tárnak fel a Bitcoin ETF-ek iránt, ami alátámasztja a ...

Tudjon meg többet

Elérkezett az ítélethirdetés napja: CZ sorsa egyensúlyban van, mivel az Egyesült Államok bírósága mérlegeli a DOJ kérelmét

Changpeng Zhao ítéletet vár ma egy seattle-i amerikai bíróságon.

Tudjon meg többet
Csatlakozzon innovatív technológiai közösségünkhöz
KATT ide
Tovább
A Stacks, a Moonriver Network, a Hedera és az Iron Fish részt vesz az Axelar Interchain Amplifier programjában
Tudósítást Technológia
A Stacks, a Moonriver Network, a Hedera és az Iron Fish részt vesz az Axelar Interchain Amplifier programjában
May 7, 2024
A Tesla elfogadja a Dogecoint: Nagy lendületet kapott a mém érme, mivel fizetési lehetőséggé válik a Tesla online boltjában
piacok Történetek és vélemények Technológia
A Tesla elfogadja a Dogecoint: Nagy lendületet kapott a mém érme, mivel fizetési lehetőséggé válik a Tesla online boltjában
May 7, 2024
A Morph bemutatja Holesky Testnetét az optimista zkEVM integrációval, a hídmechanizmussal és a decentralizált szekvenáló hálózati funkciókkal
Tudósítást Technológia
A Morph bemutatja Holesky Testnetét az optimista zkEVM integrációval, a hídmechanizmussal és a decentralizált szekvenáló hálózati funkciókkal
May 6, 2024
A Robinhood Crypto Wells-értesítést kapott az értékpapír- és tőzsdei bizottságtól az állítólagos értékpapír-sértések miatt
piacok Tudósítást Technológia
A Robinhood Crypto Wells-értesítést kapott az értékpapír- és tőzsdei bizottságtól az állítólagos értékpapír-sértések miatt
May 6, 2024
CRYPTOMERIA LABS PTE. KFT.