AI Wiki Technologija
Gali 18, 2023

10 geriausių AI ir ChatGPT Rizika ir pavojai 2023 m

Tobulėjant dirbtinio intelekto (AI) ir pokalbių robotų technologijoms, vis daugiau įmonių imasi automatizuotų klientų aptarnavimo sprendimų, kad pagerintų klientų patirtį ir sumažintų pridėtines išlaidas. Nors dirbtinio intelekto modelių ir pokalbių robotų sprendimų panaudojimas turi daug privalumų, taip pat išlieka įvairių su technologijomis susijusių pavojų ir pavojų, ypač dėl to, kad per ateinantį dešimtmetį jie vis labiau plinta ir integruojami į mūsų kasdienį gyvenimą.

Šią savaitę visi JAV Senate klausėsi Samo Altmano kalbos apie AI modelių reguliavimą ir riziką. Štai pagrindinė santrauka:

Biologiniai ginklai

Biologiniai ginklai
@Midjourney

Dirbtinio intelekto naudojimas (AI) kuriant biologinius ginklus yra pavojingai metodiškas ir efektyvus būdas sukurti galingus ir mirtinus masinio naikinimo ginklus. ChatGPT botai yra dirbtinio intelekto valdomi pokalbio padėjėjai, galintys palaikyti tikroviškus pokalbius su žmonėmis. Rūpestis su ChatGPT robotai yra tai, kad jie gali būti panaudoti melagingai informacijai skleisti ir manipuliuoti protais, siekiant daryti įtaką vieša nuomonė.

Perspėjau apie galimą piktnaudžiavimą dirbtiniu intelektu kuriant biologinius ginklus ir pabrėžiau, kad reikia reguliavimo, kad būtų išvengta tokių scenarijų.

Samas Altmanas

Reguliavimas yra pagrindinė sudedamoji dalis siekiant užkirsti kelią piktnaudžiavimui dirbtiniu intelektu ir ChatGPT robotai kuriant ir diegiant biologinius ginklus. Vyriausybės turi parengti nacionalinius veiksmų planus, kad būtų pašalintas galimas piktnaudžiavimas technologija, o įmonės turėtų būti atsakingos už bet kokį galimą netinkamą jų naudojimą. AI ir ChatGPT botai. Tarptautinės organizacijos turėtų investuoti į iniciatyvas, kuriose daugiausia dėmesio skiriama dirbtinio intelekto mokymui, stebėjimui ir švietimui ChatGPT robotai.

Darbo praradimas

Darbo praradimas
@Midjourney

Galimybė prarasti darbą dėl AI ir ChatGPT Prognozuojama, kad 2023 m. bus tris kartus daugiau nei 2020 m. AI ir ChatGPT gali sukelti didesnį nesaugumą darbo vietoje, etinius sumetimus ir psichologinį poveikį darbuotojams. AI ir ChatGPT gali būti naudojamas darbuotojų elgesiui ir veiklai stebėti, todėl darbdaviai gali greitai priimti sprendimus, nereikalaujant, kad įsitrauktų personalas. Be to, AI ir ChatGPT gali sukelti nesąžiningus ir šališkus sprendimus, kurie gali sukelti finansinį, socialinį ir emocinį nesaugumą darbo vietoje.

Pabrėžiau, kad dirbtinio intelekto plėtra gali lemti didelių darbo vietų praradimą ir didesnę nelygybę.

Samas Altmanas

AI reglamentas

AI reglamentas
@Midjourney

Šiame straipsnyje nagrinėjama galimą riziką ir pavojai, susiję su AI ir ChatGPT reglamentas 2023. AI ir ChatGPT būdai gali būti naudojamas potencialiai kenkėjiškai veiklai atlikti, pvz., žmonių profiliavimui pagal jų elgesį ir veiklą. Trūksta tinkamo AI reguliavimas gali sukelti nenumatytų pasekmių, pvz., duomenų pažeidimus ar diskriminaciją. Dirbtinio intelekto reguliavimas gali padėti sumažinti šią riziką, nustatant griežtas gaires tai užtikrinti ChatGPT Žaidimai ir pramogos nėra naudojami piktybiškai. Galiausiai AI ir ChatGPT gali tapti mūsų gyvenimą kontroliuojančiu veiksniu, kontroliuojančiu tokius dalykus kaip eismo srautai ir finansų rinkos, ir netgi naudojamas daryti įtaką mūsų politiniam ir socialiniam gyvenimui. Norint išvengti tokio galios disbalanso, reikia įgyvendinti griežtus reglamentus.

Siūlėme sukurti naują agentūrą licencijuoti ir reguliuoti AI veikla, jei jų galimybės viršija tam tikrą ribą.

Samas Altmanas

Saugumo standartai

Saugumo standartai
@Midjourney

AI ir pokalbių robotų technologijos daro pažangą mūsų kasdieniniame gyvenime. Tobulėjant šioms technologijoms, jos gali tapti savarankiškos ir pačios priimti sprendimus. Norėdami to išvengti, saugumo standartus turi būti nustatyta, kad šie modeliai turi atitikti prieš juos diegiant. Vienas iš pagrindinių saugumo standartų, kurį 2023 metais pasiūlė Altmanas, yra savęs replikacijos testas, kuris užtikrintų, kad dirbtinio intelekto modelis negalėtų savaime replikuotis be leidimo. Antrasis Altmano 2023 metais pasiūlytas saugumo standartas – duomenų išfiltravimo testas, kuris užtikrintų, kad dirbtinio intelekto modeliai negalėtų be leidimo išfiltruoti duomenų iš sistemos. Viso pasaulio vyriausybės pradėjo veikti siekdamos apsaugoti piliečius nuo galimų pavojų.

Turime įgyvendinti saugumo standartus, kuriuos AI modeliai turi atitikti prieš diegdami, įskaitant savarankiško replikacijos ir duomenų išfiltravimo testus.

Samas Altmanas

Nepriklausomas auditas

Nepriklausomas auditas
@Midjourney

2023 m. tampa vis svarbesnis nepriklausomų AI ir LLM technologijų auditų poreikis. Dirbtinis intelektas kelia įvairių pavojų, pvz., neprižiūrimi mašininio mokymosi algoritmai, kurie gali netyčia pakeisti ir net ištrinti duomenis, o kibernetinės atakos vis dažniau nukreiptos į AI ir ChatGPT. AI sukurti modeliai apima šališkumą, dėl kurio gali atsirasti diskriminacinė praktika. Nepriklausomas auditas turėtų apimti peržiūrą modeliuoja AI yra apmokytas, algoritmo dizainas ir modelio išvestis, siekiant užtikrinti, kad nebūtų rodomas šališkas kodavimas ar rezultatai. Be to, auditas turėtų apimti saugos politikos ir procedūrų, naudojamų apsaugai, peržiūrą vartotojas duomenys ir užtikrinti saugią aplinką.

Nepriklausomas auditas turi būti atliekamas siekiant užtikrinti, kad dirbtinio intelekto modeliai atitiktų nustatytus saugumo standartus.

Samas Altmanas

Neatlikus nepriklausomo audito, įmonės ir vartotojai susiduria su tuo potencialiai pavojingas ir brangiai kainuojančios rizikos, kurios buvo galima išvengti. Labai svarbu, kad visos įmonės, naudojančios šią technologiją, prieš įdiegiant atliktų nepriklausomą auditą, kad būtų užtikrinta, jog technologija yra saugi ir etiška.

AI kaip įrankis

AI kaip įrankis
@Midjourney

AI vystėsi eksponentiškai ir pažanga kaip GPT-4 lėmė tikroviškesnę ir sudėtingesnę sąveiką su kompiuteriais. Tačiau Altmanas pabrėžė, kad dirbtinis intelektas turėtų būti laikomas įrankiais, o ne jaučiančiais padarais. GPT-4 yra natūralus kalbos apdorojimo modelis, galintis generuoti turinį, kuris beveik nesiskiria nuo žmogaus parašyto turinio, todėl dalis rašytojų darbo atimama ir naudotojams suteikiama galimybė naudotis technologijomis labiau žmogiškai.

AI, ypač pažangūs modeliai, tokie kaip GPT-4, reikėtų žiūrėti kaip į įrankius, o ne į juslias būtybes.

Samas Altmanas

Tačiau Samas Altmanas perspėja, kad per daug dėmesio AI, kaip daugiau nei įrankiui, gali sukelti nerealių lūkesčių ir klaidingų įsitikinimų apie jo galimybes. Jis taip pat atkreipia dėmesį į tai, kad dirbtinis intelektas nėra be savo etinių pasekmių ir kad net jei aukštesnio lygio AI gali būti panaudota geriems tikslams, jis vis tiek gali būti naudojamas blogiems tikslams, o tai lemia pavojingą rasinį profiliavimą. privatumo pažeidimaiir net grėsmių saugumui. Altmanas pabrėžia, kaip svarbu suprasti, kad dirbtinis intelektas yra tik įrankis ir kad jis turėtų būti vertinamas kaip priemonė, skirta paspartinti žmogaus pažangą, o ne pakeisti žmones.

AI sąmonė

AI sąmonė
@Midjourney

Diskusijos apie AI ir tai, ar ji gali pasiekti sąmoningą supratimą, auga. Daugelis tyrinėtojų teigia, kad mašinos nepajėgios patirti emocinių, psichinių ar sąmonės būsenų, nepaisant sudėtingos skaičiavimo architektūros. Kai kurie tyrinėtojai sutinka su AI galimybe pasiekti sąmoningą sąmoningumą. Pagrindinis šios galimybės argumentas yra tai, kad dirbtinis intelektas yra pagrįstas programomis, kurios leidžia tai padaryti atkartojantis tam tikri fiziniai ir psichiniai procesai, randami žmogaus smegenyse. Tačiau pagrindinis priešingas argumentas yra tas, kad AI neturi tikro emocinio intelekto.

Nors dirbtinis intelektas turėtų būti laikomas įrankiu, aš pripažįstu mokslinėje bendruomenėje vykstančias diskusijas apie galimą AI sąmonę.

Samas Altmanas

Daugelis dirbtinio intelekto tyrinėtojų sutinka, kad nėra jokių mokslinių įrodymų, leidžiančių teigti, kad AI gali pasiekti sąmoningą supratimą taip pat, kaip gali žmogus. Elonas muskusas, vienas garsiausių šio požiūrio šalininkų, mano, kad AI gebėjimas imituoti biologines gyvybės formas yra labai ribotas, todėl reikėtų daugiau dėmesio skirti mašinų etinių vertybių mokymui.

Karinės programos

Karinės programos
@Midjourney

AI kariniame kontekste sparčiai tobulėja ir gali pagerinti kariuomenės kariavimo būdą. Mokslininkai nerimauja, kad dirbtinis intelektas kariuomenėje gali sukelti daugybę etinių ir su rizika susijusių problemų, tokių kaip nenuspėjamumas, neapskaičiuojamumas ir skaidrumo trūkumas.

Pripažįstu AI naudojimo karinėse programose, pvz., autonominiuose dronuose, potencialą ir raginu reglamentus valdyti toks naudojimas.

Samas Altmanas

AI sistemos yra pažeidžiamos kenkėjiškų veikėjų, kurie gali perprogramuoti sistemas arba įsiskverbti į sistemas, o tai gali sukelti pražūtingų padarinių. Norėdami tai išspręsti susijęs su, tarptautinė bendruomenė žengė pirmąjį žingsnį – 1980 m. Tarptautinė konvencija dėl tam tikrų įprastinių ginklų, kurioje nustatyti tam tikri tam tikrų ginklų naudojimo draudimai. DI ekspertai pasisakė už tarptautinį komitetą, kuris prižiūrėtų tokius procesus kaip AI vertinimas, mokymas ir panaudojimas karinėse programose.

Agi

Agi
@Midjourney

DI technologija tampa vis pažangesnė ir vis labiau paplitusi, todėl svarbu suprasti galimą AI agentų ir sistemų keliamą riziką. Pirmoji ir akivaizdžiausia rizika, susijusi su AI agentais, yra pavojus, kad mašinos pergudraus žmones. AI agentai gali lengvai pranokti savo kūrėjus, perimdami sprendimų priėmimo, automatizavimo procesus ir kitas sudėtingas užduotis. Be to, dirbtinio intelekto varoma automatika gali padidinti nelygybę, nes ji pakeičia žmones Darbo rinka.

Įspėju, kad galingesnės ir sudėtingesnės AI sistemos gali būti arčiau tikrovės, nei daugelis mano, ir pabrėžė pasirengimo ir prevencinių priemonių poreikį.

Samas Altmanas

AI algoritmai ir jų naudojimas priimant sudėtingus sprendimus kelia susirūpinimą dėl skaidrumo trūkumo. Organizacijos gali sumažinti rizikas susieti su AI agentais, aktyviai užtikrindami, kad AI būtų kuriamas etiškai, naudojant duomenis, kurie atitinka etikos standartus, ir atliekant įprastinius algoritmų testus, siekiant užtikrinti, kad jie nėra šališki ir yra atsakingi už naudotojus ir duomenis.

Išvada

Altmanas taip pat pareiškė, kad nors galime nesugebėti valdyti Kinijos, turime su ja derėtis. Siūlomi vertinimo kriterijai ir reguliuojantys AI modeliai apima gebėjimas sintetinti biologinius mėginius, manipuliavimas žmonių įsitikinimais, sunaudojamos apdorojimo galios kiekis ir pan.

Reikšminga tema yra ta, kad Samas turėtų palaikyti „santykius“ su valstybe. Tikimės, kad jie nepaseks Europos pavyzdžiu, kaip minėjome anksčiau.

DUK

DI rizika apima galimybę, kad AI sistemos elgsis neobjektyviai arba diskriminuojančiai, gali būti naudojamos piktybiškai ar netinkamai arba sugenda taip, kad būtų padaryta žala. DI technologijų kūrimas ir diegimas gali kelti pavojų privatumui ir duomenų saugumui, taip pat žmonių ir sistemų saugai ir saugumui.

Penkios pagrindinės rizikos, susijusios su AI, yra šios: darbo praradimas, Saugumo rizika, šališkumas arba diskriminacija, biologiniai ginklai ir AGI.

Pavojingiausias AI aspektas yra galimybė sukelti masinį nedarbą.

Atsakomybės neigimas

Remdamasi tuo, Pasitikėjimo projekto gairės, atkreipkite dėmesį, kad šiame puslapyje pateikta informacija nėra skirta ir neturėtų būti aiškinama kaip teisinė, mokesčių, investicinė, finansinė ar bet kokia kita konsultacija. Svarbu investuoti tik tai, ką galite sau leisti prarasti, ir, jei turite kokių nors abejonių, kreiptis į nepriklausomą finansinę konsultaciją. Norėdami gauti daugiau informacijos, siūlome peržiūrėti taisykles ir nuostatas bei pagalbos ir palaikymo puslapius, kuriuos pateikia išdavėjas arba reklamuotojas. MetaversePost yra įsipareigojusi teikti tikslias, nešališkas ataskaitas, tačiau rinkos sąlygos gali keistis be įspėjimo.

Apie autorių

Damiras yra komandos vadovas, produktų vadovas ir redaktorius Metaverse Post, apimantis tokias temas kaip AI/ML, AGI, LLM, Metaverse ir Web3– susijusiose srityse. Jo straipsniai kas mėnesį pritraukia didžiulę daugiau nei milijono vartotojų auditoriją. Atrodo, kad jis yra ekspertas, turintis 10 metų SEO ir skaitmeninės rinkodaros patirtį. Damiras buvo paminėtas Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto ir kiti leidiniai. Jis keliauja tarp JAE, Turkijos, Rusijos ir NVS kaip skaitmeninis klajoklis. Damiras įgijo fizikos bakalauro laipsnį, kuris, jo manymu, suteikė jam kritinio mąstymo įgūdžių, reikalingų sėkmingam nuolat besikeičiančiame interneto peizaže. 

Daugiau straipsnių
Damiras Jalalovas
Damiras Jalalovas

Damiras yra komandos vadovas, produktų vadovas ir redaktorius Metaverse Post, apimantis tokias temas kaip AI/ML, AGI, LLM, Metaverse ir Web3– susijusiose srityse. Jo straipsniai kas mėnesį pritraukia didžiulę daugiau nei milijono vartotojų auditoriją. Atrodo, kad jis yra ekspertas, turintis 10 metų SEO ir skaitmeninės rinkodaros patirtį. Damiras buvo paminėtas Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto ir kiti leidiniai. Jis keliauja tarp JAE, Turkijos, Rusijos ir NVS kaip skaitmeninis klajoklis. Damiras įgijo fizikos bakalauro laipsnį, kuris, jo manymu, suteikė jam kritinio mąstymo įgūdžių, reikalingų sėkmingam nuolat besikeičiančiame interneto peizaže. 

Hot Stories
Prisijunkite prie mūsų naujienlaiškio.
Paskutinės naujienos

Institucinis apetitas Bitcoin ETF atžvilgiu auga dėl nepastovumo

13F paraiškų atskleidimas atskleidžia žymius institucinius investuotojus, kurie naudojasi Bitcoin ETF, o tai rodo, kad vis labiau pritariama...

Žinoti daugiau

Ateina nuosprendžio paskelbimo diena: CZ likimas subalansuotas, nes JAV teismas svarsto DOJ prašymą

Changpeng Zhao šiandien laukia nuosprendžio JAV teisme Sietle.

Žinoti daugiau
Prisijunkite prie mūsų naujoviškų technologijų bendruomenės
Skaityti daugiau
Skaityti daugiau
„Morph“ pristato savo „Holesky Testnet“ su optimistine zkEVM integracija, tilto mechanizmu ir decentralizuoto sekos tinklo funkcijomis
Naujienų ataskaita Technologija
„Morph“ pristato savo „Holesky Testnet“ su optimistine zkEVM integracija, tilto mechanizmu ir decentralizuoto sekos tinklo funkcijomis
Gali 6, 2024
Robinhood Crypto gavo Wells pranešimą iš vertybinių popierių ir biržos komisijos dėl tariamų vertybinių popierių pažeidimų
rinkos Naujienų ataskaita Technologija
Robinhood Crypto gavo Wells pranešimą iš vertybinių popierių ir biržos komisijos dėl tariamų vertybinių popierių pažeidimų
Gali 6, 2024
„QuickSwap“ įdiegiamas X sluoksnio pagrindiniame tinkle ir išplečia daugiakampį CDK tinklą su „Citadel“ paleidimu
Naujienų ataskaita Technologija
„QuickSwap“ įdiegiamas X sluoksnio pagrindiniame tinkle ir išplečia daugiakampį CDK tinklą su „Citadel“ paleidimu 
Gali 6, 2024
2 sluoksnio tinklo linija inicijuoja ZeroLend ZERO Token Claiming For Airdrop Vartotojai ir investuotojai
rinkos Naujienų ataskaita Technologija
2 sluoksnio tinklo linija inicijuoja ZeroLend ZERO Token Claiming For Airdrop Vartotojai ir investuotojai
Gali 6, 2024
CRYPTOMERIA LABS PTE. LTD.