Top 10 AI ja ChatGPT Riskid ja ohud 2023. aastal
Tehisintellekti (AI) ja chatbot-tehnoloogia edusammude tõttu kasutavad rohkem ettevõtteid automatiseeritud klienditeeninduslahendusi, et parandada oma kliendikogemust ja vähendada üldkulusid. Kuigi tehisintellektimudelite ja vestlusrobotite lahenduste võimendamisel on palju eeliseid, on tehnoloogiaga seotud ka mitmesuguseid riske ja ohte, eriti kuna need muutuvad järgmisel kümnendil üha levinumaks ja integreeruvad meie igapäevaellu.
Sel nädalal kuulasid kõik USA senatis Sam Altmani juttu tehisintellektimudelite reguleerimisest ja riskidest. Siin on põhiülevaade:
Biorelvad
Tehisintellekti kasutamine (AI) kujutab biorelvade arendamisel ohtlikult metoodilist ja tõhusat viisi võimsate ja surmavate massihävitusrelvade loomiseks. ChatGPT eest on AI-põhised vestlusabilised, mis on võimelised pidama inimestega elutruid vestlusi. Mure sellega ChatGPT robotid on see, et neid saab kasutada valeteabe levitamiseks ja meeltega manipuleerimiseks, et mõjutada avalik arvamus.
Reguleerimine on tehisintellekti väärkasutamise vältimise võtmekomponent ChatGPT robotid biorelvade väljatöötamisel ja kasutuselevõtul. Valitsused peavad välja töötama riiklikud tegevuskavad, et tegeleda tehnoloogia võimaliku väärkasutusega ning ettevõtted peaksid vastutama oma võimaliku väärkasutuse eest. AI ja ChatGPT eest. Rahvusvahelised organisatsioonid peaksid investeerima algatustesse, mis keskenduvad tehisintellekti koolitusele, jälgimisele ja harimisele ChatGPT robotid.
Töö kaotamine
Võimalik töökaotus AI tõttu ja ChatGPT 2023. aastal prognoositakse kolm korda rohkem kui 2020. aastal. AI ja ChatGPT võib põhjustada suurenenud ebakindlust töökohal, eetilisi kaalutlusi ja psühholoogilist mõju töötajatele. AI ja ChatGPT saab kasutada töötajate käitumise ja tegevuste jälgimiseks, võimaldades tööandjatel teha otsuseid kiiresti ja ilma personali kaasamist nõudmata. Lisaks AI ja ChatGPT võib põhjustada ebaõiglasi ja kallutatud otsuseid, mis võivad põhjustada töökohal rahalist, sotsiaalset ja emotsionaalset ebakindlust.
AI määrus
See artikkel uurib võimalikud riskid ja AI ümbritsevad ohud ja ChatGPT määrus aastal 2023. AI ja ChatGPT tehnikat saab kasutada potentsiaalselt pahatahtlike toimingute tegemiseks, näiteks inimeste profiilide koostamiseks nende käitumise ja tegevuse põhjal. Nõuetekohasuse puudumine AI määrus võib põhjustada soovimatuid tagajärgi, nagu andmetega seotud rikkumised või diskrimineerimine. Tehisintellekti reguleerimine võib aidata seda riski maandada, kehtestades selle tagamiseks ranged juhised ChatGPT süsteemid neid ei kasutata pahatahtlikul viisil. Lõpuks AI ja ChatGPT võib saada meie elu kontrollivaks teguriks, mis kontrollib selliseid asju nagu liiklusvoog ja finantsturud ning mida kasutatakse isegi meie poliitilise ja ühiskondliku elu mõjutamiseks. Sellise võimsuse tasakaalustamatuse vältimiseks tuleb rakendada rangeid eeskirju.
Turvalisuse standardid
AI ja vestlusrobotite tehnoloogiad toovad kaasa edusamme meie igapäevaelu juhtimises. Kuna need tehnoloogiad muutuvad arenenumaks, on neil potentsiaali muutuda autonoomseks ja teha iseseisvaid otsuseid. Selle vältimiseks turvastandardid tuleb kindlaks teha, et need mudelid peavad vastama enne kasutuselevõttu. Üks Altmani poolt 2023. aastal välja pakutud peamisi turbestandardeid on iseseplikatsiooni test, mis tagaks, et tehisintellekti mudel ei suuda ilma loata ise paljuneda. Teine Altmani 2023. aastal välja pakutud turbestandard on andmete väljafiltreerimise test, mis tagaks, et tehisintellekti mudelid ei suudaks ilma loata andmeid süsteemist välja filtreerida. Valitsused üle maailma on asunud tegutsema, et kaitsta kodanikke võimalike ohtude eest.
Sõltumatud auditid
Aastal 2023 muutub üha olulisemaks vajadus tehisintellekti ja LLM-tehnoloogiate sõltumatute auditite järele. AI kujutab endast mitmesuguseid riske, nagu järelevalveta masinõppe algoritmid, mis võivad andmeid tahtmatult muuta ja isegi kustutada, ning küberrünnakud on üha enam suunatud tehisintellekti ja ChatGPT. AI-ga loodud mudelid sisaldavad eelarvamusi, mis võib viia diskrimineerivate tavadeni. Sõltumatu audit peaks hõlmama selle ülevaatamist modelleerib AI-d on koolitatud, algoritmi kujundamise ja mudeli väljundi osas, et veenduda, et see ei kuva kallutatud kodeerimist ega tulemusi. Lisaks peaks audit hõlmama kaitsmiseks kasutatavate turbepoliitikate ja protseduuride ülevaatamist kasutaja andmed ja tagada turvaline keskkond.
Ilma sõltumatu auditita puutuvad ettevõtted ja kasutajad kokku potentsiaalselt ohtlik ja kulukaid riske, mida oleks saanud vältida. On oluline, et kõik seda tehnoloogiat kasutavad ettevõtted viiksid enne kasutuselevõttu läbi sõltumatu auditi, et tagada tehnoloogia ohutus ja eetiline.
AI kui tööriist
AI on eksponentsiaalselt arenenud ja edusammud nagu GPT-4 on viinud realistlikuma ja keerukama suhtluseni arvutitega. Altman on aga rõhutanud, et tehisintellekti tuleks vaadelda kui tööriistu, mitte tundlike olenditena. GPT-4 on loomulik keeletöötlusmudel, mis suudab luua sisu, mis on peaaegu eristamatu inimeste kirjutatud sisust, võttes osa tööst kirjanikelt ära ja võimaldades kasutajatel kogeda tehnoloogiaga inimlikumat kogemust.
Samas hoiatab Sam Altman, et liiga suur rõhk AI-le kui enamale kui tööriistale võib põhjustada ebarealistlikke ootusi ja valesid uskumusi selle võimekuse kohta. Ta juhib tähelepanu ka sellele, et tehisintellekt ei ole ilma eetiliste tagajärgedeta ja et isegi kui kõrgtasemel tehisintellekti saab kasutada heaks, võidakse seda siiski kasutada halvaks, mis toob kaasa ohtliku rassilise profiili koostamise. privaatsuse rikkumisedja isegi turvaohte. Altman rõhutab, kui oluline on mõista, et tehisintellekt on ainult tööriist ja seda tuleks vaadelda kui vahendit, mis kiirendab inimkonna arengut, mitte ei asenda inimesi.
AI teadvus
Arutelu AI üle ja selle üle, kas sellega on võimalik saavutada teadlikku teadlikkust või mitte, on kasvanud. Paljud teadlased väidavad, et masinad ei ole võimelised kogema emotsionaalseid, vaimseid ega teadvuslikke seisundeid, hoolimata nende keerukast arvutuslikust arhitektuurist. Mõned teadlased nõustuvad AI võimalusega saavutada teadlik teadlikkus. Selle võimaluse peamine argument on see, et AI on üles ehitatud programmidele, mis muudavad selle võimeliseks kordamine teatud inimese ajus esinevad füüsilised ja vaimsed protsessid. Peamine vastuargument on aga see, et tehisintellektil puudub tõeline emotsionaalne intelligentsus.
Paljud tehisintellekti teadlased nõustuvad, et puuduvad teaduslikud tõendid selle kohta, et tehisintellekt on võimeline saavutama teadlikku teadlikkust samal viisil kui inimene. Elon Musk, selle seisukoha üks häälekamaid pooldajaid, usub, et tehisintellekti võime jäljendada bioloogilisi eluvorme on äärmiselt piiratud ja rohkem tuleks rõhku panna masinate eetiliste väärtuste õpetamisele.
Sõjalised rakendused
Tehisintellekt sõjalises kontekstis areneb kiiresti ja sellel on potentsiaali parandada viisi, kuidas sõjaväelased sõdivad. Teadlased muretsevad, et tehisintellekt võib sõjaväes tekitada mitmeid eetilisi ja riskidega seotud probleeme, nagu ettearvamatus, arvutamatus ja läbipaistmatuse puudumine.
AI-süsteemid on haavatavad pahatahtlike osalejate ees, kes võivad süsteemid ümber programmeerida või süsteemidesse imbuda, mis võib viia laastava tulemuseni. Nendega tegelemiseks muresid, on rahvusvaheline üldsus astunud esimese sammu oma 1980. aasta rahvusvahelise teatavate tavarelvade konventsiooniga, mis seab teatud relvade kasutamise keelud. Tehisintellekti eksperdid on toetanud rahvusvahelise komitee loomist, mis jälgiks selliseid protsesse nagu tehisintellekti hindamine, väljaõpe ja kasutuselevõtt sõjalistes rakendustes.
AGI
AI-tehnoloogia on muutumas üha arenenumaks ja levivamaks, mistõttu on oluline mõista tehisintellekti agentide ja süsteemide võimalikke riske. Esimene ja kõige ilmsem tehisintellektiga seotud risk on oht, et masinad võivad inimesi üle kavaldada. AI agendid saavad hõlpsasti oma loojaid ületada, võttes üle otsuste tegemise, automatiseerimisprotsessid ja muud täiustatud ülesanded. Lisaks võib AI-toega automatiseerimine suurendada ebavõrdsust, kuna see asendab inimesi tööturg.
AI-algoritmid ja nende kasutamine keerukates otsuste tegemisel tekitab muret läbipaistvuse puudumise pärast. Organisatsioonid saavad riske maandada seostatakse tehisintellekti agentidega, tagades ennetavalt tehisintellekti eetilise väljatöötamise, kasutades eetikastandarditele vastavaid andmeid ja allutades algoritmidele rutiinsed testid tagamaks, et need ei ole erapoolikud ning vastutavad kasutajate ja andmete eest.
Järeldus
Altman märkis ka, et kuigi me ei pruugi Hiinat juhtida, peame sellega läbi rääkima. Pakutud kriteeriumid hindamiseks ja reguleerivad AI mudelid hõlmavad võime sünteesida bioloogilisi proove, manipuleerimine inimeste tõekspidamistega, kulutatud töötlemisvõimsuse hulk jne.
Oluline teema on see, et Samil peaksid olema "suhted" riigiga. Loodame, et nad ei järgi Euroopa eeskuju, nagu me varem mainisime.
KKK
AI riskid hõlmavad võimalust, et tehisintellektisüsteemid käituvad kallutatud või diskrimineerivalt, neid kasutatakse pahatahtlikult või sobimatult või võivad tekkida tõrkeid viisil, mis põhjustab kahju. Tehisintellekti tehnoloogiate arendamine ja kasutuselevõtt võib ohustada privaatsust ja andmete turvalisust, samuti inimeste ja süsteemide turvalisust ja turvalisust.
Tehisintellektiga seotud viis peamist riski on järgmised: töökohtade kaotus, Turvariskid, eelarvamused või diskrimineerimine, biorelvad ja AGI.
Tehisintellekti kõige ohtlikum aspekt on selle potentsiaal põhjustada massilist tööpuudust.
Kaebused
Vastavalt Usaldusprojekti juhised, pange tähele, et sellel lehel esitatud teave ei ole mõeldud ega tohiks tõlgendada kui juriidilist, maksu-, investeerimis-, finants- või muud nõuannet. Oluline on investeerida ainult seda, mida saate endale lubada kaotada, ja kahtluste korral küsida sõltumatut finantsnõu. Lisateabe saamiseks soovitame vaadata nõudeid ja tingimusi ning väljaandja või reklaamija pakutavaid abi- ja tugilehti. MetaversePost on pühendunud täpsele ja erapooletule aruandlusele, kuid turutingimusi võidakse ette teatamata muuta.
Umbes Autor
Damir on ettevõtte meeskonnajuht, tootejuht ja toimetaja Metaverse Post, mis hõlmab selliseid teemasid nagu AI/ML, AGI, LLM-id, Metaverse ja Web3-seotud väljad. Tema artiklid meelitavad igal kuul tohutut vaatajaskonda, üle miljoni kasutaja. Ta näib olevat ekspert, kellel on 10-aastane SEO ja digitaalse turunduse kogemus. Damirit on mainitud ajakirjades Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto ja muud väljaanded. Ta reisib digitaalse nomaadina AÜE, Türgi, Venemaa ja SRÜ vahel. Damir omandas bakalaureusekraadi füüsikas, mis on tema arvates andnud talle kriitilise mõtlemise oskused, mida on vaja pidevalt muutuval Interneti-maastikul edukaks saamiseks.
Veel artikleidDamir on ettevõtte meeskonnajuht, tootejuht ja toimetaja Metaverse Post, mis hõlmab selliseid teemasid nagu AI/ML, AGI, LLM-id, Metaverse ja Web3-seotud väljad. Tema artiklid meelitavad igal kuul tohutut vaatajaskonda, üle miljoni kasutaja. Ta näib olevat ekspert, kellel on 10-aastane SEO ja digitaalse turunduse kogemus. Damirit on mainitud ajakirjades Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto ja muud väljaanded. Ta reisib digitaalse nomaadina AÜE, Türgi, Venemaa ja SRÜ vahel. Damir omandas bakalaureusekraadi füüsikas, mis on tema arvates andnud talle kriitilise mõtlemise oskused, mida on vaja pidevalt muutuval Interneti-maastikul edukaks saamiseks.