AI Wiki Tehnoloģija
18. gada 2023. maijs

Top 10 AI un ChatGPT Riski un briesmas 2023. gadā

Pateicoties mākslīgā intelekta (AI) un tērzēšanas robotu tehnoloģijas attīstībai, arvien vairāk uzņēmumu izmanto automatizētus klientu apkalpošanas risinājumus, lai uzlabotu klientu pieredzi un samazinātu pieskaitāmās izmaksas. Lai gan AI modeļu un tērzēšanas robotu risinājumu izmantošanai ir daudz priekšrocību, ar tehnoloģiju saistīti arī dažādi riski un briesmas, jo īpaši tāpēc, ka nākamajā desmitgadē tie kļūst arvien izplatītāki un integrēti mūsu ikdienas dzīvē.

Šonedēļ visi ASV Senātā klausījās Sema Altmena stāstījumu par AI modeļu regulējumu un riskiem. Šeit ir pamata kopsavilkums:

Bioieroči

Bioieroči
@Midjourney

Mākslīgā intelekta izmantošana (AI) bioieroču izstrādē piedāvā bīstami metodisku un efektīvu veidu, kā radīt spēcīgus un nāvējošus masu iznīcināšanas ieročus. ChatGPT robotprogrammatūras ir mākslīgā intelekta vadīti sarunu palīgi, kas spēj uzturēt reālas sarunas ar cilvēkiem. Bažas ar ChatGPT Boti ir tas, ka tos var izmantot, lai izplatītu nepatiesu informāciju un manipulētu ar prātiem, lai ietekmētu sabiedriskā doma.

Es brīdināju par iespējamu mākslīgā intelekta ļaunprātīgu izmantošanu bioloģisko ieroču radīšanā un uzsvēru regulējuma nepieciešamību, lai novērstu šādus scenārijus.

Sems Altmans

Regula ir galvenais komponents, lai novērstu AI ļaunprātīgu izmantošanu un ChatGPT roboti bioieroču izstrādē un izvietošanā. Valdībām ir jāizstrādā nacionālie rīcības plāni, lai novērstu iespējamo tehnoloģiju ļaunprātīgu izmantošanu, un uzņēmumiem būtu jāatbild par jebkādu iespējamu to ļaunprātīgu izmantošanu. AI un ChatGPT robotprogrammatūras. Starptautiskajām organizācijām būtu jāiegulda iniciatīvās, kas koncentrējas uz apmācību, uzraudzību un AI izglītošanu un ChatGPT roboti.

Darba zaudēšana

Darba zaudēšana
@Midjourney

Iespējamais darba zaudējums AI dēļ un ChatGPT 2023. gadā tiek prognozēts, ka tas būs trīs reizes vairāk nekā tas bija 2020. gadā. AI un ChatGPT var palielināt nedrošību darba vietā, ētiskus apsvērumus un psiholoģisku ietekmi uz darbiniekiem. AI un ChatGPT var izmantot, lai uzraudzītu darbinieku uzvedību un aktivitātes, ļaujot darba devējiem pieņemt lēmumus ātri un neprasot cilvēku iesaistīšanos. Turklāt AI un ChatGPT var izraisīt negodīgus un neobjektīvus lēmumus, kas var izraisīt finansiālu, sociālu un emocionālu nedrošību darba vietā.

Es uzsvēru, ka mākslīgā intelekta attīstība var izraisīt ievērojamus darbavietu zudumus un palielināt nevienlīdzību.

Sems Altmans

AI regula

AI regula
@Midjourney

Šis raksts pēta iespējamie riski un briesmas, kas saistītas ar AI un ChatGPT regula 2023. AI un ChatGPT metodes var izmantot potenciāli ļaunprātīgu darbību veikšanai, piemēram, cilvēku profilēšanai, pamatojoties uz viņu uzvedību un darbībām. Pareizības trūkums AI regulējums var izraisīt neparedzētas sekas, piemēram, datu pārkāpumus vai diskrimināciju. AI regulējums var palīdzēt mazināt šo risku, nosakot stingras vadlīnijas, lai to nodrošinātu ChatGPT sistēmas netiek izmantoti ļaunprātīgā veidā. Visbeidzot, AI un ChatGPT varētu kļūt par kontrolējošu faktoru mūsu dzīvē, kontrolējot tādas lietas kā satiksmes plūsma un finanšu tirgi, un pat tiek izmantoti, lai ietekmētu mūsu politisko un sociālo dzīvi. Lai novērstu šāda veida jaudas nelīdzsvarotību, ir jāievieš stingri noteikumi.

Mēs ierosinājām izveidot jaunu aģentūru, lai licencētu un regulēt AI darbības, ja to spējas pārsniedz noteiktu slieksni.

Sems Altmans

Drošības standarti

Drošības standarti
@Midjourney

AI un tērzēšanas robotu tehnoloģijas veicina progresu mūsu ikdienas dzīvē. Tā kā šīs tehnoloģijas kļūst arvien progresīvākas, tās var kļūt autonomas un pašas pieņemt lēmumus. Lai to novērstu, drošības standartiem ir jānosaka, ka šiem modeļiem ir jāatbilst, pirms tos var izmantot. Viens no galvenajiem drošības standartiem, ko Altmans ierosināja 2023. gadā, ir pašreplicēšanas tests, kas nodrošinātu, ka AI modelis nespētu pašreplicēties bez atļaujas. Otrs Altmana 2023. gadā piedāvātais drošības standarts ir datu eksfiltrācijas tests, kas nodrošinātu, ka AI modeļi nespētu izfiltrēt datus no sistēmas bez atļaujas. Valdības visā pasaulē ir sākušas rīkoties, lai aizsargātu iedzīvotājus no iespējamiem riskiem.

Mums ir jāievieš drošības standarti, kuriem AI modeļiem jāatbilst pirms izvietošanas, tostarp pašreplicēšanas un datu eksfiltrācijas testi.

Sems Altmans

Neatkarīgas revīzijas

Neatkarīgas revīzijas
@Midjourney

2023. gadā arvien svarīgāka kļūst vajadzība pēc neatkarīgiem AI un LLM tehnoloģiju auditiem. AI rada dažādus riskus, piemēram, neuzraudzītus mašīnmācīšanās algoritmus, kas var nejauši mainīt un pat dzēst datus, un kiberuzbrukumi arvien vairāk tiek vērsti pret AI un ChatGPT. AI izveidotie modeļi ietver neobjektivitāti, kas var izraisīt diskriminējošu praksi. Neatkarīgā revīzijā jāiekļauj pārskatīšana modelē AI ir apmācīts, algoritma dizains un modeļa izvade, lai pārliecinātos, ka tas nerāda neobjektīvu kodējumu vai rezultātus. Turklāt auditā jāiekļauj aizsardzībai izmantoto drošības politiku un procedūru pārskats lietotāja dati un nodrošināt drošu vidi.

Neatkarīgās revīzijas jāveic, lai nodrošinātu, ka AI modeļi atbilst noteiktajiem drošības standartiem.

Sems Altmans

Bez neatkarīga audita uzņēmumi un lietotāji ir pakļauti potenciāli bīstams un dārgi riski, no kuriem varēja izvairīties. Ir ļoti svarīgi, lai visiem uzņēmumiem, kas izmanto šo tehnoloģiju, pirms ieviešanas tiktu veikts neatkarīgs audits, lai nodrošinātu, ka tehnoloģija ir droša un ētiska.

AI kā rīks

AI kā rīks
@Midjourney

AI ir attīstījies eksponenciāli, un sasniegumi, piemēram GPT-4 ir radījuši reālistiskāku un izsmalcinātāku mijiedarbību ar datoriem. Tomēr Altmans ir uzsvēris, ka AI jāuztver kā instrumenti, nevis jūtīgas radības. GPT-4 ir dabisks valodas apstrādes modelis, kas var ģenerēt saturu, kas gandrīz neatšķiras no cilvēka rakstīta satura, atņemot daļu darba no rakstniekiem un ļaujot lietotājiem iegūt cilvēciskāku pieredzi ar tehnoloģijām.

AI, īpaši uzlaboti modeļi, piemēram, GPT-4, jāuztver kā instrumenti, nevis dzīvas būtnes.

Sems Altmans

Tomēr Sems Altmans brīdina, ka pārāk liels uzsvars uz AI kā vairāk nekā rīku var radīt nereālas cerības un maldīgus uzskatus par tā iespējām. Viņš arī norāda, ka mākslīgais intelekts nav bez ētiskām sekām un ka pat tad, ja progresīvus mākslīgā intelekta līmeņus var izmantot labam, to joprojām var izmantot ļaunumam, izraisot bīstamu rasu profilēšanu. privātuma pārkāpumiun pat drošības apdraudējumi. Altmans uzsver, cik svarīgi ir saprast, ka mākslīgais intelekts ir tikai rīks un ka tas ir jāuztver kā rīks cilvēces progresa paātrināšanai, nevis cilvēku aizstāšanai.

AI apziņa

AI apziņa
@Midjourney

Debates par AI un to, vai ar to var panākt apzinātu izpratni, ir pieaugušas. Daudzi pētnieki apgalvo, ka mašīnas nespēj izjust emocionālus, garīgus vai apziņas stāvokļus, neskatoties uz to sarežģīto skaitļošanas arhitektūru. Daži pētnieki pieņem iespēju AI sasniegt apzinātu izpratni. Galvenais arguments par šo iespēju ir tas, ka AI ir veidota uz programmām, kas padara to spējīgu atkārtojot noteikti fiziski un garīgi procesi, kas atrodami cilvēka smadzenēs. Tomēr galvenais pretarguments ir tāds, ka AI nav īstas emocionālās inteliģences.

Lai gan AI ir jāuztver kā rīks, es atzīstu zinātnieku aprindās notiekošās debates par iespējamo AI apziņu.

Sems Altmans

Daudzi AI pētnieki piekrīt, ka nav zinātnisku pierādījumu, kas liecinātu, ka AI spēj sasniegt apzinātu izpratni tādā pašā veidā kā cilvēks. Elon Musk, viens no skaļākajiem šī viedokļa atbalstītājiem, uzskata, ka mākslīgā intelekta spēja atdarināt bioloģiskās dzīvības formas ir ārkārtīgi ierobežota, un lielāks uzsvars būtu jāliek uz mašīnu ētisko vērtību mācīšanu.

Militārie pieteikumi

Militārie pieteikumi
@Midjourney

AI militārajā kontekstā strauji attīstās, un tam ir potenciāls uzlabot veidu, kādā militārpersonas veic karadarbību. Zinātnieki uztraucas, ka mākslīgais intelekts armijā var radīt dažādas ētiskas un ar risku saistītas problēmas, piemēram, neparedzamību, neaprēķināmību un pārredzamības trūkumu.

Es atzīstu AI izmantošanas potenciālu militāros lietojumos, piemēram, autonomos bezpilota lidaparātos, un aicināju to izmantot regulējamie noteikumi šāda lietošana.

Sems Altmans

AI sistēmas ir neaizsargātas pret ļaunprātīgiem dalībniekiem, kuri var vai nu pārprogrammēt sistēmas, vai iefiltrēties sistēmās, potenciāli izraisot postošus rezultātus. Lai risinātu šos bažas, starptautiskā sabiedrība ir spērusi pirmo soli 1980. gada Starptautiskajā konvencijā par noteiktiem parastajiem ieročiem, kas nosaka noteiktus aizliegumus noteiktu ieroču lietošanai. AI eksperti ir iestājušies par starptautisku komiteju, kas pārraudzītu tādus procesus kā AI novērtēšana, apmācība un izvietošana militāros lietojumos.

AGI

AGI
@Midjourney

AI tehnoloģija kļūst arvien progresīvāka un izplatītāka, tāpēc ir svarīgi izprast iespējamos riskus, ko rada AI aģenti un sistēmas. Pirmais un acīmredzamākais risks, kas saistīts ar AI aģentiem, ir risks, ka mašīnas pārspēj cilvēkus. AI aģenti var viegli pārspēt savus veidotājus, pārņemot lēmumu pieņemšanas, automatizācijas procesus un citus sarežģītus uzdevumus. Turklāt ar AI darbināma automatizācija varētu palielināt nevienlīdzību, jo tā aizvieto cilvēkus darba tirgus.

Es brīdinu, ka jaudīgākas un sarežģītākas AI sistēmas var būt tuvāk realitātei, nekā daudzi domā, un uzsvēra nepieciešamību pēc sagatavotības un preventīviem pasākumiem.

Sems Altmans

AI algoritmi un to izmantošana sarežģītu lēmumu pieņemšanā rada bažas par pārredzamības trūkumu. Organizācijas var mazinātu riskus ir saistīti ar AI aģentiem, proaktīvi nodrošinot MI attīstību ētiski, izmantojot datus, kas atbilst ētikas standartiem, un pakļaujot algoritmus kārtējām pārbaudēm, lai nodrošinātu, ka tie nav neobjektīvi un ir atbildīgi pret lietotājiem un datiem.

Secinājumi

Altmans arī paziņoja, ka, lai gan mēs, iespējams, nespēsim pārvaldīt Ķīnu, mums ar to ir jārisina sarunas. Piedāvātie kritēriji izvērtēšanai un regulējošie AI modeļi ietver spēja sintezēt bioloģiskos paraugus, manipulācijas ar cilvēku uzskatiem, iztērētās apstrādes jaudas apjoms utt.

Nozīmīga tēma ir tāda, ka Semam jābūt “attiecībām” ar valsti. Mēs ceram, ka viņi nesekos Eiropas piemēram, kā jau minējām iepriekš.

FAQ

AI riski ietver iespēju, ka mākslīgā intelekta sistēmas var uzvesties neobjektīvi vai diskriminējoši, tās var tikt izmantotas ļaunprātīgi vai neatbilstoši, vai tās var darboties nepareizi, radot kaitējumu. AI tehnoloģiju izstrāde un ieviešana var apdraudēt privātumu un datu drošību, kā arī cilvēku un sistēmu drošību.

Pieci galvenie ar AI saistītie riski ir: Darba zaudēšana, Drošības riski, Aizspriedumi vai diskriminācija, Bioieroči un AGI.

Visbīstamākais mākslīgā intelekta aspekts ir tā potenciāls izraisīt masveida bezdarbu.

Atbildības noraidīšana

Atbilstīgi Uzticības projekta vadlīnijas, lūdzu, ņemiet vērā, ka šajā lapā sniegtā informācija nav paredzēta un to nedrīkst interpretēt kā juridisku, nodokļu, ieguldījumu, finanšu vai jebkāda cita veida padomu. Ir svarīgi ieguldīt tikai to, ko varat atļauties zaudēt, un meklēt neatkarīgu finanšu padomu, ja jums ir šaubas. Lai iegūtu papildinformāciju, iesakām skatīt pakalpojumu sniegšanas noteikumus, kā arī palīdzības un atbalsta lapas, ko nodrošina izdevējs vai reklāmdevējs. MetaversePost ir apņēmies sniegt precīzus, objektīvus pārskatus, taču tirgus apstākļi var tikt mainīti bez iepriekšēja brīdinājuma.

Par Autors

Damirs ir komandas vadītājs, produktu vadītājs un redaktors Metaverse Post, kas aptver tādas tēmas kā AI/ML, AGI, LLM, Metaverse un Web3- saistītie lauki. Viņa raksti katru mēnesi piesaista lielu auditoriju, kas pārsniedz miljonu lietotāju. Šķiet, ka viņš ir eksperts ar 10 gadu pieredzi SEO un digitālā mārketinga jomā. Damirs ir minēts Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto un citas publikācijas. Viņš ceļo starp AAE, Turciju, Krieviju un NVS kā digitālais nomads. Damirs ir ieguvis bakalaura grādu fizikā, kas, viņaprāt, ir devis viņam kritiskās domāšanas prasmes, kas nepieciešamas, lai gūtu panākumus nepārtraukti mainīgajā interneta vidē. 

Vairāk rakstus
Damirs Jalalovs
Damirs Jalalovs

Damirs ir komandas vadītājs, produktu vadītājs un redaktors Metaverse Post, kas aptver tādas tēmas kā AI/ML, AGI, LLM, Metaverse un Web3- saistītie lauki. Viņa raksti katru mēnesi piesaista lielu auditoriju, kas pārsniedz miljonu lietotāju. Šķiet, ka viņš ir eksperts ar 10 gadu pieredzi SEO un digitālā mārketinga jomā. Damirs ir minēts Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto un citas publikācijas. Viņš ceļo starp AAE, Turciju, Krieviju un NVS kā digitālais nomads. Damirs ir ieguvis bakalaura grādu fizikā, kas, viņaprāt, ir devis viņam kritiskās domāšanas prasmes, kas nepieciešamas, lai gūtu panākumus nepārtraukti mainīgajā interneta vidē. 

Hot Stories
Pievienojieties mūsu informatīvajam izdevumam.
Jaunākās ziņas

Pievienojieties Morph's Revolutixon ar Holesky Testnet palaišanu

by Gregorijs Pudovskis
07. gada 2024. maijs

Nepastāvības apstākļos institucionālā apetīte pieaug pret Bitcoin ETF

Informācijas atklāšana, izmantojot 13F pieteikumus, atklāj ievērojamus institucionālos investorus, kas iesaistās Bitcoin ETF, uzsverot pieaugošo pieņemšanu ...

Uzziniet vairāk

Pienāk notiesāšanas diena: CZ liktenis ir līdzsvarā, jo ASV tiesa izskata DOJ lūgumu

Šodien ASV tiesā Sietlā Čanpens Džao ir gatavs notiesāt.

Uzziniet vairāk
Pievienojieties mūsu novatoriskajai tehnoloģiju kopienai
Lasīt vairāk
Vairāk
Kripto apmaiņas Bybits integrē Ethena Labs USDe kā nodrošinājuma aktīvu, iespējo BTC-USDe un ETH-USDe tirdzniecības pārus
Markets Ziņojums Tehnoloģija
Kripto apmaiņas Bybits integrē Ethena Labs USDe kā nodrošinājuma aktīvu, iespējo BTC-USDe un ETH-USDe tirdzniecības pārus
7. gada 2024. maijs
Bitget Wallet iepazīstina ar GetDrop Airdrop Platforma un uzsāk pirmo Mēmu monētu pasākumu ar $130,000 XNUMX balvu fondu
Markets Ziņojums Tehnoloģija
Bitget Wallet iepazīstina ar GetDrop Airdrop Platforma un uzsāk pirmo Mēmu monētu pasākumu ar $130,000 XNUMX balvu fondu
7. gada 2024. maijs
No vienkārša refleksa līdz mācību aģentiem: iepazīstieties ar dažāda veida AI aģentiem un to lomām mūsdienu lietotnēs
Dzīvesveids programmatūra Stāsti un atsauksmes Tehnoloģija
No vienkārša refleksa līdz mācību aģentiem: iepazīstieties ar dažāda veida AI aģentiem un to lomām mūsdienu lietotnēs
7. gada 2024. maijs
Meson tīkls ļauj kriptoogračiem iegūt žetonus, izmantojot ieguvi. Airdrops Un atpirkšanas programmas nāk
Markets Ziņojums Tehnoloģija
Meson tīkls ļauj kriptoogračiem iegūt žetonus, izmantojot ieguvi. Airdrops Un atpirkšanas programmas nāk
7. gada 2024. maijs
CRYPTOMERIA LABS PTE. LTD.