AI Wiki Tehnologija
Maj 18, 2023

10 najboljših AI in ChatGPT Tveganja in nevarnosti v letu 2023

Z napredkom umetne inteligence (AI) in tehnologije chatbot si vse več podjetij prizadeva za avtomatizirane rešitve za pomoč strankam kot sredstvo za izboljšanje uporabniške izkušnje in zmanjšanje režijskih stroškov. Medtem ko ima uporaba modelov umetne inteligence in rešitev klepetalnih robotov veliko koristi, ostajajo tudi različna tveganja in nevarnosti, povezane s tehnologijo, zlasti ker bodo v prihodnjem desetletju vse bolj razširjene in vključene v naše vsakdanje življenje.

Ta teden so vsi v ameriškem senatu poslušali Sama Altmana, ki je govoril o regulaciji in tveganjih modelov AI. Tukaj je osnovni povzetek:

Biološko orožje

Biološko orožje
@Midjourney

Uporaba umetne inteligence (AI) pri razvoju biološkega orožja predstavlja nevarno metodičen in učinkovit način ustvarjanja močnega in smrtonosnega orožja za množično uničevanje. ChatGPT bote so pogovorni pomočniki, ki jih poganja umetna inteligenca in so sposobni vzdrževati realistične pogovore z ljudmi. Skrb z ChatGPT botov je, da jih je mogoče uporabiti za širjenje lažnih informacij in manipulacijo umov z namenom vplivanja javno mnenje.

Opozoril sem na možno zlorabo umetne inteligence pri ustvarjanju biološkega orožja in poudaril potrebo po ureditvi za preprečevanje takšnih scenarijev.

Sam Altman

Regulacija je ključni element za preprečevanje zlorabe umetne inteligence in ChatGPT botov pri razvoju in uvajanju biološkega orožja. Vlade morajo razviti nacionalne akcijske načrte za reševanje morebitne zlorabe tehnologije, podjetja pa morajo odgovarjati za morebitno zlorabo svojih AI in ChatGPT bote. Mednarodne organizacije bi morale vlagati v pobude, ki se osredotočajo na usposabljanje, spremljanje in izobraževanje AI in ChatGPT roboti.

Izguba službe

Izguba službe
@Midjourney

Možnost izgube službe zaradi umetne inteligence in ChatGPT leta 2023 naj bi bil trikrat večji kot leta 2020. AI in ChatGPT lahko povzroči večjo negotovost na delovnem mestu, etične pomisleke in psihološki vpliv na delavce. AI in ChatGPT se lahko uporablja za spremljanje vedenja in dejavnosti zaposlenih, kar delodajalcem omogoča hitro sprejemanje odločitev brez vključevanja človeškega osebja. Poleg tega AI in ChatGPT lahko povzročijo nepoštene in pristranske odločitve, ki lahko povzročijo finančno, socialno in čustveno negotovost na delovnem mestu.

Poudaril sem, da bi razvoj umetne inteligence lahko povzročil znatno izgubo delovnih mest in večjo neenakost.

Sam Altman

Uredba AI

Uredba AI
@Midjourney

Ta članek raziskuje potencialna tveganja in nevarnosti, ki obkrožajo AI in ChatGPT ureditev leta 2023. AI in ChatGPT tehnike se lahko uporablja za izvajanje potencialno zlonamernih dejavnosti, kot je profiliranje ljudi na podlagi njihovega vedenja in dejavnosti. Pomanjkanje ustreznega Uredba AI lahko povzroči nenamerne posledice, kot so kršitve podatkov ali diskriminacija. Uredba o umetni inteligenci lahko pomaga ublažiti to tveganje z določitvijo strogih smernic za zagotovitev tega ChatGPT sistemi se ne uporabljajo v zlonameren način. Končno, AI in ChatGPT lahko postane nadzorni dejavnik v naših življenjih, nadzira stvari, kot so prometni tokovi in ​​finančni trgi, in se celo uporablja za vplivanje na naša politična in družbena življenja. Da bi preprečili takšno neravnovesje moči, je treba izvajati stroge predpise.

Predlagali smo ustanovitev nove agencije za licenciranje in regulirati AI dejavnosti, če njihove zmogljivosti presežejo določen prag.

Sam Altman

Varnostni standardi

Varnostni standardi
@Midjourney

Tehnologije umetne inteligence in chatbotov povzročajo napredek v načinu upravljanja vsakdanjega življenja. Ko te tehnologije postajajo naprednejše, lahko postanejo avtonomne in same sprejemajo odločitve. Da bi to preprečili, varnostni standardi ugotoviti je treba, da se morajo ti modeli izpolnjevati, preden jih je mogoče uporabiti. Eden od glavnih varnostnih standardov, ki jih je Altman predlagal leta 2023, je test za samopodvajanje, ki bi zagotovil, da se model AI ne more samopodvajati brez avtorizacije. Drugi varnostni standard, ki ga je leta 2023 predlagal Altman, je test za izločitev podatkov, ki bi zagotovil, da modeli AI ne morejo nepooblaščeno izločiti podatkov iz sistema. Vlade po vsem svetu so začele ukrepati, da bi zaščitile državljane pred morebitnimi tveganji.

Uvesti moramo varnostne standarde, ki jih morajo izpolnjevati modeli umetne inteligence pred uvedbo, vključno s testi za samopodvajanje in izločanje podatkov.

Sam Altman

Neodvisne revizije

Neodvisne revizije
@Midjourney

V letu 2023 postane potreba po neodvisnih revizijah tehnologij umetne inteligence in magistrskega študija vedno bolj pomembna. Umetna inteligenca predstavlja različna tveganja, kot so nenadzorovani algoritmi strojnega učenja, ki lahko neprostovoljno spremenijo in celo izbrišejo podatke, kibernetski napadi pa vse bolj ciljajo na umetno inteligenco in ChatGPT. Modeli, ustvarjeni z umetno inteligenco, vključujejo pristranskost, kar lahko vodi v diskriminatorne prakse. Neodvisna revizija bi morala vključevati pregled modelira AI se usposablja o načrtovanju algoritma in izhodu modela, da zagotovi, da ne prikazuje pristranskega kodiranja ali rezultatov. Poleg tega mora revizija vključevati pregled varnostnih politik in postopkov, ki se uporabljajo za zaščito podatki o uporabniku in zagotoviti varno okolje.

Izvesti je treba neodvisne revizije, da se zagotovi, da modeli umetne inteligence izpolnjujejo uveljavljene varnostne standarde.

Sam Altman

Brez neodvisne revizije so podjetja in uporabniki izpostavljeni potencialno nevarno in draga tveganja, ki bi se jim lahko izognili. Ključnega pomena je, da imajo vsa podjetja, ki uporabljajo to tehnologijo, pred uvedbo opravljeno neodvisno revizijo, da se zagotovi, da je tehnologija varna in etična.

AI kot orodje

AI kot orodje
@Midjourney

AI se je razvil eksponentno in napredovanja kot GPT-4 privedli do bolj realističnih in sofisticiranih interakcij z računalniki. Vendar je Altman poudaril, da je treba AI obravnavati kot orodje, ne kot čuteča bitja. GPT-4 je model za obdelavo naravnega jezika, ki lahko ustvari vsebino, ki se skoraj ne razlikuje od vsebine, ki jo je napisal človek, pri čemer odvzame nekaj dela piscem in uporabnikom omogoči bolj človeško izkušnjo s tehnologijo.

AI, predvsem napredni modeli, kot je npr GPT-4, je treba obravnavati kot orodje, ne kot čuteča bitja.

Sam Altman

Vendar pa Sam Altman opozarja, da lahko prevelik poudarek na AI kot več kot orodju vodi do nerealnih pričakovanj in napačnih prepričanj o njegovih zmogljivostih. Poudarja tudi, da umetna inteligenca ni brez etičnih posledic in da bi se lahko napredne ravni umetne inteligence uporabljale za dobro, še vedno pa bi jo lahko uporabljali za slabo, kar bi vodilo v nevarno rasno profiliranje, kršitve zasebnostiin celo varnostne grožnje. Altman poudarja pomen razumevanja, da je umetna inteligenca le orodje in da je treba nanjo gledati kot na orodje za pospeševanje človeškega napredka, ne pa kot nadomeščanje ljudi.

AI zavest

AI zavest
@Midjourney

Razprava o umetni inteligenci in o tem, ali lahko doseže zavestno zavedanje, narašča. Številni raziskovalci trdijo, da stroji kljub svoji zapleteni računalniški arhitekturi niso sposobni doživljati čustvenih, mentalnih ali zavestnih stanj. Nekateri raziskovalci sprejemajo možnost, da AI doseže zavestno zavedanje. Glavni argument za to možnost je, da je umetna inteligenca zgrajena na programih, ki jo omogočajo razmnoževanje določeni fizični in duševni procesi, ki jih najdemo v človeških možganih. Vendar pa je glavni nasprotni argument ta, da umetna inteligenca nima prave čustvene inteligence.

Medtem ko je treba na umetno inteligenco gledati kot na orodje, se zavedam, da v znanstveni skupnosti poteka razprava o potencialni zavesti o umetni inteligenci.

Sam Altman

Mnogi raziskovalci umetne inteligence se strinjajo, da ni znanstvenih dokazov, ki bi kazali, da je umetna inteligenca sposobna doseči zavestno zavedanje na enak način kot človek. Elon Musk, eden najglasnejših zagovornikov tega stališča, meni, da je zmožnost umetne inteligence, da posnema biološke oblike življenja, izjemno omejena in bi bilo treba bolj poudariti učenje strojev o etičnih vrednotah.

Vojaške aplikacije

Vojaške aplikacije
@Midjourney

Umetna inteligenca v vojaškem kontekstu hitro napreduje in ima potencial za izboljšanje načina vojskovanja v vojski. Znanstveniki so zaskrbljeni, da bi umetna inteligenca v vojski lahko predstavljala vrsto etičnih in s tveganjem povezanih težav, kot so nepredvidljivost, nepreračunljivost in pomanjkanje preglednosti.

Zavedam se potenciala uporabe umetne inteligence v vojaških aplikacijah, kot so avtonomni brezpilotni letalniki, in zahtevam predpisi za urejanje takšno uporabo.

Sam Altman

Sistemi umetne inteligence so ranljivi za zlonamerne akterje, ki bi lahko bodisi reprogramirali sisteme bodisi se infiltrirali vanje, kar bi lahko privedlo do uničujočega rezultata. Za obravnavo teh skrbije mednarodna skupnost naredila prvi korak v obliki mednarodne konvencije o določenem konvencionalnem orožju iz leta 1980, ki določa nekatere prepovedi uporabe določenega orožja. Strokovnjaki za umetno inteligenco so se zavzemali za ustanovitev mednarodnega odbora, ki bi nadziral procese, kot so ocenjevanje, usposabljanje in uporaba umetne inteligence v vojaških aplikacijah.

AGI

AGI
@Midjourney

Tehnologija umetne inteligence postaja vse bolj napredna in prodorna, zato je pomembno razumeti potencialna tveganja, ki jih predstavljajo agenti in sistemi umetne inteligence. Prvo in najbolj očitno tveganje, povezano z agenti AI, je nevarnost, da stroji prelisičijo ljudi. Agenti AI lahko zlahka presežejo svoje ustvarjalce, tako da prevzamejo odločanje, procese avtomatizacije in druge napredne naloge. Poleg tega bi lahko avtomatizacija, ki jo poganja AI, povečala neenakost, saj nadomešča ljudi v trg dela.

Opozarjam, da so zmogljivejši in zapletenejši sistemi umetne inteligence morda bližje realnosti, kot mnogi mislijo, in poudarja potrebo po pripravljenosti in preventivnih ukrepih.

Sam Altman

Algoritmi umetne inteligence in njihova uporaba pri kompleksnem odločanju vzbujajo skrb zaradi pomanjkanja preglednosti. Organizacije lahko zmanjšati tveganja povezani z agenti umetne inteligence tako, da proaktivno zagotavljajo, da se umetna inteligenca razvija etično, z uporabo podatkov, ki so skladni z etičnimi standardi, in podvrženjem algoritmov rutinskim preizkusom, da se zagotovi, da niso pristranski in odgovorni do uporabnikov in podatkov.

zaključek

Altman je tudi izjavil, da se moramo z njo pogajati, čeprav morda ne bomo mogli upravljati Kitajske. Predlagana merila za ocenjevanje in regulacijski modeli AI vključujejo sposobnost sintetiziranja bioloških vzorcev, manipulacija s prepričanji ljudi, količina porabljene procesorske moči itd.

Pomembna tema je, da bi Sam moral imeti "odnose" z državo. Upamo, da ne bodo sledili zgledu Evrope, kot smo že omenili.

Pogosta vprašanja

Tveganja umetne inteligence vključujejo možnost, da se sistemi umetne inteligence obnašajo pristransko ali diskriminatorno, da se uporabljajo zlonamerno ali neustrezno ali da ne delujejo pravilno na načine, ki povzročajo škodo. Razvoj in uvedba tehnologij umetne inteligence lahko predstavljata tveganja za zasebnost in varnost podatkov, pa tudi za varnost in varnost ljudi in sistemov.

Pet glavnih tveganj, povezanih z umetno inteligenco, je: izguba zaposlitve, Varnostna tveganja, Pristranskosti ali diskriminacija, Biološko orožje in AGI.

Najbolj nevaren vidik umetne inteligence je njen potencial, da povzroči množično brezposelnost.

Zavrnitev odgovornosti

V skladu z Smernice projekta Trust, upoštevajte, da informacije na tej strani niso namenjene in se jih ne sme razlagati kot pravni, davčni, naložbeni, finančni ali kakršen koli drug nasvet. Pomembno je, da vlagate samo tisto, kar si lahko privoščite izgubiti, in da poiščete neodvisen finančni nasvet, če imate kakršne koli dvome. Za dodatne informacije predlagamo, da si ogledate določila in pogoje ter strani s pomočjo in podporo, ki jih nudi izdajatelj ali oglaševalec. MetaversePost se zavzema za natančno in nepristransko poročanje, vendar se tržni pogoji lahko spremenijo brez predhodnega obvestila.

O avtorju

Damir je vodja ekipe, produktni vodja in urednik pri Metaverse Post, ki pokriva teme, kot so AI/ML, AGI, LLMs, Metaverse in Web3- sorodna področja. Njegovi članki vsak mesec pritegnejo množično občinstvo več kot milijon uporabnikov. Zdi se, da je strokovnjak z 10-letnimi izkušnjami na področju SEO in digitalnega trženja. Damir je bil omenjen v Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto in druge publikacije. Kot digitalni nomad potuje med ZAE, Turčijo, Rusijo in SND. Damir je diplomiral iz fizike, kar mu je po njegovem mnenju dalo sposobnosti kritičnega razmišljanja, potrebne za uspeh v nenehno spreminjajočem se okolju interneta. 

več člankov
Damir Yalalov
Damir Yalalov

Damir je vodja ekipe, produktni vodja in urednik pri Metaverse Post, ki pokriva teme, kot so AI/ML, AGI, LLMs, Metaverse in Web3- sorodna področja. Njegovi članki vsak mesec pritegnejo množično občinstvo več kot milijon uporabnikov. Zdi se, da je strokovnjak z 10-letnimi izkušnjami na področju SEO in digitalnega trženja. Damir je bil omenjen v Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto in druge publikacije. Kot digitalni nomad potuje med ZAE, Turčijo, Rusijo in SND. Damir je diplomiral iz fizike, kar mu je po njegovem mnenju dalo sposobnosti kritičnega razmišljanja, potrebne za uspeh v nenehno spreminjajočem se okolju interneta. 

Hot Stories
Pridružite se našemu glasilu.
Zadnje novice

Institucionalni apetit raste proti Bitcoin ETF-jem sredi volatilnosti

Razkritja prek vlog 13F razkrivajo pomembne institucionalne vlagatelje, ki se ukvarjajo z Bitcoin ETF, kar poudarja vse večje sprejemanje ...

Več o tem

Prihaja dan obsodbe: usoda CZ visi na ravnovesju, ko ameriško sodišče obravnava tožbeni razlog DOJ

Changpeng Zhao se danes sooča z obsodbo na ameriškem sodišču v Seattlu.

Več o tem
Pridružite se naši inovativni tehnološki skupnosti
Preberi več
Preberi več
Stacks, Moonriver Network, Hedera in Iron Fish za sodelovanje v Axelarjevem programu Interchain Amplifier
Novice Tehnologija
Stacks, Moonriver Network, Hedera in Iron Fish za sodelovanje v Axelarjevem programu Interchain Amplifier
Maj 7, 2024
Tesla sprejema Dogecoin: velika spodbuda za kovanec meme, saj postaja možnost plačila v Teslini spletni trgovini
Prisotnost Zgodbe in ocene Tehnologija
Tesla sprejema Dogecoin: velika spodbuda za kovanec meme, saj postaja možnost plačila v Teslini spletni trgovini
Maj 7, 2024
Morph predstavlja svoj Holesky Testnet z optimistično integracijo zkEVM, mostnim mehanizmom in funkcijami omrežja decentraliziranega sekvencerja
Novice Tehnologija
Morph predstavlja svoj Holesky Testnet z optimistično integracijo zkEVM, mostnim mehanizmom in funkcijami omrežja decentraliziranega sekvencerja
Maj 6, 2024
Robinhood Crypto prejme Wellsovo obvestilo Komisije za vrednostne papirje in borzo zaradi domnevnih kršitev v zvezi z vrednostnimi papirji
Prisotnost Novice Tehnologija
Robinhood Crypto prejme Wellsovo obvestilo Komisije za vrednostne papirje in borzo zaradi domnevnih kršitev v zvezi z vrednostnimi papirji
Maj 6, 2024
CRYPTOMERIA LABS PTE. LTD.