10 najboljših AI in ChatGPT Tveganja in nevarnosti v letu 2023
Z napredkom umetne inteligence (AI) in tehnologije chatbot si vse več podjetij prizadeva za avtomatizirane rešitve za pomoč strankam kot sredstvo za izboljšanje uporabniške izkušnje in zmanjšanje režijskih stroškov. Medtem ko ima uporaba modelov umetne inteligence in rešitev klepetalnih robotov veliko koristi, ostajajo tudi različna tveganja in nevarnosti, povezane s tehnologijo, zlasti ker bodo v prihodnjem desetletju vse bolj razširjene in vključene v naše vsakdanje življenje.
Ta teden so vsi v ameriškem senatu poslušali Sama Altmana, ki je govoril o regulaciji in tveganjih modelov AI. Tukaj je osnovni povzetek:
Biološko orožje
Uporaba umetne inteligence (AI) pri razvoju biološkega orožja predstavlja nevarno metodičen in učinkovit način ustvarjanja močnega in smrtonosnega orožja za množično uničevanje. ChatGPT bote so pogovorni pomočniki, ki jih poganja umetna inteligenca in so sposobni vzdrževati realistične pogovore z ljudmi. Skrb z ChatGPT botov je, da jih je mogoče uporabiti za širjenje lažnih informacij in manipulacijo umov z namenom vplivanja javno mnenje.
Regulacija je ključni element za preprečevanje zlorabe umetne inteligence in ChatGPT botov pri razvoju in uvajanju biološkega orožja. Vlade morajo razviti nacionalne akcijske načrte za reševanje morebitne zlorabe tehnologije, podjetja pa morajo odgovarjati za morebitno zlorabo svojih AI in ChatGPT bote. Mednarodne organizacije bi morale vlagati v pobude, ki se osredotočajo na usposabljanje, spremljanje in izobraževanje AI in ChatGPT roboti.
Izguba službe
Možnost izgube službe zaradi umetne inteligence in ChatGPT leta 2023 naj bi bil trikrat večji kot leta 2020. AI in ChatGPT lahko povzroči večjo negotovost na delovnem mestu, etične pomisleke in psihološki vpliv na delavce. AI in ChatGPT se lahko uporablja za spremljanje vedenja in dejavnosti zaposlenih, kar delodajalcem omogoča hitro sprejemanje odločitev brez vključevanja človeškega osebja. Poleg tega AI in ChatGPT lahko povzročijo nepoštene in pristranske odločitve, ki lahko povzročijo finančno, socialno in čustveno negotovost na delovnem mestu.
Uredba AI
Ta članek raziskuje potencialna tveganja in nevarnosti, ki obkrožajo AI in ChatGPT ureditev leta 2023. AI in ChatGPT tehnike se lahko uporablja za izvajanje potencialno zlonamernih dejavnosti, kot je profiliranje ljudi na podlagi njihovega vedenja in dejavnosti. Pomanjkanje ustreznega Uredba AI lahko povzroči nenamerne posledice, kot so kršitve podatkov ali diskriminacija. Uredba o umetni inteligenci lahko pomaga ublažiti to tveganje z določitvijo strogih smernic za zagotovitev tega ChatGPT sistemi se ne uporabljajo v zlonameren način. Končno, AI in ChatGPT lahko postane nadzorni dejavnik v naših življenjih, nadzira stvari, kot so prometni tokovi in finančni trgi, in se celo uporablja za vplivanje na naša politična in družbena življenja. Da bi preprečili takšno neravnovesje moči, je treba izvajati stroge predpise.
Varnostni standardi
Tehnologije umetne inteligence in chatbotov povzročajo napredek v načinu upravljanja vsakdanjega življenja. Ko te tehnologije postajajo naprednejše, lahko postanejo avtonomne in same sprejemajo odločitve. Da bi to preprečili, varnostni standardi ugotoviti je treba, da se morajo ti modeli izpolnjevati, preden jih je mogoče uporabiti. Eden od glavnih varnostnih standardov, ki jih je Altman predlagal leta 2023, je test za samopodvajanje, ki bi zagotovil, da se model AI ne more samopodvajati brez avtorizacije. Drugi varnostni standard, ki ga je leta 2023 predlagal Altman, je test za izločitev podatkov, ki bi zagotovil, da modeli AI ne morejo nepooblaščeno izločiti podatkov iz sistema. Vlade po vsem svetu so začele ukrepati, da bi zaščitile državljane pred morebitnimi tveganji.
Neodvisne revizije
V letu 2023 postane potreba po neodvisnih revizijah tehnologij umetne inteligence in magistrskega študija vedno bolj pomembna. Umetna inteligenca predstavlja različna tveganja, kot so nenadzorovani algoritmi strojnega učenja, ki lahko neprostovoljno spremenijo in celo izbrišejo podatke, kibernetski napadi pa vse bolj ciljajo na umetno inteligenco in ChatGPT. Modeli, ustvarjeni z umetno inteligenco, vključujejo pristranskost, kar lahko vodi v diskriminatorne prakse. Neodvisna revizija bi morala vključevati pregled modelira AI se usposablja o načrtovanju algoritma in izhodu modela, da zagotovi, da ne prikazuje pristranskega kodiranja ali rezultatov. Poleg tega mora revizija vključevati pregled varnostnih politik in postopkov, ki se uporabljajo za zaščito podatki o uporabniku in zagotoviti varno okolje.
Brez neodvisne revizije so podjetja in uporabniki izpostavljeni potencialno nevarno in draga tveganja, ki bi se jim lahko izognili. Ključnega pomena je, da imajo vsa podjetja, ki uporabljajo to tehnologijo, pred uvedbo opravljeno neodvisno revizijo, da se zagotovi, da je tehnologija varna in etična.
AI kot orodje
AI se je razvil eksponentno in napredovanja kot GPT-4 privedli do bolj realističnih in sofisticiranih interakcij z računalniki. Vendar je Altman poudaril, da je treba AI obravnavati kot orodje, ne kot čuteča bitja. GPT-4 je model za obdelavo naravnega jezika, ki lahko ustvari vsebino, ki se skoraj ne razlikuje od vsebine, ki jo je napisal človek, pri čemer odvzame nekaj dela piscem in uporabnikom omogoči bolj človeško izkušnjo s tehnologijo.
Vendar pa Sam Altman opozarja, da lahko prevelik poudarek na AI kot več kot orodju vodi do nerealnih pričakovanj in napačnih prepričanj o njegovih zmogljivostih. Poudarja tudi, da umetna inteligenca ni brez etičnih posledic in da bi se lahko napredne ravni umetne inteligence uporabljale za dobro, še vedno pa bi jo lahko uporabljali za slabo, kar bi vodilo v nevarno rasno profiliranje, kršitve zasebnostiin celo varnostne grožnje. Altman poudarja pomen razumevanja, da je umetna inteligenca le orodje in da je treba nanjo gledati kot na orodje za pospeševanje človeškega napredka, ne pa kot nadomeščanje ljudi.
AI zavest
Razprava o umetni inteligenci in o tem, ali lahko doseže zavestno zavedanje, narašča. Številni raziskovalci trdijo, da stroji kljub svoji zapleteni računalniški arhitekturi niso sposobni doživljati čustvenih, mentalnih ali zavestnih stanj. Nekateri raziskovalci sprejemajo možnost, da AI doseže zavestno zavedanje. Glavni argument za to možnost je, da je umetna inteligenca zgrajena na programih, ki jo omogočajo razmnoževanje določeni fizični in duševni procesi, ki jih najdemo v človeških možganih. Vendar pa je glavni nasprotni argument ta, da umetna inteligenca nima prave čustvene inteligence.
Mnogi raziskovalci umetne inteligence se strinjajo, da ni znanstvenih dokazov, ki bi kazali, da je umetna inteligenca sposobna doseči zavestno zavedanje na enak način kot človek. Elon Musk, eden najglasnejših zagovornikov tega stališča, meni, da je zmožnost umetne inteligence, da posnema biološke oblike življenja, izjemno omejena in bi bilo treba bolj poudariti učenje strojev o etičnih vrednotah.
Vojaške aplikacije
Umetna inteligenca v vojaškem kontekstu hitro napreduje in ima potencial za izboljšanje načina vojskovanja v vojski. Znanstveniki so zaskrbljeni, da bi umetna inteligenca v vojski lahko predstavljala vrsto etičnih in s tveganjem povezanih težav, kot so nepredvidljivost, nepreračunljivost in pomanjkanje preglednosti.
Sistemi umetne inteligence so ranljivi za zlonamerne akterje, ki bi lahko bodisi reprogramirali sisteme bodisi se infiltrirali vanje, kar bi lahko privedlo do uničujočega rezultata. Za obravnavo teh skrbije mednarodna skupnost naredila prvi korak v obliki mednarodne konvencije o določenem konvencionalnem orožju iz leta 1980, ki določa nekatere prepovedi uporabe določenega orožja. Strokovnjaki za umetno inteligenco so se zavzemali za ustanovitev mednarodnega odbora, ki bi nadziral procese, kot so ocenjevanje, usposabljanje in uporaba umetne inteligence v vojaških aplikacijah.
AGI
Tehnologija umetne inteligence postaja vse bolj napredna in prodorna, zato je pomembno razumeti potencialna tveganja, ki jih predstavljajo agenti in sistemi umetne inteligence. Prvo in najbolj očitno tveganje, povezano z agenti AI, je nevarnost, da stroji prelisičijo ljudi. Agenti AI lahko zlahka presežejo svoje ustvarjalce, tako da prevzamejo odločanje, procese avtomatizacije in druge napredne naloge. Poleg tega bi lahko avtomatizacija, ki jo poganja AI, povečala neenakost, saj nadomešča ljudi v trg dela.
Algoritmi umetne inteligence in njihova uporaba pri kompleksnem odločanju vzbujajo skrb zaradi pomanjkanja preglednosti. Organizacije lahko zmanjšati tveganja povezani z agenti umetne inteligence tako, da proaktivno zagotavljajo, da se umetna inteligenca razvija etično, z uporabo podatkov, ki so skladni z etičnimi standardi, in podvrženjem algoritmov rutinskim preizkusom, da se zagotovi, da niso pristranski in odgovorni do uporabnikov in podatkov.
zaključek
Altman je tudi izjavil, da se moramo z njo pogajati, čeprav morda ne bomo mogli upravljati Kitajske. Predlagana merila za ocenjevanje in regulacijski modeli AI vključujejo sposobnost sintetiziranja bioloških vzorcev, manipulacija s prepričanji ljudi, količina porabljene procesorske moči itd.
Pomembna tema je, da bi Sam moral imeti "odnose" z državo. Upamo, da ne bodo sledili zgledu Evrope, kot smo že omenili.
Pogosta vprašanja
Tveganja umetne inteligence vključujejo možnost, da se sistemi umetne inteligence obnašajo pristransko ali diskriminatorno, da se uporabljajo zlonamerno ali neustrezno ali da ne delujejo pravilno na načine, ki povzročajo škodo. Razvoj in uvedba tehnologij umetne inteligence lahko predstavljata tveganja za zasebnost in varnost podatkov, pa tudi za varnost in varnost ljudi in sistemov.
Pet glavnih tveganj, povezanih z umetno inteligenco, je: izguba zaposlitve, Varnostna tveganja, Pristranskosti ali diskriminacija, Biološko orožje in AGI.
Najbolj nevaren vidik umetne inteligence je njen potencial, da povzroči množično brezposelnost.
Zavrnitev odgovornosti
V skladu z Smernice projekta Trust, upoštevajte, da informacije na tej strani niso namenjene in se jih ne sme razlagati kot pravni, davčni, naložbeni, finančni ali kakršen koli drug nasvet. Pomembno je, da vlagate samo tisto, kar si lahko privoščite izgubiti, in da poiščete neodvisen finančni nasvet, če imate kakršne koli dvome. Za dodatne informacije predlagamo, da si ogledate določila in pogoje ter strani s pomočjo in podporo, ki jih nudi izdajatelj ali oglaševalec. MetaversePost se zavzema za natančno in nepristransko poročanje, vendar se tržni pogoji lahko spremenijo brez predhodnega obvestila.
O avtorju
Damir je vodja ekipe, produktni vodja in urednik pri Metaverse Post, ki pokriva teme, kot so AI/ML, AGI, LLMs, Metaverse in Web3- sorodna področja. Njegovi članki vsak mesec pritegnejo množično občinstvo več kot milijon uporabnikov. Zdi se, da je strokovnjak z 10-letnimi izkušnjami na področju SEO in digitalnega trženja. Damir je bil omenjen v Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto in druge publikacije. Kot digitalni nomad potuje med ZAE, Turčijo, Rusijo in SND. Damir je diplomiral iz fizike, kar mu je po njegovem mnenju dalo sposobnosti kritičnega razmišljanja, potrebne za uspeh v nenehno spreminjajočem se okolju interneta.
več člankovDamir je vodja ekipe, produktni vodja in urednik pri Metaverse Post, ki pokriva teme, kot so AI/ML, AGI, LLMs, Metaverse in Web3- sorodna področja. Njegovi članki vsak mesec pritegnejo množično občinstvo več kot milijon uporabnikov. Zdi se, da je strokovnjak z 10-letnimi izkušnjami na področju SEO in digitalnega trženja. Damir je bil omenjen v Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto in druge publikacije. Kot digitalni nomad potuje med ZAE, Turčijo, Rusijo in SND. Damir je diplomiral iz fizike, kar mu je po njegovem mnenju dalo sposobnosti kritičnega razmišljanja, potrebne za uspeh v nenehno spreminjajočem se okolju interneta.